Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto
HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto
Pensato per il professionista sempre in movimento, HP Elitebook Ultra G1i 14 abbina una piattaforma Intel Core Ultra 7 ad una costruzione robusta, riuscendo a mantenere un peso contenuto e una facile trasportabilità. Ottime prestazioni per gli ambiti di produttività personale con un'autonomia lontano dalla presa di corrente che permette di lavorare per tutta la giornata
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Basato su piattaforma Qualcomm Snapdragon X Plus a 8 core, il nuovo Microsoft Surface Pro 12 è un notebook 2 in 1 molto compatto che punta sulla facilità di trasporto, sulla flessibilità d'uso nelle differenti configurazioni, sul funzionamento senza ventola e sull'ampia autonomia lontano dalla presa di corrente
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Il REDMAGIC Astra Gaming Tablet rappresenta una rivoluzione nel gaming portatile, combinando un display OLED da 9,06 pollici a 165Hz con il potente Snapdragon 8 Elite e un innovativo sistema di raffreddamento Liquid Metal 2.0 in un form factor compatto da 370 grammi. Si posiziona come il tablet gaming più completo della categoria, offrendo un'esperienza di gioco senza compromessi in mobilità.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 07-05-2021, 08:14   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75173
Link alla notizia: https://www.hwupgrade.it/news/skvide...tel_97541.html

Le ultime indiscrezioni riportano che la tecnologia AMD FidelityFX Super Resolution debutterà a giugno e sarà molto diversa dal DLSS di Nvidia. Allo stesso tempo, non è da escludersi che si tratti di una soluzione agnostica, cioè in grado di funzionare anche su GPU di altri produttori.

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 07-05-2021, 08:42   #2
ninja750
Senior Member
 
L'Avatar di ninja750
 
Iscritto dal: Sep 2003
Città: Torino
Messaggi: 20443
dai che così raddoppio gratis le prestazioni della mia rx580

ninja750 è offline   Rispondi citando il messaggio o parte di esso
Old 07-05-2021, 08:58   #3
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3557
Logico funzioni differentemente.
Si vede che hanno capito che senza HW dedicato non possono far girare una rete neurale e quindi la prima idea di sviluppare un algoritmo con DirectML è andata a ramengo in fretta.

Quindi gli è rimasto solo l'altra opzione: il VSR, roba che diminuisce la qualità che non viene però più recuperata. Infatti parlano di "early in pipeline" e non in post come fa Nvidia.
Il resto (che è comunque necessario), cioè in post, rimangono solo algoritmi di calcolo statici come si sono sempre fatti per cercare di migliorare l'output finale. Saranno più o meno complessi (visto anche la potenza dell'HW su cui girano) ma sempre roba che non può aggiungere i dettagli rimossi, diversamente dal DLSS.

Ed è cosa buffa che si parli di VSR a oltre 2 anni e mezzo dal lancio di Turing che già lo supportava ma che nessuno ha mai preso in considerazione (chissà perché) anche dopo le demo di Nvidia stessa che mostravano i possibili guadagni prestazionali. Vorrà dire che anche Turing, come con il DLSS, godrà appieno di questa tecnologia nei titoli che la supporteranno senza DLSS, e ringraziamo sempre il fatto che AMD è monopolista nella fornitura dell'HW per console perché, come con il mesh shading, dimostra che è un passo avanti e con lei le nuove soluzioni arrivano prima

Possibile anche che Nvidia sfrutti questa cosa per aumentare ulteriormente le prestazioni del DLSS aggiungendolo al VSR, visto che l'immagine di partenza ora può essere anche di risoluzione diversa (quindi calcolata ancora più velocemente) e il DLSS può ricostruire anche le parti con meno dettagli aumentando la qualità dell'immagine.

Ovviamente quando disponibile si chiede la prova meticolosa dei due algoritmi per valutare l'impatto sulla qualità finale dell'immagine. E magari non solo in versione Performance come fatto nell'ultimo test del DLSS, visto che le versioni che mantengono la qualità decente perdono sì in prestazioni ma non così tanto da escludere a priori il loro uso.

E' evidente che AMD sta cercando di salvarsi in corner in una situazione in cui ha sottovalutato il potenziale dell'accelerazione AI non aggiungendo alcun HW specifico. Stessa cosa fatta da Sony e MS che avrebbero potuto aggiungerlo "a posteriori" se avessero voluto.
Ma vedendo il numero di transistor più che raddoppiato rispetto a Polaris per aggiungere poca roba, direi che se avesse voluto veramente supportare sia l'RT che l'accelerazione AI con roba tipo i tensor core oggi dovrebbe sfornare die grandi una volta e mezza quelli di Nvidia nonostante il PP migliore.
Aspettiamo i 5nm, ma dubito che le cose miglioreranno, visto i costi per mm2 che si avranno con quel PP.. e Nvidia non ha ancora giocato la carta "PP avanzato con frequenze da capogiro" come ha già fatto AMD, pur avendo il supporto completo a tutte le feature moderne finora disponibili.
Aspettiamoci sorprese al prossimo giro che per AMD direi non sarà prima del 2023 quando i 5nm avranno rese paragonabili ai 7nm di adesso (ma i costi saranno sensibilmente maggiori, come visto dai 28nm in poi rispecchiati nei prezzi all'utente....per chi ancora crede che i 500mm2 del G80 hanno gli stessi costi dei 500mm2 di Turing o peggio, dei 500mm2 di RDNA1/2).

Quote:
Originariamente inviato da ninja750 Guarda i messaggi
dai che così raddoppio gratis le prestazioni della mia rx580
Spiace deludere le tue aspettative, ma il supporto HW del VSR ce l'ha solo RDNA2 (e non sono sicuro che ce l'abbiano entrambe le console che montano una roba ibrida), per cui tutte le serie precedenti di AMD potranno godere al massimo solo degli effetti di post ultra sofisticati (funzionanti a risoluzione basse o muore tutto) ma non dell'aumento di prestazioni per la diminuzione parziale della qualità d'immagine.

Ultima modifica di CrapaDiLegno : 07-05-2021 alle 10:36.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 07-05-2021, 09:53   #4
ghiltanas
Senior Member
 
L'Avatar di ghiltanas
 
Iscritto dal: Sep 2006
Messaggi: 27832
vediamo come va, anche se i dubbi a riguardo sono molti
__________________
CPU: Ryzen 5700x COOLER: Noctua NH-D15S MOBO: Gigabyte b550 Professional RAM: 4x8 @3600 GPU: XfX Qick319 Rx6700XT HD1: Sk Hynix Platinum p41 2TB HD2: Sabrent Rocket 1TB MONITOR: Xaomi Mi Curved 34"
ghiltanas è offline   Rispondi citando il messaggio o parte di esso
Old 07-05-2021, 10:38   #5
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
FidelityFX funziona anche su Nvidia, mi aspetto sia lo stesso per questa visto che NON fa uso di unità dedicate.

Sarà sicuramente meglio del classico upscale per tutti quei titoli sponsorizzati AMD e in cui il DLSS è stato bandito a tavolino.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 07-05-2021, 10:45   #6
supertigrotto
Senior Member
 
Iscritto dal: Aug 2006
Città: Valdagno
Messaggi: 5107
Una dei fattori per cui ho scelto quella volta la 5700 al posto della 2060 o 2070 è per via delle tecnologie proprietarie di Nvidia,mi rompeva prendere un monitor Gsinc per cui sarei stato costretto ad usare sempre schede Nvidia,magari se mi veniva voglia di passare ad AMD o le future Intel,sarei stato un po' frenato dal monitor.
Comunque sia, AMD sta portando avanti i chiplet anche in ambito GPU (se per quello pure Intel) ,quindi mi aspetto che le prossime generazioni,abbiano funzioni implementabili con appositi chip on package.
supertigrotto è offline   Rispondi citando il messaggio o parte di esso
Old 07-05-2021, 11:10   #7
StylezZz`
Senior Member
 
L'Avatar di StylezZz`
 
Iscritto dal: Oct 2010
Messaggi: 9290
Quote:
Originariamente inviato da supertigrotto Guarda i messaggi
Una dei fattori per cui ho scelto quella volta la 5700 al posto della 2060 o 2070 è per via delle tecnologie proprietarie di Nvidia,mi rompeva prendere un monitor Gsinc per cui sarei stato costretto ad usare sempre schede Nvidia,magari se mi veniva voglia di passare ad AMD o le future Intel,sarei stato un po' frenato dal monitor
Le schede nvidia serie 10x0 e 20x0 sono compatibili con freesync da gennaio 2019, prima dell'uscita delle 5700.
__________________
CPU: R5 7600 MOBO: ROG B650E-I RAM: G.Skill 32GB 6000 C30 GPU: RX 9070 XT NVMe: SN850X 1TB PSU: SGX-750 CASE: MiniNeo S400
StylezZz` è offline   Rispondi citando il messaggio o parte di esso
Old 07-05-2021, 11:20   #8
supertigrotto
Senior Member
 
Iscritto dal: Aug 2006
Città: Valdagno
Messaggi: 5107
Quote:
Originariamente inviato da StylezZz` Guarda i messaggi
Le schede nvidia serie 10x0 e 20x0 sono compatibili con freesync da gennaio 2019, prima dell'uscita delle 5700.
A me non risulta,quando ho preso la 5700 la compatibilità di Nvidia con il freesync è uscita dopo diversi mesi.
Si vociferava che Nvidia voleva rendere le schede compatibili ma non c'era niente di certo.
supertigrotto è offline   Rispondi citando il messaggio o parte di esso
Old 07-05-2021, 11:31   #9
StylezZz`
Senior Member
 
L'Avatar di StylezZz`
 
Iscritto dal: Oct 2010
Messaggi: 9290
Quote:
Originariamente inviato da supertigrotto Guarda i messaggi
A me non risulta,quando ho preso la 5700 la compatibilità di Nvidia con il freesync è uscita dopo diversi mesi.
Si vociferava che Nvidia voleva rendere le schede compatibili ma non c'era niente di certo.
https://www.hwupgrade.it/news/skvide...ync_80005.html

Data notizia: 7 gennaio 2019.

Dopo qualche settimana uscirono i driver aggiornati.

EDIT: sto vedendo che all'epoca sei stato tra i primi a commentare nelle varie notizie riguardo la compatibilità gsync/freesync, quindi come mai scrivi che non ti risulta?
__________________
CPU: R5 7600 MOBO: ROG B650E-I RAM: G.Skill 32GB 6000 C30 GPU: RX 9070 XT NVMe: SN850X 1TB PSU: SGX-750 CASE: MiniNeo S400

Ultima modifica di StylezZz` : 07-05-2021 alle 11:38.
StylezZz` è offline   Rispondi citando il messaggio o parte di esso
Old 07-05-2021, 11:56   #10
k0nt3
Senior Member
 
Iscritto dal: Dec 2005
Messaggi: 7237
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Logico funzioni differentemente.
Si vede che hanno capito che senza HW dedicato non possono far girare una rete neurale e quindi la prima idea di sviluppare un algoritmo con DirectML è andata a ramengo in fretta.

Quindi gli è rimasto solo l'altra opzione: il VSR, roba che diminuisce la qualità che non viene però più recuperata. Infatti parlano di "early in pipeline" e non in post come fa Nvidia.
Il resto (che è comunque necessario), cioè in post, rimangono solo algoritmi di calcolo statici come si sono sempre fatti per cercare di migliorare l'output finale. Saranno più o meno complessi (visto anche la potenza dell'HW su cui girano) ma sempre roba che non può aggiungere i dettagli rimossi, diversamente dal DLSS.

Ed è cosa buffa che si parli di VSR a oltre 2 anni e mezzo dal lancio di Turing che già lo supportava ma che nessuno ha mai preso in considerazione (chissà perché) anche dopo le demo di Nvidia stessa che mostravano i possibili guadagni prestazionali. Vorrà dire che anche Turing, come con il DLSS, godrà appieno di questa tecnologia nei titoli che la supporteranno senza DLSS, e ringraziamo sempre il fatto che AMD è monopolista nella fornitura dell'HW per console perché, come con il mesh shading, dimostra che è un passo avanti e con lei le nuove soluzioni arrivano prima

Possibile anche che Nvidia sfrutti questa cosa per aumentare ulteriormente le prestazioni del DLSS aggiungendolo al VSR, visto che l'immagine di partenza ora può essere anche di risoluzione diversa (quindi calcolata ancora più velocemente) e il DLSS può ricostruire anche le parti con meno dettagli aumentando la qualità dell'immagine.

Ovviamente quando disponibile si chiede la prova meticolosa dei due algoritmi per valutare l'impatto sulla qualità finale dell'immagine. E magari non solo in versione Performance come fatto nell'ultimo test del DLSS, visto che le versioni che mantengono la qualità decente perdono sì in prestazioni ma non così tanto da escludere a priori il loro uso.

E' evidente che AMD sta cercando di salvarsi in corner in una situazione in cui ha sottovalutato il potenziale dell'accelerazione AI non aggiungendo alcun HW specifico. Stessa cosa fatta da Sony e MS che avrebbero potuto aggiungerlo "a posteriori" se avessero voluto.
Ma vedendo il numero di transistor più che raddoppiato rispetto a Polaris per aggiungere poca roba, direi che se avesse voluto veramente supportare sia l'RT che l'accelerazione AI con roba tipo i tensor core oggi dovrebbe sfornare die grandi una volta e mezza quelli di Nvidia nonostante il PP migliore.
Aspettiamo i 5nm, ma dubito che le cose miglioreranno, visto i costi per mm2 che si avranno con quel PP.. e Nvidia non ha ancora giocato la carta "PP avanzato con frequenze da capogiro" come ha già fatto AMD, pur avendo il supporto completo a tutte le feature moderne finora disponibili.
Aspettiamoci sorprese al prossimo giro che per AMD direi non sarà prima del 2023 quando i 5nm avranno rese paragonabili ai 7nm di adesso (ma i costi saranno sensibilmente maggiori, come visto dai 28nm in poi rispecchiati nei prezzi all'utente....per chi ancora crede che i 500mm2 del G80 hanno gli stessi costi dei 500mm2 di Turing o peggio, dei 500mm2 di RDNA1/2).


Spiace deludere le tue aspettative, ma il supporto HW del VSR ce l'ha solo RDNA2 (e non sono sicuro che ce l'abbiano entrambe le console che montano una roba ibrida), per cui tutte le serie precedenti di AMD potranno godere al massimo solo degli effetti di post ultra sofisticati (funzionanti a risoluzione basse o muore tutto) ma non dell'aumento di prestazioni per la diminuzione parziale della qualità d'immagine.
Ti svelo un segreto, anche le schede AMD hanno hardware in grado di accelerare calcoli di DL, ML ecc... se ti riferisci alla mancanza di tensor core, mi sembra ovvio dato che e' una tecnologia proprietaria di Nvidia.
Detto questo nel DLSS il ML serve per generare i pesi della rete neurale, e questo viene fatto a monte, non in realtime. In realtime hai soltanto la rete neurale con i pesi precalcolati.
Altra rivelazione: anche una semplice interpolazione lineare aggiunge dettagli rimossi.
Puo' anche darsi che la soluzione Nvidia rimanga superiore (il che non e' affatto scontato), ma perche' uscire con queste sentenze da frate indovino? Aspetta che esce e poi valutiamo
k0nt3 è offline   Rispondi citando il messaggio o parte di esso
Old 07-05-2021, 13:06   #11
ilariovs
Senior Member
 
Iscritto dal: May 2010
Messaggi: 1527
Quote:
Originariamente inviato da StylezZz` Guarda i messaggi
https://www.hwupgrade.it/news/skvide...ync_80005.html

Data notizia: 7 gennaio 2019.

Dopo qualche settimana uscirono i driver aggiornati.

EDIT: sto vedendo che all'epoca sei stato tra i primi a commentare nelle varie notizie riguardo la compatibilità gsync/freesync, quindi come mai scrivi che non ti risulta?
Ma la compatibilità delle GPU Nvidia col freesync vale per tutti i monitor?

Perchè io ricordo che sul sito Nvidia c'è una lista di compatibilità. Per esempio io ho un LG 24" FHD 75Hz ma selezionando LG come produttore e 24" come size non ne ho visti di compatibili.

Inoltre io ricordo vagamente il che serve la DP per la compatibilità. Via HDMI ho visto solo le TV LG Oled compatibili.

Ma il mio monitor ha solo la HDMI e usa il freesync con la RX 570.

Mi è sfuggito qualcosa?
ilariovs è offline   Rispondi citando il messaggio o parte di esso
Old 07-05-2021, 13:15   #12
StylezZz`
Senior Member
 
L'Avatar di StylezZz`
 
Iscritto dal: Oct 2010
Messaggi: 9290
Quote:
Originariamente inviato da ilariovs Guarda i messaggi
Ma la compatibilità delle GPU Nvidia col freesync vale per tutti i monitor?

Perchè io ricordo che sul sito Nvidia c'è una lista di compatibilità. Per esempio io ho un LG 24" FHD 75Hz ma selezionando LG come produttore e 24" come size non ne ho visti di compatibili.

Inoltre io ricordo vagamente il che serve la DP per la compatibilità. Via HDMI ho visto solo le TV LG Oled compatibili.

Ma il mio monitor ha solo la HDMI e usa il freesync con la RX 570.

Mi è sfuggito qualcosa?
Anche se il monitor non è nell'elenco dei compatibili certificati sul sito nvidia, al 99% dei casi è compatibile, ma solo con la DP, non funziona con HDMI, quindi il tuo monitor non puoi sfruttarlo.
__________________
CPU: R5 7600 MOBO: ROG B650E-I RAM: G.Skill 32GB 6000 C30 GPU: RX 9070 XT NVMe: SN850X 1TB PSU: SGX-750 CASE: MiniNeo S400
StylezZz` è offline   Rispondi citando il messaggio o parte di esso
Old 07-05-2021, 13:28   #13
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
Quote:
Originariamente inviato da supertigrotto Guarda i messaggi
A me non risulta,quando ho preso la 5700 la compatibilità di Nvidia con il freesync è uscita dopo diversi mesi.
Si vociferava che Nvidia voleva rendere le schede compatibili ma non c'era niente di certo.
il freesync è una soluzione HW, questa è una soluzione SW.

Di fatto le schede Nvidia saranno compatibili sia con DLSS che con questo SR.
Le AMD continueranno a non essere compatibili invece col DLSS e anche se dovessero renderle compatibili non avrebbero le unità dedicate.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 07-05-2021, 14:02   #14
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3557
Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Ti svelo un segreto, anche le schede AMD hanno hardware in grado di accelerare calcoli di DL, ML ecc... se ti riferisci alla mancanza di tensor core, mi sembra ovvio dato che e' una tecnologia proprietaria di Nvidia.
Detto questo nel DLSS il ML serve per generare i pesi della rete neurale, e questo viene fatto a monte, non in realtime. In realtime hai soltanto la rete neurale con i pesi precalcolati.
Altra rivelazione: anche una semplice interpolazione lineare aggiunge dettagli rimossi.
Puo' anche darsi che la soluzione Nvidia rimanga superiore (il che non e' affatto scontato), ma perche' uscire con queste sentenze da frate indovino? Aspetta che esce e poi valutiamo
Ti svelo un segreto: AMD NON HA HW per l'accelerazione di operazioni di ML.
L'uso dei pesi è necessario effettuare diversi calcoli di inferenza (sopratutto operazioni matriciali) e i tensor lo fanno molto efficacemente come dimostrato dalle milioni di schede Turing che Nvidia aha venduto proprio per quel lavoro (vs le 0 di AMD).

E no, fare una interpolazione lineare non aggiunge dettagli rimossi. E' aumentare i dettagli con roba che non esiste ed è appunto ricreata in maniera deterministica. Si aumenta i dettaglio apparente ma non quello reale. Cosa comune a TUTTI gli algoritmi deterministici che non hanno mai ottenuto (e non potranno farlo neanche in futuro) la stessa qualità di immagine del DLSS.
Ma hai visto il DLSS applicato ad immagini di risoluzione infima cosa tira fuori? Roba mai vista e impossibile da ottenere con qualsiasi algoritmo "pre cotto".

Qui siamo a livello delle discussioni del ray tracing su Polaris e Vega con quelli che svelavano segreti, tipo che l'HW di AMD aveva la capacità di elaborare il ray tracing senza unità HW dedicate (un po' come i tostapane). E infatti abbiamo visto le prestazioni.. ah no, AMD si è rifiutata di abilitare le schede senza unità HW al supporto del DXR onde evitare di fare figure meschine.
Qui uguale.
Le tecnologie all'opera sono completamente diverse e basate su principi completamente diversi. Solo che una ha l'HW per usare gli algoritmi moderni, l'altra è ancora ai tempi delle interpolazioni "lineari" del 1970. Effettuati molto più velocemente, certo, ma sempre quella filosofia e con gli stessi risultati ideali di allora.

Se fai conto che questo tipo di elaborazione è usabile da Nvidia (e già comunque la usa insieme al DLSS) non puoi pensare che questi algoritmi + DLSS avranno qualità inferiore ai soli algoritmi qui usati.
L'unica cosa nuova che sfrutta realmente AMD è il VSR, che comunque è roba vecchia di due anni e mezzo come già detto.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 07-05-2021, 14:59   #15
k0nt3
Senior Member
 
Iscritto dal: Dec 2005
Messaggi: 7237
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Ti svelo un segreto: AMD NON HA HW per l'accelerazione di operazioni di ML.
L'uso dei pesi è necessario effettuare diversi calcoli di inferenza (sopratutto operazioni matriciali) e i tensor lo fanno molto efficacemente come dimostrato dalle milioni di schede Turing che Nvidia aha venduto proprio per quel lavoro (vs le 0 di AMD).

E no, fare una interpolazione lineare non aggiunge dettagli rimossi. E' aumentare i dettagli con roba che non esiste ed è appunto ricreata in maniera deterministica. Si aumenta i dettaglio apparente ma non quello reale. Cosa comune a TUTTI gli algoritmi deterministici che non hanno mai ottenuto (e non potranno farlo neanche in futuro) la stessa qualità di immagine del DLSS.
Ma hai visto il DLSS applicato ad immagini di risoluzione infima cosa tira fuori? Roba mai vista e impossibile da ottenere con qualsiasi algoritmo "pre cotto".

Qui siamo a livello delle discussioni del ray tracing su Polaris e Vega con quelli che svelavano segreti, tipo che l'HW di AMD aveva la capacità di elaborare il ray tracing senza unità HW dedicate (un po' come i tostapane). E infatti abbiamo visto le prestazioni.. ah no, AMD si è rifiutata di abilitare le schede senza unità HW al supporto del DXR onde evitare di fare figure meschine.
Qui uguale.
Le tecnologie all'opera sono completamente diverse e basate su principi completamente diversi. Solo che una ha l'HW per usare gli algoritmi moderni, l'altra è ancora ai tempi delle interpolazioni "lineari" del 1970. Effettuati molto più velocemente, certo, ma sempre quella filosofia e con gli stessi risultati ideali di allora.

Se fai conto che questo tipo di elaborazione è usabile da Nvidia (e già comunque la usa insieme al DLSS) non puoi pensare che questi algoritmi + DLSS avranno qualità inferiore ai soli algoritmi qui usati.
L'unica cosa nuova che sfrutta realmente AMD è il VSR, che comunque è roba vecchia di due anni e mezzo come già detto.
Io non ho mai detto che l'interpolazione lineare ha una qualita' comparabile a DLSS, ho semplicemente detto che crea dati dove non ci sono, cosa che innegabilmente e' vera e invece tu pensi che lo fa solo DLSS. La differenza e' indubbiamente la qualita' ottenuta.
Poi in cosa DLSS 2.0 non e' deterministico? La mia e' una domanda seria, se i pesi sono precalcolati mi aspetto che a parita' di input dia sempre lo stesso output (a meno di approssimazioni che ci sono sempre per la natura dei calcoli in virgola mobile).
Per quanto riguarda l'hardware, ripeto che anche le schede AMD possono accelerare i calcoli di ML, in fin dei conti si tratta di calcoli in virgola mobile. La differenza in questo caso la fa l'ecosistema che Nvidia ha creato attorno al proprio hardware (tensor core, CUDA ecc...), a cui AMD ha risposto un po' in ritardo con ROCm.
Come ho gia' detto prima non e' affatto scontato che la soluzione AMD sia sensibilmente peggiore in questo caso, aspetterei di vedere i risultati reali prima di sbandierare sentenze basate sul nulla.
k0nt3 è offline   Rispondi citando il messaggio o parte di esso
Old 07-05-2021, 15:35   #16
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3557
Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Io non ho mai detto che l'interpolazione lineare ha una qualita' comparabile a DLSS, ho semplicemente detto che crea dati dove non ci sono, cosa che innegabilmente e' vera e invece tu pensi che lo fa solo DLSS. La differenza e' indubbiamente la qualita' ottenuta.
Poi in cosa DLSS 2.0 non e' deterministico? La mia e' una domanda seria, se i pesi sono precalcolati mi aspetto che a parita' di input dia sempre lo stesso output (a meno di approssimazioni che ci sono sempre per la natura dei calcoli in virgola mobile).
Per quanto riguarda l'hardware, ripeto che anche le schede AMD possono accelerare i calcoli di ML, in fin dei conti si tratta di calcoli in virgola mobile. La differenza in questo caso la fa l'ecosistema che Nvidia ha creato attorno al proprio hardware (tensor core, CUDA ecc...), a cui AMD ha risposto un po' in ritardo con ROCm.
Come ho gia' detto prima non e' affatto scontato che la soluzione AMD sia sensibilmente peggiore in questo caso, aspetterei di vedere i risultati reali prima di sbandierare sentenze basate sul nulla.
Fai confusione tra dettagli aggiunti e ricostruiti. Sono 2 cose differenti e io ho sempre usato i termini appropriati in questo thread. Rileggilo se non hai capito.
La "determinazione" che intendo per i filtri a funzione fiisa è che appunto non si adattano al contesto. Entra una matrice piuttosto semplice, ne esce un'altra altrettanto semplice. Che aggiunge eventualmente dettagli sintetici (ma non quelli originali) là dove non ci sono.
L'algoritmo Ml è altra cosa e sebbene a stesso input corrisponde stesso output, la quantità di dati presi in esame è così grande che non è possibile avere sempre lo stesso input. Per questo si costruisce un modello di inferenza che richiede supercomputer, rispetto a creare un algoritmo "statico" che fa un calcolo "statico" su un numero limitatissimo di dati in input.

Ed ecco che parli della capacità di are i calcoli ML anche da parte AMD perché sono giusto solo calcoli FP (ma non solo e lo fanno in maniera particolare ottimizzato al target, non sono FP16 o 32 generici). Esattamente come con i calcoli ray tracing... che sono pure in gran parte INT. E che una GPU o una CPU non sono in grado di eseguirli? Ovviamente sì, ma non in maniera proficua per un calcolo in real time se non coadiuvato da HW dedicato allo scopo. Ecco il riferimento al tostapane che ti è sfuggito
Quindi se vuoi fare un algoritmo ML su GPU AMD nessuno te lo impedisce ma o i conti sono proprio banali (quindi risultato pessimo) oppure non sarai in grado di farli nel tempo richiesto tra un frame e l'altro. Andando addirittura a sottrarre le capacità di calcolo proprio alle stesse unità che calcolano il frame 3D (i tensor invece lavorano in parallelo, portando solo ad un uso maggiore di banda).
Comunque la giri, senza HW dedicato, non ottieni le stesse performance di quanto riesce a fare Nvidia, né dal punto di vista della velocità di calcolo né sulla qualità.
Quindi è una strada non perseguibile per fare concorrenza a chi ti sta davanti già un giro (ed è la stessa identica cose successa per il raytracing, in quel caso mai affrontato senza HW dedicato).

E comunque hai le idee un po' confuse tra quello che è un framework per la programmazione e quello che è la capacità dell'HW.
Ne derivano le tue uscite sulla capacità di AMD di eseguire i calcoli ML (coe qualsiasi processore, anche il C64) e che credi che Nvidia lo faccia meglio solo per l'esistenza di CUDA.
Hai ignorato bellamente tutti i suggerimenti sul fato che AMD non ha investito un solo transistor nel calcolo per l'AI visto che manca qualsiasi istruzione ottimizzata sia nelle sue CPU che nelle GPU, e oggi pure Vega VII è fuori produzione, mentre Nvidia ha venduto, e continua a vendere, bastioni di T4 proprio per le capacità HW di quelle schede.
Se fosse solo merito di CUDA allora anche le Pascal sarebbero state richieste per gli stessi lavori...
E ROCm non funziona sulle RDNA, ma solo sulle CDNA (ancora da vedere in funzione). Ci sarà un motivo, no?

Rivedi bene le tue conoscenze, poi dai una ripassata alla storia e congiungi i puntini.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 07-05-2021, 18:54   #17
k0nt3
Senior Member
 
Iscritto dal: Dec 2005
Messaggi: 7237
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Fai confusione tra dettagli aggiunti e ricostruiti. Sono 2 cose differenti e io ho sempre usato i termini appropriati in questo thread. Rileggilo se non hai capito.
La "determinazione" che intendo per i filtri a funzione fiisa è che appunto non si adattano al contesto. Entra una matrice piuttosto semplice, ne esce un'altra altrettanto semplice. Che aggiunge eventualmente dettagli sintetici (ma non quelli originali) là dove non ci sono.
L'algoritmo Ml è altra cosa e sebbene a stesso input corrisponde stesso output, la quantità di dati presi in esame è così grande che non è possibile avere sempre lo stesso input. Per questo si costruisce un modello di inferenza che richiede supercomputer, rispetto a creare un algoritmo "statico" che fa un calcolo "statico" su un numero limitatissimo di dati in input.

Ed ecco che parli della capacità di are i calcoli ML anche da parte AMD perché sono giusto solo calcoli FP (ma non solo e lo fanno in maniera particolare ottimizzato al target, non sono FP16 o 32 generici). Esattamente come con i calcoli ray tracing... che sono pure in gran parte INT. E che una GPU o una CPU non sono in grado di eseguirli? Ovviamente sì, ma non in maniera proficua per un calcolo in real time se non coadiuvato da HW dedicato allo scopo. Ecco il riferimento al tostapane che ti è sfuggito
Quindi se vuoi fare un algoritmo ML su GPU AMD nessuno te lo impedisce ma o i conti sono proprio banali (quindi risultato pessimo) oppure non sarai in grado di farli nel tempo richiesto tra un frame e l'altro. Andando addirittura a sottrarre le capacità di calcolo proprio alle stesse unità che calcolano il frame 3D (i tensor invece lavorano in parallelo, portando solo ad un uso maggiore di banda).
Comunque la giri, senza HW dedicato, non ottieni le stesse performance di quanto riesce a fare Nvidia, né dal punto di vista della velocità di calcolo né sulla qualità.
Quindi è una strada non perseguibile per fare concorrenza a chi ti sta davanti già un giro (ed è la stessa identica cose successa per il raytracing, in quel caso mai affrontato senza HW dedicato).

E comunque hai le idee un po' confuse tra quello che è un framework per la programmazione e quello che è la capacità dell'HW.
Ne derivano le tue uscite sulla capacità di AMD di eseguire i calcoli ML (coe qualsiasi processore, anche il C64) e che credi che Nvidia lo faccia meglio solo per l'esistenza di CUDA.
Hai ignorato bellamente tutti i suggerimenti sul fato che AMD non ha investito un solo transistor nel calcolo per l'AI visto che manca qualsiasi istruzione ottimizzata sia nelle sue CPU che nelle GPU, e oggi pure Vega VII è fuori produzione, mentre Nvidia ha venduto, e continua a vendere, bastioni di T4 proprio per le capacità HW di quelle schede.
Se fosse solo merito di CUDA allora anche le Pascal sarebbero state richieste per gli stessi lavori...
E ROCm non funziona sulle RDNA, ma solo sulle CDNA (ancora da vedere in funzione). Ci sarà un motivo, no?

Rivedi bene le tue conoscenze, poi dai una ripassata alla storia e congiungi i puntini.
Il supporto a ROCm per Navi arriva nel 2021, per cui non è un problema di hardware, ma di software in questo caso.
Fonte: https://github.com/RadeonOpenCompute/ROCm/issues/1061
Fino a prova contraria chi fa confusione coi termini sei te, visto che parlavi di algoritmi deterministici e non deterministici impropriamente.
Siamo tutti d'accordo che per calcolare i pesi di una rete neurale del genere serva un supercomputer data l'immensa quantità di dati, ma quei calcoli vengono fatti a monte e non in realtime. Di conseguenza non serve un supercomputer per eseguire una rete neurale con pesi precalcolati.
Come fai a sapere che Super Resolution tiene conto di un numero limitatissimo di dati in input? Hai anche solo una vaga idea di come funzioni? No perchè sarei curioso anche io di saperlo
Come fai a sapere che niente può funzionare in maniera paragonabile a DLSS senza tensor core? Alle schede AMD di certo non manca potenza di calcolo FP e banda. Quello che manca chiaramente è un ecosistema equivalente a quello di Nvidia.
Chi vivrà vedrà
k0nt3 è offline   Rispondi citando il messaggio o parte di esso
Old 07-05-2021, 19:21   #18
devis
Senior Member
 
L'Avatar di devis
 
Iscritto dal: Jul 1999
Città: Lago Maggiore-(NO)
Messaggi: 8962
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Rivedi bene le tue conoscenze, poi dai una ripassata alla storia e congiungi i puntini.

Mi mancava il Fan Boy Nvidia saccentone Ma ti pagano almeno?
devis è offline   Rispondi citando il messaggio o parte di esso
Old 08-05-2021, 07:48   #19
Fos
Senior Member
 
L'Avatar di Fos
 
Iscritto dal: Aug 2004
Messaggi: 1944
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Hai ignorato bellamente tutti i suggerimenti sul fato che AMD non ha investito un solo transistor nel calcolo per l'AI visto che manca qualsiasi istruzione ottimizzata sia nelle sue CPU che nelle GPU...
Infatti ha investito uno stormetto...

Che le RDNA-2 possono eseguire direttamente calcoli INT4-8 si sa da un pezzo, ne parlava MS da prima dell'uscita di XSX, tanto che nei dettagli tecnici dichiara anche i TOPs.
Sembra faccia parte delle esclusive full RDNA-2.0 che MS può vantare in confronto a PS5.

Se cerchi Xbos Series X DirectML acceleration puoi vedere se il termine accelerazione somiglia a quello che credi...

https://www.overclock3d.net/news/sof...r_resolution/1
Quote:
DirectML - The API that could bring DLSS-like features to everyone

DirectML is a next-generation Xbox feature, and you can be sure that Microsoft will be pushing developers to use it. Work on DirectML has been happening publically for as long as DXR, and AMD's support for DirectML acceleration with RDNA 2 will help push the API to the forefront.
Ora, ad occhio (ma anche facendo i conti con i TOPs che nel caso di AMD si possono calcolare moltiplicando x 8 i TF in FP32, essendo calcolati all'interno...) direi che l'hardware del tutto dedicato Nvidia può sprigionare più potenza, ma far passare l'esecuzione AMD come una sorta di emulazione software è ridicolo.

Diresti che RDNA-2 non accelera i calcoli RT (visto che facevi l'esempio...) perché non lo fa da fuori la stanza? Non credo proprio, no?
__________________
MSI-X670E | 9800-X3D | RTX-4090 | 64GB-6000 | 2x NVMe 4TB + 16TB | LCD-28 4K
Fos è offline   Rispondi citando il messaggio o parte di esso
Old 09-05-2021, 10:23   #20
Free Gordon
Senior Member
 
L'Avatar di Free Gordon
 
Iscritto dal: Mar 2004
Città: Eporedia
Messaggi: 13454
sarà uno scontro molto interessante..

certo AMD non ha i tensor core, quindi dovrà usare un software molto efficiente se non vorrà perdere troppo in prestazioni (per avere una buona qualità).


Il problema, se ho ben compreso, è sfruttare efficientemente la potenza "residua" di elaborazione delle GPU RDNA2 a una risoluzione medio/bassa (1080p), per avere un output a 4K (o vicino) che sia qualitativamente buono (vicino al nativo) ma con un frame rate decisamente migliore.

Navi21 ha 128MB di cache che potrebbe risultare utile per queste operazioni.



Faccio una previsione: AMD uscirà con un'implementazione "qualità", mediamente un po' inferiore a quella Nvidia (DLSS2.0 qualità) nel risultato finale ma con un decadimento prestazionale molto basso.
Nei giochi in cui AMD è davanti nel raster, la 6900 starà davanti alla 3090 (DLSS2.0 quality) con una qualità lievemente inferiore nel risultato finale.
Sarebbe un ottimo risultato per AMD.

PS.
Sinceramente la modalità "performance" DLSS2.0 non la prenderei nemmeno in considerazione perché dai confronti che ho visto, fa' abbastanza pena.
__________________
AMD Ryzen 1700 - Asrock B450 GAMING-ITX/AC - G-Skill RipjawsV 2X8GB 2660mhz - Sapphire Pulse RX 570 ITX - Crucial MX500 m.2 - Corsair Vengeance 500W - Sharkoon Shark Zone C10 Mini ITX
Free Gordon è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto HP Elitebook Ultra G1i 14 è il notebook c...
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso Microsoft Surface Pro 12 è il 2 in 1 pi&u...
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet! Recensione REDMAGIC Astra Gaming Tablet: che spe...
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2 Dopo un mese, e 50 foto, cosa abbiamo capito del...
Gigabyte Aero X16 Copilot+ PC: tanta potenza non solo per l'IA Gigabyte Aero X16 Copilot+ PC: tanta potenza non...
X sotto accusa in Francia: 'Ci trattano ...
CMF Watch 3 Pro: lo smartwatch con AI ch...
ASUS: la potenza dei supercomputer NVIDI...
Aspirazione estrema per un low cost e ma...
'L'AI ha distrutto tutto': il caso Repli...
Le prossime serie TV che vedrete potrebb...
Meno auto cinesi in Europa? La flotta di...
Google Pixel 10: coloratissimi e con nov...
'Irrealistico e dannoso', l'UE vorrebbe ...
realme GT 7T scende di altri 50€: 7000mA...
Fastned apre una stazione di ricarica an...
Ted Lasso 4: le riprese sono ufficialmen...
Subaru porta la sua terza elettrica in E...
Milano blinda ZTL Quadrilatero della mod...
Super offerta smartwatch: Amazfit GTR 3 ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 11:33.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1