Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

HONOR Magic 8 Pro: ecco il primo TOP del 2026! La recensione
HONOR Magic 8 Pro: ecco il primo TOP del 2026! La recensione
HONOR ha finalmente lanciato il suo nuovo flagship: Magic 8 Pro. Lo abbiamo provato a fondo in queste settimane e ve lo raccontiamo nella nostra recensione completa. HONOR rimane fedele alle linee della versione precedente, aggiungendo però un nuovo tasto dedicato all'AI. Ma è al suo interno che c'è la vera rivoluzione grazie al nuovo Snapdragon 8 Elite Gen 5 e alla nuova MagicOS 10
Insta360 Link 2 Pro e 2C Pro: le webcam 4K che ti seguono, anche con gimbal integrata
Insta360 Link 2 Pro e 2C Pro: le webcam 4K che ti seguono, anche con gimbal integrata
Le webcam Insta360 Link 2 Pro e Link 2C Pro sono una proposta di fascia alta per chi cerca qualità 4K e tracciamento automatico del soggetto senza ricorrere a configurazioni complesse. Entrambi i modelli condividono sensore, ottiche e funzionalità audio avanzate, differenziandosi per il sistema di tracciamento: gimbal a due assi sul modello Link 2 Pro, soluzione digitale sul 2C Pro
Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza
Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza
Motorola edge 70 porta il concetto di smartphone ultrasottile su un terreno più concreto e accessibile: abbina uno spessore sotto i 6 mm a una batteria di capacità relativamente elevata, un display pOLED da 6,7 pollici e un comparto fotografico triplo da 50 MP. Non punta ai record di potenza, ma si configura come alternativa più pragmatica rispetto ai modelli sottili più costosi di Samsung e Apple
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 26-08-2018, 14:57   #161
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
non credo che in un eventuale die shrink di vega ad AMD converrebbe mettere memorie diverse da HBM; significherebbe ridisegnare il chip.
oltretutto l'architettura AMD richiede una banda ram elevata per il fatto che non può comprimere i dati sul bus in modo efficacie (e, guarda un pò, anche nvidia, oggi, ha aumentato enormemente la banda, il che fa sospettare che non ha più la possibilità di ottenere alti ratei di compressione con quella tecnica sulla nuova architettura.. è puramente una questione di logica di funzionamento delle API e l'implementazione che puoi ottenere sul progetto che le sfrutta).

andare di GDDR6 pe rlo stesso valore di banda?
tra costo delle GDDR6 e costo della modifica del progetto superi abbondantemente la questione del costo di 2 chip HBM2.


poi parli del fatto che ci sarà gente che aspetterà i 7nm nvidia...
c'è sempre chi aspetta, ma se aspetti non compri ne AMD ne tantomeno nvidia; i costi non si ammortizzano ed il prezzo rimane elevato.
secondo la tua logica nvidia avrebbe fatto questa serie per non venderla, visto che non ci saranno molti clienti disposti a spendere così tanto per questo cambio di tecnologia, che è corposo, ma, soprattutto sulla 2070, potrebbe garantire risultati sottotono... e la 2070 sembra la meglio piazzata sul mercato, con i suoi "soli" 600$...

anche per la questione "architettura"...
DxRT è estensione delle DX12, quindi, di base, il gioco è DX12 non DX11.
al peggio che lo possono fare il rendimento della AMD sarà sicuramente migliore di quello che puoi vedere quando esegue giochi dal 2012 al 2016...
al meglio una vega 64 14nm con i nuovi giochi riesce a stare dietro ad una 1080 Ti, considerando anche il fatto che per spremere quella scheda ci vuole un corposo overclock della CPU e non tutti gli acquirenti che l'hanno presa sono disposti a farlo...

tu parli di raffrontare vega 64 rispetto alle RTX 2000 quando io ti indico che le possibilità di una Vega 64 a 7nm non sarebbero affatto male rispetto alle GTX 2060, che, con molta probabilità, saranno assai simili a delle 1070 Ti a 12nm; senza RT core, senza tensor core e senza cudacore di nuova generazione, quindi con tutte le limitazioni di pascal sulle DX12 in un periodo in cui i giochi nuovi, con molta probabilità, usciranno su queste API.

parliamo della fascia media, sotto i 400 euro, quella che fa il grosso del miliardo e ottocento milioni di fatturato di nvidia sulle gaming.

quindi un vega 64 a 7nm pari pari a quello di oggi ci sguazzerebbe in questo periodo prima della prossima serie nvidia, che dovrà farsi almeno 9, 12 mesi per ripagare l'investimento e produrre guadagno.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 26-08-2018, 15:52   #162
LkMsWb
Senior Member
 
L'Avatar di LkMsWb
 
Iscritto dal: Feb 2004
Città: Ancona
Messaggi: 2149
Secondo me il problema principale che avrà nVidia nel fare la GTX 2060 è dato dalla RTX 2070, nel senso che, dando per scontata la mancanza anche dei Tensor Core oltre che della parte RT, la 2060 non potrà essere più competitiva della 2070 nei giochi tradizionali, al limite potrà pareggiarla, a meno che nVidia non sia disposta a vendere una scheda più performante di una RTX in fascia media.

Ora, se la 2070 risultasse effettivamente inferiore ad una 1080, la 2060 dovrà piazzarsi al massimo ai livelli di 1070, massimo 1070 Ti, con un chip sicuramente piccolo ed efficiente. AMD se giungesse ai 7nm prima di nVidia avrebbe una buona opportunità, anche con un Polaris o Vega riadattati. Come detto passare Vega alle GDDR6 sarebbe forse troppo costoso, però lasciare Vega inalterato facendo solo un die-shrink non la vedo come mossa furbissima, dovrebbe essere quantomeno alterata andando a correggere le parti in cui è più debole, per poter essere competitiva e proporsi nel rendering tradizionale come alternativa più rapida delle 2070 a prezzo accessibile, mentre non mi azzardo a fare previsioni in rapporto a 2080 e 2080 Ti.
__________________
Main: NZXT H7 Flow|RM1000x|Z690 Aorus Master|i7 13700k|LFII 360|G.Skill 2x16GB 6400C32|Asus RTX 4090 TUF OC|Asus PG32UCDM + Pana 55JZ1500|Audient iD14 II + Kali LP-6 + Sundara|2xFireCuda 530 2TB + MX500 1TB + NAS
Encoding: Define R6|Prime TX-750|B550 Tomahawk|5900X|2x8GB 3200C14|A380
LkMsWb è offline   Rispondi citando il messaggio o parte di esso
Old 26-08-2018, 18:41   #163
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
Quote:
Originariamente inviato da calabar Guarda i messaggi
Come se l'argomento non fosse attinente vero?
Come se il resto del mercato non potesse influenzare il piazzamento di questi prodotti vero?
Per cortesia, evita di porti a giudice di qualcosa, che hai sempre dimostrato di non essere in grado di farlo.
Arrampicati di meno per favore.
Se ti rode sentirti escluso dai tuoi soliti discorsi è un problema tuo.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 26-08-2018, 18:54   #164
Nhirlathothep
Senior Member
 
L'Avatar di Nhirlathothep
 
Iscritto dal: Dec 2012
Messaggi: 5418
con una titanxp è meglio aspettare le nuove titan ? ma si sanno i prezzi?

io la 2080ti non la guardo al momento, mi sembra un downgrade e troppo costosa. ma se costa 1200+ , la titan quanto la metteranno ?

a me questi prezzi fanno l' effetto opposto: mi viene voglia di ignorarle del tutto
__________________
Alienware Desktop: Alienware ALX [3970x@5GHz - Titanxp ] - Alienware OptX AW2310 - Alienware TactX Keyboard - Alienware TactX Mouse
Alienware Laptop: Alienware 15 - Alienware 14

Ultima modifica di Nhirlathothep : 26-08-2018 alle 18:57.
Nhirlathothep è offline   Rispondi citando il messaggio o parte di esso
Old 26-08-2018, 19:15   #165
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 12127
Quote:
Originariamente inviato da Nhirlathothep Guarda i messaggi
con una titanxp è meglio aspettare le nuove titan ? ma si sanno i prezzi?

io la 2080ti non la guardo al momento, mi sembra un downgrade e troppo costosa. ma se costa 1200+ , la titan quanto la metteranno ?

a me questi prezzi fanno l' effetto opposto: mi viene voglia di ignorarle del tutto
la nuova Titan andra uno sputo in piu della 2080Ti, avra meno di 300 CUDA in piu 4352 vs 4608.

bene che vada costera uguale e abbasseranno la 2080 Ti, male che va costera di piu.
__________________
AMD 9950X3D - MSI X870E CARBON WIFI - 198 Gb - 5080 - Dual 4K - Leica RTC360 & BLK360
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 26-08-2018, 21:27   #166
Nhirlathothep
Senior Member
 
L'Avatar di Nhirlathothep
 
Iscritto dal: Dec 2012
Messaggi: 5418
Quote:
Originariamente inviato da Delling Guarda i messaggi
Sul costosa non si discute, ma downgrade direi proprio di no... dovrebbe andare il 30-50% in più della 1080ti! Alla fine è esattamente come la Titan X Pascal: chip cut ma cmq corposo. A chi ha la vecchia Ti nel case non conviene, a tutti gli altri - euro permettendo - sì, ti garantisce di giocare top quantomeno fino alla prossima architettura.

Secondo me usciranno altre due GPU cmq:

2070ti, un chip cut con frequenze spinte che va poco meno della 2080ti, prezzato circa 800 euro. O magari andrà uguale ma avrà meno Tensor e RT per contenere i costi di produzione.

Titan T, chip full che esprime il meglio di quanto fattibile con Turing, a 1300 euro.

Nel frattempo i prezzi di 2080ti e 2080 si saranno abbassati (probabilmente a 1000 e 600 euro) creando un'offerta completa (600, 800, 1000, 1300).
no,non è possibile.
la 2070ti andrà meno della 2080

per la titan XT sarebbe ottimo averla a 1300, ma gli acquirenti day1 della 1080ti farebbero una sommossa, quindi ci credo poco.
__________________
Alienware Desktop: Alienware ALX [3970x@5GHz - Titanxp ] - Alienware OptX AW2310 - Alienware TactX Keyboard - Alienware TactX Mouse
Alienware Laptop: Alienware 15 - Alienware 14
Nhirlathothep è offline   Rispondi citando il messaggio o parte di esso
Old 26-08-2018, 21:56   #167
Raven
Senior Member
 
L'Avatar di Raven
 
Iscritto dal: Nov 1999
Messaggi: 31886
... ma che discussione fantastica, che mi stavo perdendo!

__________________
Epilogo...
Se non ti rispondo... potresti essere tra quelli che ho messo in ignore list! (al 04/07/2021: 6 utenti)
Thread ufficiale Asus ZenWiFi AX - XT8
Raven è offline   Rispondi citando il messaggio o parte di esso
Old 26-08-2018, 22:28   #168
Raven
Senior Member
 
L'Avatar di Raven
 
Iscritto dal: Nov 1999
Messaggi: 31886
Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
Crepadilegno + Locusta + Nick... sembra un royal rumble dei bei tempi con hogan, ultimate warrior e undertaker
Interviews tonight at the Heartbreak Hotel!!!

__________________
Epilogo...
Se non ti rispondo... potresti essere tra quelli che ho messo in ignore list! (al 04/07/2021: 6 utenti)
Thread ufficiale Asus ZenWiFi AX - XT8
Raven è offline   Rispondi citando il messaggio o parte di esso
Old 26-08-2018, 23:15   #169
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
la 1070 Ti esiste solo per stare dietro alla vega 56...
in realtà non era necessaria...
poi costa quasi quanto una 1080 e, in alcuni rari casi, la supera addirittura!
una 2070 Ti o andrebbe a fare le scarpe alla 2080 o costerebbe pressappoco uguale, come quella id oggi... a che pro quando non c'è una scheda concorrente che da fastidio?
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 26-08-2018, 23:31   #170
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da LkMsWb Guarda i messaggi
Secondo me il problema principale che avrà nVidia nel fare la GTX 2060 è dato dalla RTX 2070, nel senso che, dando per scontata la mancanza anche dei Tensor Core oltre che della parte RT, la 2060 non potrà essere più competitiva della 2070 nei giochi tradizionali, al limite potrà pareggiarla, a meno che nVidia non sia disposta a vendere una scheda più performante di una RTX in fascia media.

Ora, se la 2070 risultasse effettivamente inferiore ad una 1080, la 2060 dovrà piazzarsi al massimo ai livelli di 1070, massimo 1070 Ti, con un chip sicuramente piccolo ed efficiente. AMD se giungesse ai 7nm prima di nVidia avrebbe una buona opportunità, anche con un Polaris o Vega riadattati. Come detto passare Vega alle GDDR6 sarebbe forse troppo costoso, però lasciare Vega inalterato facendo solo un die-shrink non la vedo come mossa furbissima, dovrebbe essere quantomeno alterata andando a correggere le parti in cui è più debole, per poter essere competitiva e proporsi nel rendering tradizionale come alternativa più rapida delle 2070 a prezzo accessibile, mentre non mi azzardo a fare previsioni in rapporto a 2080 e 2080 Ti.
e sì, ma tu non la consideri competitiva per quali motivi, vega 64?
costosa?
il costo è dovuto al mining... di suo la trovi a 550 euro già da qualche mese l'attuale; un die shrink a 7nm significa quasi dimezzare la superficie di quel chip, ossia farlo diventare grosso come un polaris 10 di oggi, con tutti i benefici sulla resa produttiva.
a quel punto non ti dico che costerebbe come una 480, ma anche se la mettono a circa 400 euro stai parlando di una scheda che al peggio pareggia le prestazioni di una 1080, non di una 1070 o una 1070ti e non prendiamo in considerazione quando usa giochi al suo meglio.
poi che difetti ha?
il consumo?
a 7nm credo che non consumerebbe più 400W...
vega 20 (che è assai più potente di una vega 10 a 14nm), sembra che consumi 200W con 32GB di HBM2...
al peggio del peggio, mettendo in produzione anche il peggior chip, una Vega 10 a 7nm arriverebbe ad un consumo di 200W.

mi dirai che è il consumo di una 1080 per le prestazioni di una 1080?
vero, probabile al peggio del peggio della casistica, ma ti risponderei anche che potrebbe costare anche sensibilmente meno di una 1080 di oggi... sui 350 euro e non avere i limiti di pascal su codice di una generazione più moderna...

quindi, anche se non è la miglior cosa in assoluto, è comunque la miglior cosa che uno potrebbe acquistare in questo periodo.

la questione è capire se sarebbe conveniente per AMD...
afd occhio e croce ci sarebbero i presupposti, ma la dirigenza attuale ci ha fatto ben capire che ci vanno con i pieni di piombo sulle questioni.
non scommettono (diversamente AMD avrebbe venduto una decina di milioni di chip custom per mining fatti su TMSC).
è più una questione puramente politica che opportunistica.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 26-08-2018, 23:35   #171
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da Nhirlathothep Guarda i messaggi
con una titanxp è meglio aspettare le nuove titan ? ma si sanno i prezzi?

io la 2080ti non la guardo al momento, mi sembra un downgrade e troppo costosa. ma se costa 1200+ , la titan quanto la metteranno ?

a me questi prezzi fanno l' effetto opposto: mi viene voglia di ignorarle del tutto
bhè, considerando che per acquistare dovresti comunque aspettare la titan RTX, che oggi i soldi per la titan che hai l'hai già tirati fuori e che la differenza tra la tua attuale scheda e la rtx 2080 Ti ancora è un'incognita sui giochi attuali...

io non avrei fretta...


il dubbio lo deve avere chi valuta l'acquisto di una nuova RTX 2000 o una Pascal...
ecco, in quel caso io non avrei dubbi: si va sul nuovo.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 00:16   #172
LkMsWb
Senior Member
 
L'Avatar di LkMsWb
 
Iscritto dal: Feb 2004
Città: Ancona
Messaggi: 2149
Quote:
Originariamente inviato da lucusta Guarda i messaggi
e sì, ma tu non la consideri competitiva per quali motivi, vega 64?
costosa?
il costo è dovuto al mining... di suo la trovi a 550 euro già da qualche mese l'attuale; un die shrink a 7nm significa quasi dimezzare la superficie di quel chip, ossia farlo diventare grosso come un polaris 10 di oggi, con tutti i benefici sulla resa produttiva.
a quel punto non ti dico che costerebbe come una 480, ma anche se la mettono a circa 400 euro stai parlando di una scheda che al peggio pareggia le prestazioni di una 1080, non di una 1070 o una 1070ti e non prendiamo in considerazione quando usa giochi al suo meglio.
poi che difetti ha?
il consumo?
a 7nm credo che non consumerebbe più 400W...
vega 20 (che è assai più potente di una vega 10 a 14nm), sembra che consumi 200W con 32GB di HBM2...
al peggio del peggio, mettendo in produzione anche il peggior chip, una Vega 10 a 7nm arriverebbe ad un consumo di 200W.

mi dirai che è il consumo di una 1080 per le prestazioni di una 1080?
vero, probabile al peggio del peggio della casistica, ma ti risponderei anche che potrebbe costare anche sensibilmente meno di una 1080 di oggi... sui 350 euro e non avere i limiti di pascal su codice di una generazione più moderna...

quindi, anche se non è la miglior cosa in assoluto, è comunque la miglior cosa che uno potrebbe acquistare in questo periodo.

la questione è capire se sarebbe conveniente per AMD...
afd occhio e croce ci sarebbero i presupposti, ma la dirigenza attuale ci ha fatto ben capire che ci vanno con i pieni di piombo sulle questioni.
non scommettono (diversamente AMD avrebbe venduto una decina di milioni di chip custom per mining fatti su TMSC).
è più una questione puramente politica che opportunistica.
I difetti di Vega sono di essere una architettura sbilanciata, e decisamente costosa da produrre per il prezzo a cui viene venduta, tutto lì. Farla a 7nm migliora delle cose, ma se riescono a ribilanciare il chip, principalmente sistemando la fame di banda passante per la memoria - o tramite compressione, o tramite aumento della banda stessa - e sistemando quello che in AMD sicuramente sanno essere il collo di bottiglia di Vega in certe situazioni, nello specifico in quei titoli dove quasi non ha vantaggio su Polaris, ecco che avrebbero un prodotto MOLTO più appetibile, in attesa dell'architettura nativa RT.

In sostanza a me Vega 64 AMD me la può vendere oggi a 300 euro, io dico grazie, ma non so quanto sta bene ad AMD stessa visto che è un chip di una certa dimensione e costo, che a 7nm si riduce, certo, ma a quel punto - mining a parte - dovresti venderlo a 240-250 euro, con le HBM non so quanto sia possibile. Sistemassero i punti deboli, aumentando quindi le performance, ecco che potrebbero vendere un chip più piccolo di Vega 64 @ 14nm, mantenendo prezzi sopra i 300-350 euro, direi uno scenario ben più appetibile. Il problema rimane sempre quello: quanto è possibile modificare Vega senza riprogettare da capo? Penso sia difficile, altrimenti non si parlerebbe di Vega 7nm solo per il mercato professionale, e Navi anno prossimo per quello consumer.
__________________
Main: NZXT H7 Flow|RM1000x|Z690 Aorus Master|i7 13700k|LFII 360|G.Skill 2x16GB 6400C32|Asus RTX 4090 TUF OC|Asus PG32UCDM + Pana 55JZ1500|Audient iD14 II + Kali LP-6 + Sundara|2xFireCuda 530 2TB + MX500 1TB + NAS
Encoding: Define R6|Prime TX-750|B550 Tomahawk|5900X|2x8GB 3200C14|A380
LkMsWb è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 01:02   #173
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 12127
Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
Guarda che lo ha detto Jen-Hsun Huang in conferenza.
Dice che prende un'immagine a bassa risoluzione e i tensor core possono migliorarla in tempo reale generando pixel in modo coerente.

Riascoltalo: https://youtu.be/Mrixi27G9yM?t=58m42s
hanno iniziato a spiegare il funzionamento del DLSS:


1) NVIDIA receives early build of games

2) NVIDIA generate training images

3) Use the images to train an AI using deep learning

4) Distill the images and "download" it to user PC

5) Turing RTX GPU uses Tensor cores to deliver the performance and improved image quality


quindi in sostanza nVidia con i loro server creano il profilo per ogni gioco partendo da screen, che poi viene elaborato nella parte finale dai Tensor.


- Turing over Pascal without DLSS = ~1.5x (rehashing the slides released yesterday)

- DLSS 2x mode which produces image quality beyond any current generation anti aliasing. Uses 64 samples "reference quality" AA.

- DLSS is using Tensor cores
__________________
AMD 9950X3D - MSI X870E CARBON WIFI - 198 Gb - 5080 - Dual 4K - Leica RTC360 & BLK360

Ultima modifica di AceGranger : 27-08-2018 alle 01:06.
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 09:24   #174
bagnino89
Senior Member
 
L'Avatar di bagnino89
 
Iscritto dal: Aug 2006
Messaggi: 14097
Quote:
Originariamente inviato da AceGranger Guarda i messaggi
hanno iniziato a spiegare il funzionamento del DLSS:


1) NVIDIA receives early build of games

2) NVIDIA generate training images

3) Use the images to train an AI using deep learning

4) Distill the images and "download" it to user PC

5) Turing RTX GPU uses Tensor cores to deliver the performance and improved image quality


quindi in sostanza nVidia con i loro server creano il profilo per ogni gioco partendo da screen, che poi viene elaborato nella parte finale dai Tensor.


- Turing over Pascal without DLSS = ~1.5x (rehashing the slides released yesterday)

- DLSS 2x mode which produces image quality beyond any current generation anti aliasing. Uses 64 samples "reference quality" AA.

- DLSS is using Tensor cores
Sarebbe stato interessante se la rete neurale si fosse addestrata in tempo reale gioco per gioco, ma evidentemente le risorse di calcolo richieste sono troppo esose per l'hardware attuale.
__________________
Ryzen 9600X / ASUS TUF Gaming B850M-Plus / Corsair 2x16 GB DDR5 6000 MHz CL30 / RTX 5070 FE / Crucial P5 Plus 1 TB / Crucial MX500 1 TB / Seasonic Focus GX-750 / Dell S2417DG / Edifier R1280T / Synology DS220+ / Pixel 6 / Steam Deck
bagnino89 è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 10:06   #175
bagnino89
Senior Member
 
L'Avatar di bagnino89
 
Iscritto dal: Aug 2006
Messaggi: 14097
Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
Per farlo dovresti prima giocare in 4k o a risoluzione più alta per addestrare la AI e poi puoi usare il DLSS, quindi sarebbe inutile.
Hai ragione, non ci avevo pensato. In qualche modo l'output desiderato deve essere presente nel gioco/driver, in effetti.
__________________
Ryzen 9600X / ASUS TUF Gaming B850M-Plus / Corsair 2x16 GB DDR5 6000 MHz CL30 / RTX 5070 FE / Crucial P5 Plus 1 TB / Crucial MX500 1 TB / Seasonic Focus GX-750 / Dell S2417DG / Edifier R1280T / Synology DS220+ / Pixel 6 / Steam Deck
bagnino89 è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 10:14   #176
ilario3
Senior Member
 
L'Avatar di ilario3
 
Iscritto dal: Sep 2014
Città: A criticà, in bun tucc!
Messaggi: 1024
Quote:
Originariamente inviato da sturia90 Guarda i messaggi
rtx cosa vuol dire? e gtx invece? qual è la differenza?

GTX è il vecchio motore aspirato

RTX sono i nuovi twin turbo che montano sulle V8
ilario3 è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 10:18   #177
bagnino89
Senior Member
 
L'Avatar di bagnino89
 
Iscritto dal: Aug 2006
Messaggi: 14097
Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
Praticamente bisogna giocare ad altissima risoluzione o metodo più intelligente prendendo screen shot ad altissima risoluzione con Ansel
Poi dai tutto in pasto al DL che "impara" per una quantità indefinita di tempo, presumo che in questa fase sfruttino i tensor core ma lo fa Nvidia e a noi non è dato sapere ne ci frega qualcosa.
Il risultato finale viene inserito nel gioco o nei driver e fa funzionare DLSS.

Ripeto che questa è una procedura normalissima e avviene in qualsiasi applicazione DL dal riconoscimento dei pedoni delle auto a guida autonoma al sistema che analizza i nei per trovare tumori della palle alle applicazioni che trovano difetti nei display che ogni tanto faccio io

La risposta alla prossima domanda è "si", uso applicazioni in DL che si appoggiano a cuda e quindi a schede video Nvidia
Quindi il Tensor Core sulla GPU a cosa serve in questo caso? Se per un dato gioco la rete è già addestrata, il suo modello "black box" è già pronto, quindi la legge che correla bassa risoluzione ad alta risoluzione è nota... Di cosa si occupa, quindi, il Tensor Core?
__________________
Ryzen 9600X / ASUS TUF Gaming B850M-Plus / Corsair 2x16 GB DDR5 6000 MHz CL30 / RTX 5070 FE / Crucial P5 Plus 1 TB / Crucial MX500 1 TB / Seasonic Focus GX-750 / Dell S2417DG / Edifier R1280T / Synology DS220+ / Pixel 6 / Steam Deck
bagnino89 è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 10:28   #178
bagnino89
Senior Member
 
L'Avatar di bagnino89
 
Iscritto dal: Aug 2006
Messaggi: 14097
Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
Anche l'utilizzo delle rete addestrata prevede l'utilizzo dei tensor core.
E perché?

Ho esperienza di reti neurali (le programmo e uso per scopi del tutto differenti dalla grafica), però una volta che la "black box" è pronta, perché per usarla ho bisogno di hardware apposito? Cioè, io mi aspetterei che l'upscaling sia gestito dalle unità di calcolo "classiche" (i Cuda Core insomma - se sbaglio qualche terminologia non mi insultate perché non sono esperto di architetture).
__________________
Ryzen 9600X / ASUS TUF Gaming B850M-Plus / Corsair 2x16 GB DDR5 6000 MHz CL30 / RTX 5070 FE / Crucial P5 Plus 1 TB / Crucial MX500 1 TB / Seasonic Focus GX-750 / Dell S2417DG / Edifier R1280T / Synology DS220+ / Pixel 6 / Steam Deck
bagnino89 è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 10:33   #179
JohnWayneBobbit
Bannato
 
Iscritto dal: Aug 2018
Messaggi: 58
Quote:
Originariamente inviato da bagnino89 Guarda i messaggi
Quindi il Tensor Core sulla GPU a cosa serve in questo caso? Se per un dato gioco la rete è già addestrata, il suo modello "black box" è già pronto, quindi la legge che correla bassa risoluzione ad alta risoluzione è nota... Di cosa si occupa, quindi, il Tensor Core?
Si occupano di tutte le operazioni di training ed inferenza delle applicazioni su cui vuoi far operare la GPU.
Nel caso specifico funziona tipo Edge IoT di Microsoft che sposta un modello ideale dal cloud all'endpoint e quest'ultimo lo applica nel caso specifico (serve minimo un Raspberry 3).
Poi ovviamente puoi usarli per tutto ciò che richiede calcoli matriciali 4x4 e quindi qualsiasi cosa inerente la modellazione statica e dinamica 3d.
Immaginate il boost prestazionale di un 3d studio, rhino, cinema 4d...
C'è poi il discorso crypto-mining.
E' il Santo Graal del mining la ricerca di un algoritmo di hashing che sfrutti in modo efficace ed economicamente vantaggioso i TC.
Se lo trovano entro Natale scordatevi di acquistare la serie 20x0 a questi prezzi nel 2019.
JohnWayneBobbit è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 10:39   #180
JohnWayneBobbit
Bannato
 
Iscritto dal: Aug 2018
Messaggi: 58
Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
Quindi addio alle schede RTX sul mercato consumer?
Beh no, le paghi solo molto di più, come per la passata generazione.
JohnWayneBobbit è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


HONOR Magic 8 Pro: ecco il primo TOP del 2026! La recensione HONOR Magic 8 Pro: ecco il primo TOP del 2026! L...
Insta360 Link 2 Pro e 2C Pro: le webcam 4K che ti seguono, anche con gimbal integrata Insta360 Link 2 Pro e 2C Pro: le webcam 4K che t...
Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza Motorola edge 70: lo smartphone ultrasottile che...
Display, mini PC, periferiche e networking: le novità ASUS al CES 2026 Display, mini PC, periferiche e networking: le n...
Le novità ASUS per il 2026 nel settore dei PC desktop Le novità ASUS per il 2026 nel settore de...
TikTok chiarisce il funzionamento della ...
Samsung Galaxy A07 5G: il nuovo entry le...
Realme 16 in arrivo: un mix tra iPhone A...
Domenica di follia su Amazon: iPhone 17 ...
Questo portatile HP OMEN con Core Ultra ...
Robot aspirapolvere al prezzo giusto: le...
Il nuovo M5 Max potrebbe avere una GPU p...
Pulizie automatiche al top (e a prezzo B...
Casa più calda, spese più leggere: Tado ...
Mini PC mostruoso in offerta nascosta su...
Netflix promette 45 giorni di esclusivit...
Gigabyte: un handheld? Sì, ma sol...
Samsung conferma l'arrivo di tre variant...
Sottile, veloce e con un'ottima autonomi...
Il top di gamma compatto di OnePlus &egr...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 16:47.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v
1