Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

La Formula E può correre su un tracciato vero? Reportage da Misano con Jaguar TCS Racing
La Formula E può correre su un tracciato vero? Reportage da Misano con Jaguar TCS Racing
Abbiamo visto ancora una volta la Formula E da vicino, ospiti di Jaguar TCS Racing. In questa occasione però curve e rettilinei erano quelli di un circuito permanente, molto diverso dagli stretti passaggi delle strade di Roma
Lenovo LEGION e LOQ: due notebook diversi, stessa anima gaming
Lenovo LEGION e LOQ: due notebook diversi, stessa anima gaming
Lenovo ha puntato forte sul gaming negli ultimi anni e lo testimoniano i marchi LEGION e LOQ, il primo per gli amanti delle massime prestazioni e dell'assenza di compromessi, il secondo per chi desidera soluzioni dal buon rapporto tra prestazioni e prezzo. Abbiamo provato due esponenti dell'offerta, così da capire l'effettiva differenza prestazionale.
Nothing Ear e Ear (a): gli auricolari per tutti i gusti! La ''doppia'' recensione
Nothing Ear e Ear (a): gli auricolari per tutti i gusti! La ''doppia'' recensione
Nothing propone sul mercato non uno ma ben due auricolari nuovi: Ear di terza generazione e Ear (a) ossia un nuovo modello a basso costo pronto a ritagliarsi una fetta di mercato. Entrambi rimangono fedeli al marchio per il design ancora trasparente ma fanno un balzo in avanti notevole per qualità e soppressione del rumore.  
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 16-08-2018, 09:43   #41
Gyammy85
Senior Member
 
L'Avatar di Gyammy85
 
Iscritto dal: Sep 2010
Città: Messina
Messaggi: 18372
Quote:
Originariamente inviato da omihalcon Guarda i messaggi
Va ancora di moda il 3Dmark?
Evidentemente no, se no saremmo sommersi da barrette...
__________________
MSI B550 Gaming Plus - AMD Ryzen 5 5600X - HyperX Fury RGB 32GB 3200 @3600 - Kingston KC3000 1 TB/XPG SX8200 Pro 512 GB - Sapphire Radeon Pure RX 7800 XT - Corsair CX750F RGB - Cooler Master GM32-FQ
Gyammy85 è offline   Rispondi citando il messaggio o parte di esso
Old 16-08-2018, 10:10   #42
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14720
Quote:
Originariamente inviato da omihalcon;
Sono d'accordo ma questo però si scontra con il business basato sul consumismo attuale.
Preferiranno come al solito la soluzione all-in-one per far spendere un pò di soldi.
In realtà sarebbe una soluzione meno a rischio anche per i produttori: con le soluzioni integrate c'è sempre il rischio di sprecare prezioso silicio per qualcosa che poi in realtà potrebbe rivelarsi inadatto.
Cosa succederebbe per esempio se il concorrente facesse uscire una scheda con capacità doppie o triple per il raytracing? Siamo ancora agli inizi e ancora non si sa quale sia il giusto bilanciamento.
Nvidia probabilmente ha optato per questa soluzione anche perchè è ancora in grado di imporre uno "standard" e gli sviluppatori software la seguono perchè più diffusa.

Quote:
Originariamente inviato da omihalcon;
della serie vorrei cambiare la VGA ma non è concepibile tornare a prezzi allucinati di qualche mese fa
Quella dei prezzi delle attuali schede video, insieme a quello delle RAM, sta diventando paradossale.
Devo tirar su una nuova macchina senza pretese, se opto per una APU mi tocca spendere una fortuna in memorie, se invece prendo CPU+VGA il salasso è su quest'ultima. Ci fosse una scheda video di fascia bassa e di ultima generazione per 50-60 euro risolverei con quella.
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 16-08-2018, 10:18   #43
Gyammy85
Senior Member
 
L'Avatar di Gyammy85
 
Iscritto dal: Sep 2010
Città: Messina
Messaggi: 18372
Quote:
Originariamente inviato da calabar Guarda i messaggi
In realtà sarebbe una soluzione meno a rischio anche per i produttori: con le soluzioni integrate c'è sempre il rischio di sprecare prezioso silicio per qualcosa che poi in realtà potrebbe rivelarsi inadatto.
Cosa succederebbe per esempio se il concorrente facesse uscire una scheda con capacità doppie o triple per il raytracing? Siamo ancora agli inizi e ancora non si sa quale sia il giusto bilanciamento.
Nvidia probabilmente ha optato per questa soluzione anche perchè è ancora in grado di imporre uno "standard" e gli sviluppatori software la seguono perchè più diffusa.
Calabar alla fine diciamo le stesse cose, io dicevo infatti che la corsa alle unità dedicate è rischiosa, perché se non le usi sprechi silicio. Personalmente, penso che se ora facessero un benchmark amd non ne uscirebbe male, anzi (amd emula un sacco di cose sullo shader core, 64 cu che si mettono a fare raytracing non credo facciano così schifo).
Quoto anche la parte dopo, anche se molti continuano a negare l'evidenza...ormai siamo pieni di "standard" pagati a caro prezzo.
__________________
MSI B550 Gaming Plus - AMD Ryzen 5 5600X - HyperX Fury RGB 32GB 3200 @3600 - Kingston KC3000 1 TB/XPG SX8200 Pro 512 GB - Sapphire Radeon Pure RX 7800 XT - Corsair CX750F RGB - Cooler Master GM32-FQ
Gyammy85 è offline   Rispondi citando il messaggio o parte di esso
Old 16-08-2018, 10:30   #44
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 11676
Quote:
Originariamente inviato da calabar Guarda i messaggi
In realtà sarebbe una soluzione meno a rischio anche per i produttori: con le soluzioni integrate c'è sempre il rischio di sprecare prezioso silicio per qualcosa che poi in realtà potrebbe rivelarsi inadatto.
Cosa succederebbe per esempio se il concorrente facesse uscire una scheda con capacità doppie o triple per il raytracing? Siamo ancora agli inizi e ancora non si sa quale sia il giusto bilanciamento.
Nvidia probabilmente ha optato per questa soluzione anche perchè è ancora in grado di imporre uno "standard" e gli sviluppatori software la seguono perchè più diffusa.
in questo caso non credo, perchè la parte RT è stata sviluppata direttamente con le software house e il bilanciamento credo sia stato fatto anche partendo da Volta che aveva la parte Ray-Tracing spalmata sui CUDA.

La parte RT Core è "a se stante" ma è integrato nel processo ibrido di rendering, farla esterna credo che avrebbe complicato le cose nel calcolo ibrido;
oltretutto fare una scheda dedicata avrebbe voluto dire anche rallentarne il processo di adozione, e farne aumentare il costo.
nelle Pro c'è anche l'nVlink che è un gradino sopra allo SLI/CF e mette i chip direttamente a contatto andando a condividere anche la Vram; rispeto al PC-EX hai una connessione con maggiore banda, dedicata alla sola comunicazione con le GPU e con minori latenze.

Altra cosa da tenere a mente con l'RT è la parte Tensor Core, che si occupa del De-Noise Ai; non sono molto separabili le cose perchè tutte concorrono al Raytracing finale.

ci sara da vedere solo cosa vorra fare nVidia con le gaming, perchè attualmente il raytracing è impiegabile in vari modi e a vari livelli e magari con le gaming iniziera con una variante piu blanda dedicata solo a qualche pass.

il 20 agosto vedremo


Quote:
Originariamente inviato da Gyammy85 Guarda i messaggi
Calabar alla fine diciamo le stesse cose, io dicevo infatti che la corsa alle unità dedicate è rischiosa, perché se non le usi sprechi silicio. Personalmente, penso che se ora facessero un benchmark amd non ne uscirebbe male, anzi (amd emula un sacco di cose sullo shader core, 64 cu che si mettono a fare raytracing non credo facciano così schifo).
Quoto anche la parte dopo, anche se molti continuano a negare l'evidenza...ormai siamo pieni di "standard" pagati a caro prezzo.
se una singola RTX 6000 è riuscita a far girare la demo di Star Wars che prima girava su 4 Titan V, AMD ne uscirebbe con le ossa rotte.

solo tu neghi l'evidenza che si è arrivati a un punto dove le unita dedicate sono necessarie perchè si è arrivati al limite di TDP e al limite di dimensione del silicio e le unita unificate sono inefficienti.

te l'ho gia scritto ma ovviamente lo hai ignorato; le unita unificate sono nate per una questione di PRATICITA e perchè era impossibile avere un gioco sempre bilanciato nella tipologia di calcolo, ma sono SEMPRE state meno efficienti ( e sempre lo saranno ), rispetto ad unita dedicate ma che haime, non si possono usare.

e come se ti stessi lamentando dell'integrazione del decoder hardware video nella GPU che poteva benissimo essere fatto dagli shader, ma invece di consumare pochi W lo faresti con tutta la GPU

Quote:
Originariamente inviato da Gyammy85 Guarda i messaggi
ormai siamo pieni di "standard" pagati a caro prezzo.
visto che l'alternativa è il supporto di AMD, preferisco pagare e avere quache cosa di funzionante subito, non aspettare 5 anni perchè ha lasciato lo "standard" sul groppone degli sviluppatori.
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360

Ultima modifica di AceGranger : 16-08-2018 alle 10:47.
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 16-08-2018, 11:23   #45
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14720
@AceGranger
Mi riferivo al mercato dei videogiochi, dove non c'è ancora nulla e trovare il giusto bilanciamento non è così semplice. Per il mercato professionale, come dicevo, lo sviluppo nasce dalle richieste del settore.
Ad ogni modo non credo che per il mercato professionale sarebbe stato un problema l'acquisto di una scheda acceleratrice, chi ha bisogno di quel tipo di prodotti di certo non ha problemi ad acquistarla se esiste un vantaggio (anzi... magari sarebbe felice di farlo perchè non dovrebbe sostituire le Volta appena acquistate a caro prezzo).
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 16-08-2018, 11:31   #46
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 11676
Quote:
Originariamente inviato da calabar Guarda i messaggi
@AceGranger
Mi riferivo al mercato dei videogiochi, dove non c'è ancora nulla e trovare il giusto bilanciamento non è così semplice. Per il mercato professionale, come dicevo, lo sviluppo nasce dalle richieste del settore.
in questo campo videogiochi e mercato Pro stanno andando a braccetto; non c'è differenza fra il girovagare e sparare agli zombie o girovagare per vedere un arredo e aprire i veri arredi e porte, come non c'è differenza fra il girare fra una citta distrutta per compiere una missione e girovagare per vedere un Masterplan.

è da un paio di anni che si sta iniziando ad utilizzare Unreal/Unity in campo Visual Pro, sia architettonico sia Automotive, l'RT è solo la naturale evoluzione per avere una resa grafica migliore e piu accurata sia in campo gaming che Pro, e soprattutto istantanea.

Quote:
Originariamente inviato da calabar Guarda i messaggi
@AceGranger
Ad ogni modo non credo che per il mercato professionale sarebbe stato un problema l'acquisto di una scheda acceleratrice, chi ha bisogno di quel tipo di prodotti di certo non ha problemi ad acquistarla se esiste un vantaggio (anzi... magari sarebbe felice di farlo perchè non dovrebbe sostituire le Volta appena acquistate a caro prezzo).
in campo pro si sono gia viste soluzioni hardware acceleratrici dedicate al solo ray-tracing ma non hanno mai sfondato, nemmeno nelle grosse produzioni che si fanno i sofware in casa;

una soluzione di questo tipo è nettamente preferibile, visto che poi si tratta comunque di visualizzazioni "ibride" e non pure ray-tracing; con una scheda di questo tipo prendi il meglio da ogni tipo di unita di calcolo; hai una parte dedicata all'RT, una parte dedicata all'Ai e la parte dei CUDA core che possono fare tutto, volendo anche la parte RT e Ai.
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360

Ultima modifica di AceGranger : 16-08-2018 alle 11:34.
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 16-08-2018, 17:18   #47
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14720
@AceGranger
La fai troppo facile. Nel mercato consumer ci vuol poco a cambiare le esigenze a seconda di come si muove il mercato e lo sviluppo di una tecnologia che è nuova in questo settore.
Queste andranno bene semplicemente perchè gli sviluppatori baseranno molto del loro lavoro su hardware nVidia, ma ho idea che questo tipo di soluzioni tutto in uno diventeranno presto obsolete, gli equilibri si troveranno nelle prossime generazioni.

Per il mondo professionale il motivo per cui le schede acceleratrici per il ray-tracing non hanno avuto grandissima diffusione possono essere molteplici, ma del resto questa è la prima volta che un grande produttore di schede video entra in questo specifico mercato e le cose sarebbero potute andare molto diversamente con una soluzione dedicata.
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 16-08-2018, 18:47   #48
Gyammy85
Senior Member
 
L'Avatar di Gyammy85
 
Iscritto dal: Sep 2010
Città: Messina
Messaggi: 18372
@AceGranger
Amd ha un'architettura votata al computing fin dal 2012, non avranno problemi a tirar fuori una soluzione comparabile o migliore per il ray
__________________
MSI B550 Gaming Plus - AMD Ryzen 5 5600X - HyperX Fury RGB 32GB 3200 @3600 - Kingston KC3000 1 TB/XPG SX8200 Pro 512 GB - Sapphire Radeon Pure RX 7800 XT - Corsair CX750F RGB - Cooler Master GM32-FQ
Gyammy85 è offline   Rispondi citando il messaggio o parte di esso
Old 16-08-2018, 19:01   #49
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
Quote:
Originariamente inviato da Gyammy85 Guarda i messaggi
@AceGranger
Amd ha un'architettura votata al computing fin dal 2012, non avranno problemi a tirar fuori una soluzione comparabile o migliore per il ray
eh certo come no, ci crediamo guarda.
A loro basta uno schiocco di dita.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 16-08-2018, 19:14   #50
bagnino89
Senior Member
 
L'Avatar di bagnino89
 
Iscritto dal: Aug 2006
Messaggi: 13567
Quote:
Originariamente inviato da Gyammy85 Guarda i messaggi
@AceGranger
Amd ha un'architettura votata al computing fin dal 2012, non avranno problemi a tirar fuori una soluzione comparabile o migliore per il ray
Eh sì, però guarda caso Nvidia arriva sempre prima.
__________________
Ryzen 5600 / Prime X370 Pro / 32 GB DDR4 / EVGA Black RTX 3070 / Crucial P5 Plus 1 TB / Crucial MX500 1 TB / Seasonic Focus GX-750 / Dell S2417DG / Edifier R1280T / Synology DS220+ / Pixel 6 / Steam Deck
bagnino89 è offline   Rispondi citando il messaggio o parte di esso
Old 17-08-2018, 00:57   #51
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 11676
Quote:
Originariamente inviato da calabar Guarda i messaggi
@AceGranger
La fai troppo facile. Nel mercato consumer ci vuol poco a cambiare le esigenze a seconda di come si muove il mercato e lo sviluppo di una tecnologia che è nuova in questo settore.
Queste andranno bene semplicemente perchè gli sviluppatori baseranno molto del loro lavoro su hardware nVidia, ma ho idea che questo tipo di soluzioni tutto in uno diventeranno presto obsolete, gli equilibri si troveranno nelle prossime generazioni.

Per il mondo professionale il motivo per cui le schede acceleratrici per il ray-tracing non hanno avuto grandissima diffusione possono essere molteplici, ma del resto questa è la prima volta che un grande produttore di schede video entra in questo specifico mercato e le cose sarebbero potute andare molto diversamente con una soluzione dedicata.
guarda, negli ultimi 10 anni ho visto cambiare piu cose in ambito Pro, che nel mercato gaming...

la soluzione totalmente dedicata, ripeto, avrebbe creato piu problemi che altro, specialmente agli sviluppatori; cosi invece si rimane in ambito DirectX e CUDA.

Quote:
Originariamente inviato da Gyammy85 Guarda i messaggi
@AceGranger
Amd ha un'architettura votata al computing fin dal 2012, non avranno problemi a tirar fuori una soluzione comparabile o migliore per il ray
votata al computing in quale mondo parallelo ? è dall'uscita della prima Tesla che in campo computing AMD non se la caga nessuno...

riuscira a fare risultati comparabili solo e soltanto se fara delle sue unita dedicate, seno continuera a stare dove sta, sugli scaffali, perchè 8 su 10 continueranno a essere Quadro e 99 su 100 Tesla.
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360

Ultima modifica di AceGranger : 17-08-2018 alle 01:05.
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 17-08-2018, 08:30   #52
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4079
Quote:
Originariamente inviato da lucusta Guarda i messaggi
volta era solo pascal con l'aggiunta di tensor core.
Turing sembra essere molto più simile a Volta di quanto non lo sia quest'ultimo con Pascal, vedi cache L1 data/condivisa unificata, la presenza di un RT engine, core integer dedicati e probabilmente anche la maggior flessibilità nella pianificazione dei thread rispetto a quanto visto in Pascal...
Le modifiche da Volta sembrerebbero limitati alla flessibilità dei Tensor core e probabilmente un maggior numero di unità a funzione fissa per accelerare il RT.
Invece, dall'omissione (voluta?) sembrerebbe cbe Turing non abbia un throughput FP16 doppio rispetto a FP32 come VEGA/VOLTA, ma incrementi prestazionali dovuti alla semplice risparmio della banda passante, come quelle viste in Fiji/Polaris, comunque un netto miglioramento rispetto a quanto oggi reso disponibile con Pascal consumer dove si assiste ad un calo di prestazioni di un fattore 10 con l'uso della mezza precisione.

Quote:
Originariamente inviato da lucusta Guarda i messaggi
volta era solo pascal con l'aggiunta di tensor core.
visto che i tensor core non servono nel gaming (o meglio ci sono altri metodi per calcolare matrici vettoriali e non serve ne un'estensione di vettori così elevata, ne tantomeno cotanta precisione), non aveva senso integrarlo nelle schede consumer (da qui #poorvolta).
ray tracing è una tecnologia più interessante, ma per creare il ray tracing real time, quello necessario per un gioco 3D, ci vuole una potenza computazionale che è di un'ordine superiore a quanto viene proposto oggi (con questa serie con unità dedicate).
aspetta un attimo. Secondo nvidia i tensor core migliorano le prestazioni del RT, quindi non sarebbero inutili, anzi persino necessari visto la potenza computazionale richiesta.
E poi pare che Volta con l'introduzione di Turing non sia più compatibile con la tecnologia RTX....

dal comunicato stampa di nvidia, in certi frangenti si ha davvero l'impressione che la società californiana confronti Turing con Pascal, per aumentare il numero delle novità rispetto alla precedente (quale?) architettura.

Ultima modifica di tuttodigitale : 17-08-2018 alle 08:46.
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 17-08-2018, 09:32   #53
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 11676
Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
Turing sembra essere molto più simile a Volta di quanto non lo sia quest'ultimo con Pascal, vedi cache L1 data/condivisa unificata, la presenza di un RT engine, core integer dedicati e probabilmente anche la maggior flessibilità nella pianificazione dei thread rispetto a quanto visto in Pascal...
Le modifiche da Volta sembrerebbero limitati alla flessibilità dei Tensor core e probabilmente un maggior numero di unità a funzione fissa per accelerare il RT.
Invece, dall'omissione (voluta?) sembrerebbe cbe Turing non abbia un throughput FP16 doppio rispetto a FP32 come VEGA/VOLTA, ma incrementi prestazionali dovuti alla semplice risparmio della banda passante, come quelle viste in Fiji/Polaris, comunque un netto miglioramento rispetto a quanto oggi reso disponibile con Pascal consumer dove si assiste ad un calo di prestazioni di un fattore 10 con l'uso della mezza precisione.
in Pascal l'FP16 è 1/64; in turing, almeno nelle Pro, i TFLops sicuri saranno 16 + 125 dei Tensor.

Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
aspetta un attimo. Secondo nvidia i tensor core migliorano le prestazioni del RT, quindi non sarebbero inutili, anzi persino necessari visto la potenza computazionale richiesta.
si, teoricamente dovrebbero servire per il denoise, quindi a far uscire prima i frame puliti facendo passare l'RT core al frame successivo.


Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
E poi pare che Volta con l'introduzione di Turing non sia più compatibile con la tecnologia RTX....
mi sembra strano, pero potrebbe anche essere, visto che in Volta i calcoli della GI venivano effettuati con i CUDA Core, mentre oravengono spostati interamente all' RT Core, quindi probabilmente cambiera tutta la parte software.

Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
dal comunicato stampa di nvidia, in certi frangenti si ha davvero l'impressione che la società californiana confronti Turing con Pascal, per aumentare il numero delle novità rispetto alla precedente (quale?) architettura.
eh bè ma alla fine Turing è diretto successore di Pascal; di Volta si è visto 1 solo chip e solo Compute.
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 17-08-2018, 09:45   #54
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14720
Quote:
Originariamente inviato da AceGranger;
guarda, negli ultimi 10 anni ho visto cambiare piu cose in ambito Pro, che nel mercato gaming...
Si tratta però di un mercato diverso.
In ambito professionale la scheda è un investimento, la compri quando sei in grado di sfruttarla e ottenerne un vantaggio produttivo. Se dopo una anno devi cambiarla non è un grosso problema, l'hai sfruttata e comprarne un'altra che ti garantisce ulteriori vantaggi non è una spesa ma un altro investimento.
Al contrario in ambito gaming, escludendo chi cambia scheda ogni anno per avere sempre il top delle prestazioni, si ha molta più difficoltà a digerire questo cambio di hardware. Se io oggi compro una scheda per gioco (e questa è una spesa, non un investimento, dato che non ne ho un ritorno economico) voglio sperare di poterla utilizzare nei prossimi anni senza particolari patimenti, ma questo è molto difficile che avvenga con una soluzione acerba e integrata, che non mi consente altre soluzioni che sostituire l'intera scheda.

Quote:
Originariamente inviato da AceGranger;
la soluzione totalmente dedicata, ripeto, avrebbe creato piu problemi che altro, specialmente agli sviluppatori; cosi invece si rimane in ambito DirectX e CUDA.
Potrebbero anche con una soluzione dedicata, lavorando sull'ecosistema software questa separazione sarebbe potuta essere trasparente per l'utente. In compenso si avrebbe avuto un sistema molto più flessibile con potenza computazionale adatta alle diverse esigenze e facilmente aggiornabile.
In ambito tecnico non mi ci spingo, perchè non so valutare se il fatto di stare in schede separate possa creare dei colli di bottiglia. Immagino però che questo potrebbe essere il campo perfetto per l'uso dell'NVlink.

Quote:
Originariamente inviato da AceGranger;
in campo computing AMD non se la caga nessuno...
Questo più che all'architettura credo sia legato al supporto software.
Le unità dedicate per IA e RT sono aggiunte dell'ultima generazione (considerando Volta come una mezza generazione), immagino che anche AMD adotterà un approccio simile con le nuove schede, a meno che naturalmente non trovi una soluzione che ritiene migliore.

Ultima modifica di calabar : 17-08-2018 alle 09:51.
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 17-08-2018, 10:45   #55
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 11676
Quote:
Originariamente inviato da calabar Guarda i messaggi
Si tratta però di un mercato diverso.
In ambito professionale la scheda è un investimento, la compri quando sei in grado di sfruttarla e ottenerne un vantaggio produttivo. Se dopo una anno devi cambiarla non è un grosso problema, l'hai sfruttata e comprarne un'altra che ti garantisce ulteriori vantaggi non è una spesa ma un altro investimento.
Al contrario in ambito gaming, escludendo chi cambia scheda ogni anno per avere sempre il top delle prestazioni, si ha molta più difficoltà a digerire questo cambio di hardware. Se io oggi compro una scheda per gioco (e questa è una spesa, non un investimento, dato che non ne ho un ritorno economico) voglio sperare di poterla utilizzare nei prossimi anni senza particolari patimenti, ma questo è molto difficile che avvenga con una soluzione acerba e integrata, che non mi consente altre soluzioni che sostituire l'intera scheda.
Potrebbero anche con una soluzione dedicata, lavorando sull'ecosistema software questa separazione sarebbe potuta essere trasparente per l'utente. In compenso si avrebbe avuto un sistema molto più flessibile con potenza computazionale adatta alle diverse esigenze e facilmente aggiornabile.
In ambito tecnico non mi ci spingo, perchè non so valutare se il fatto di stare in schede separate possa creare dei colli di bottiglia. Immagino però che questo potrebbe essere il campo perfetto per l'uso dell'NVlink.
la vediamo in modo diverso, e da utilizzatore, ti dico che una dedicata sarebbe stato un flop, anche nel mercato Pro, come è stato fino ad ora.

Quote:
Originariamente inviato da calabar Guarda i messaggi
Questo più che all'architettura credo sia legato al supporto software.
Le unità dedicate per IA e RT sono aggiunte dell'ultima generazione (considerando Volta come una mezza generazione), immagino che anche AMD adotterà un approccio simile con le nuove schede, a meno che naturalmente non trovi una soluzione che ritiene migliore.
AMD non ha mai sfondato anche perchè non è mai stata efficiente; CUDA è stato solo il colpo di grazia e nelle 2 ultime generazioni il divario è diventato un abisso.
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 17-08-2018, 14:10   #56
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14720
Quote:
Originariamente inviato da AceGranger;
... ti dico che una dedicata sarebbe stato un flop, anche nel mercato Pro, come è stato fino ad ora.
Quel che è stato fino ad ora non è detto che debba ripetersi: ci possono essere condizioni che cambiano le carte in tavola, e l'ingresso di Nvidia e/o AMD avrebbe potuto farlo a mio parere.

Le soluzioni integrate hanno comunque un indubbio vantaggio: favoriscono le diffusione di una tecnologia. Se tutte le schede hanno quella funzionalità, gli sviluppatori sono più motivati ad investire risorse in essa.
Però ho pensato che in ambito professionale questo potesse avere meno importanza.

Quote:
Originariamente inviato da AceGranger;
AMD non ha mai sfondato anche perchè non è mai stata efficiente;
Consumi troppo elevati dici?
L'architettura in se comunque non dovrebbe essere troppo inefficiente, in rete diversi utenti riescono ad ottenere consumi più che dimezzati con le schede da gioco grazie al "fine tuning" delle tensioni: sembra che AMD abbia utilizzato tensioni elevate pur di buttare sul mercato praticamente tutta la produzione e risparmiare nella fase di testing. Se non ti capita la scheda sfortunata, puoi ottenere risultati interessanti.
Ovvio questo non ha senso in campo professionale, per cui mi chiedo quale sia la situazione con le Radeon Instinct: in tale ambito mi aspetterei che AMD facesse un lavoro di selezione migliore.
Puoi farmi un esempio di situazione in campo professionale dove emerga chiaramente questa minore efficienza e il problema non sia il supporto software? Non un singolo test ovviamente, dato che un test può adattarsi meglio o peggio ad una certa microarchitettura piuttosto che ad un'altra.
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 20-08-2018, 10:30   #57
teknobrain
Senior Member
 
L'Avatar di teknobrain
 
Iscritto dal: Oct 2004
Città: Scandicci
Messaggi: 1313
I tuoi amici si abbaglierebbero con una lentezza spaventosa a 30fps!
teknobrain è offline   Rispondi citando il messaggio o parte di esso
Old 20-08-2018, 10:56   #58
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
Quote:
Originariamente inviato da calabar Guarda i messaggi
Si tratta però di un mercato diverso.
In ambito professionale la scheda è un investimento, la compri quando sei in grado di sfruttarla e ottenerne un vantaggio produttivo. Se dopo una anno devi cambiarla non è un grosso problema, l'hai sfruttata e comprarne un'altra che ti garantisce ulteriori vantaggi non è una spesa ma un altro investimento.
Al contrario in ambito gaming, escludendo chi cambia scheda ogni anno per avere sempre il top delle prestazioni, si ha molta più difficoltà a digerire questo cambio di hardware. Se io oggi compro una scheda per gioco (e questa è una spesa, non un investimento, dato che non ne ho un ritorno economico) voglio sperare di poterla utilizzare nei prossimi anni senza particolari patimenti, ma questo è molto difficile che avvenga con una soluzione acerba e integrata, che non mi consente altre soluzioni che sostituire l'intera scheda.
Capisco che per te è un mondo sconosciuto e ti basi sulle esperienze di chi ha solitamente pretese zero o basse ma chi cambia scheda non lo fa per sfizio.

Che ti piaccia o meno le schede dopo un paio di anni mostrano sempre il limite con i nuovi titoli, come succede ora con le 1070/1080 a 1440p, se poi uno punta a poter avvicinare il 4K ancora peggio.

Chi compera schede di quel tipo è perchè vogliono giocare con una certa qualità, non gli basta che il gioco si avvii e si muova qualcosa a schermo e quando i titoli in cui non si è più in grado di farlo o hai cali di frame rate troppo frequenti si cambia.

E quando si cambia si sceglie il momento opportuno, ossia poco prima che escano le nuove o subito dopo, altrimenti perde di valore nel mercato, valore che ti serve per assorbire parte del costo della nuova, solitamente anche più della metà del suo costo, alla faccia di chi si lamenta che le schede costino troppo .... tenersi una scheda come dici tu poi alla fine ci perdi ugualmente e di più quando comperi la prossima.

Ultima modifica di nickname88 : 20-08-2018 alle 10:59.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 08-09-2018, 13:03   #59
mate87
Junior Member
 
Iscritto dal: Sep 2018
Messaggi: 1
salve a tutti, sono marco e mi sono appena iscritto nel forum, per lavoro mi occupo di animazione e modellazione 3d, rendering ed illuminazione di scene virtuali, nello specifico i software che utilizzo sono zbrush, maya e arnold come motore di render (che a breve so che darà la possibilità di renderizzare in GPU).

Leggevo che qualcuno diceva di utilizzare, anzichè una quadro, una Rtx serie 20 per il render GPU (e quando parlo di render, non intendo quello volto ai videogames).
Io sapevo fin ora che le Quadro rispetto alle Gtx sono molto più stabili; ci sono stati casi in cui ho avuto problemi utilizzando schede grafiche GTX per il gaming, con cui renderizzando tramite GPU, con altri software, ebbi problemi di stabilità, il video presentava problemi di flickering o altri tipi di problemi simili...

Senza andare troppo fuori tema, volevo sapere prima di tutto se c'è qualcuno di voi che fa il mio stesso lavoro o simile e cosa sceglierà o ha già scelto, mettendosi difronte a questa scelta che Nvidia ora ci pone (Quadro RTX o RTX). E se sapete le date di uscita della serie Quadro.
mate87 è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


La Formula E può correre su un tracciato vero? Reportage da Misano con Jaguar TCS Racing La Formula E può correre su un tracciato ...
Lenovo LEGION e LOQ: due notebook diversi, stessa anima gaming Lenovo LEGION e LOQ: due notebook diversi, stess...
Nothing Ear e Ear (a): gli auricolari per tutti i gusti! La ''doppia'' recensione Nothing Ear e Ear (a): gli auricolari per tutti ...
Sony FE 16-25mm F2.8 G: meno zoom, più luce Sony FE 16-25mm F2.8 G: meno zoom, più lu...
Motorola edge 50 Pro: design e display al top, meno il prezzo! Recensione Motorola edge 50 Pro: design e display al top, m...
HiSolution amplia i propri servizi e pun...
F1 24 introdurrà migliorie al mod...
Arriva Omnissa, che prenderà in c...
Turista americano torna dall'Europa e si...
Larian al lavoro su due nuovi giochi, cr...
Microsoft Office LTSC 2024 disponibile i...
Fallout 4 è il gioco più v...
Razer Kishi Ultra: ecco il controller pe...
Il Dimensity 6300 di MediaTek porta il 5...
Google combina i team Android, Chrome e ...
Axiante vuole indagare come le imprese i...
Italia quinto mercato europeo per i vide...
Apple celebra la Giornata della Terra co...
La funzionalità 'AI Explorer' di ...
ASUS ROG Ally: la versione più potente c...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 18:48.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Served by www3v
1