|
|
|
|
Strumenti |
23-11-2020, 02:35 | #301 | |
Senior Member
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 20670
|
Quote:
https://www.youtube.com/watch?v=ZkkkFgtBoyU
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT ventigigaBAIT Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb |
|
23-11-2020, 07:32 | #302 | ||||||||||||||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
|
Quote:
Quote:
Quote:
Dunque dovrà simulare il MLSS in software, ciò sfruttando gli attuali shader core, e non puoi certo aspettarti gli stessi risulti a livello prestazionale. Anche il ray tracing potevi simularlo per software, ma poi abbiamo visto l'enorme crollo di frame rate che c'è stato... Inoltre, e non meno importante, è da vedere, poi, cosa succederà a livello qualitativo, visto che nVidia può contare su un enorme vantaggio in termine di training delle sue rete neurali, chiaramente visibile passando dalla prima versione alla seconda del DLSS. Quindi questo è un altro aspetto da non sottovalutare. Quote:
Niente miracoli, quindi, e se poi lo implementeranno sia nVidia sia Intel sarà inutile anche discuterne perché non ci sarà nessuna casa che se ne avvantaggerà. Quote:
Non è, quindi, né una cache né una memoria aggiuntiva che si potrebbe utilizzare per metterci altri dati et similia, perché probabilmente sarà già utilizzata. Ma anche se la VRAM fosse libera per poterci mettere qualcosa che attualmente stia nella memoria di sistema, l'accesso da parte della CPU a tale memoria è enormemente più lento rispetto alla sua RAM. Per spiegarti brevemente come funziona, usare la SAM dà la possibilità alla CPU di inviare in un colpo solo grossi blocchi di memoria. Mentre con l'attuale AGP aperture deve prima mappare tale apertura verso il blocco (max 256MB) di VRAM a cui vuole accedere, e poi far partire il comando di invio. Normalmente all'avvio di un gioco si provvede a caricare la VRAM con tutto ciò (di grosso, in particolare: le texture) che serve, e per il resto, durante l'esecuzione, si inviano blocchi di dati sulla scena da renderizzare, che normalmente non occupano molto spazio. E' più utile, invece, quando si fa streaming di texture, ma anche qui l'attuale vantaggio verrà annullato col supporto allo streaming diretto da SSD/M2 alla VRAM. Spero di essere stato chiaro. Quote:
Primo, il termine mazzette è del tutto fuori luogo. Il significato ha un termine preciso e lo stai applicando in un contesto totalmente diverso, con una accezione negativa volta chiaramente a mettere nel torbido un'azienda che, invece, fa tutto in maniera perfettamente legale. Ed è una brutta caduta di stile. Secondo, lo sviluppo dei videogiochi è cambiato moltissimo col passare del tempo. Ho sviluppato dei giochi per Amiga all'inizio degli anni '90, e in genere eravamo soltanto tre: io (programmatore), il grafico, il musicista / responsabile degli effetti sonori. Più il "manager". C'erano, anzi, videogiochi che venivano sviluppati e venduti da UNA sola persona (uno su tutti: Geoff Crammond. Un MITO!). Oggi i giochi sono talmente complessi che ci sono studi con centinaia di persone che lavorano a un solo titolo, le produzioni AAA hanno già superato i budget tipicamente holliwoodiani, e questo sia per gli asset / ambientazioni del gioco, sia per la programmazione, che è un vero inferno vista la complessità delle tecnologie, e ci metto pure delle API perché DirectX 12 e Vulkan sono una netta REGRESSIONE da questo punto di vista (le DX <= 11 erano di gran lunga più semplici da usare). Aggiungiamo poi che le case produttrici di GPU non sono due, ma tre (c'è anche Intel che ha i 2/3 del mercato delle GPU, e molti giocatori... le usano), con prodotti molto diversi (Intel ha persino della memoria embedded per le GPU top di gamma!), e si capisce come sia molto difficile e oneroso già soltanto sviluppare un gioco tenendo conto di tutta questa varietà di hardware. Figuriamoci a ottimizzarlo pure... Quote:
Poi tu almeno una scheda RTX ce l'hai... Quote:
Poi per diventare normalità si dovranno togliere di mezzo gli shader core attuali (o quanto meno ridurne l'utilizzo), ed è difficile farlo quando c'è da supportare anche tutto il legacy (i vecchi giochi). Quote:
Quote:
Quote:
Quote:
E, checché tu ne dica, è ovvio che sia una soluzione al risparmio, perché sviluppare una GPU E una scheda video con un bus più ampio è ben più complicato e costoso. Sì, AMD ha cercato di mitigare riciclando la cache dei Ryzen. Dà una mano, senz'altro, ma non può fare miracoli, e infatti non li fa proprio quando dovrebbe servire più banda. Che metti a fare tanta VRAM per supportare le risoluzioni più elevate, quando poi le prestazioni crollano? Quote:
Adesso AMD se n'è uscita con schede che supportano il ray tracing (e arriverà anche un equivalente di DLSS), per cui i confronti si espandono anche su questo fronte, o vuoi togliere di mezzo l'RT soltanto perché ti fa comodo così? AMD non è chiaramente competitiva con l'RT, e nVidia può continuare a dormire sonni tranquilli. E non ne parliamo se poi aggiungiamo pure il DLSS. Dunque AMD è certamente competitiva a livello di grafica raster, ma oggi non basta. P.S. Ho cercato di evitare lo spezzatino: spero che apprezzerai. Quote:
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
||||||||||||||
23-11-2020, 08:58 | #303 |
Senior Member
Iscritto dal: Jul 2008
Città: Falconara Marittima
Messaggi: 26362
|
Mah, al momento rimango delle mie idee espresse un annetto fa.
E cioè che il RT non è una "tecnologia di secondo piano", tantomeno una boutade come possono esserlo state tante altre (come quella per i "capelli" o i motori fisici che vedo sfruttati degnamente in un gioco ogni 100). Le console appena uscite hanno tutte funzionalità di RT, e sono il principale traino videoludico, per cui mi sembra evidente quale sia la direzione. D'altro canto, al netto delle richieste hardware evidentemente elevatissime, parliamo di un sistema di "illuminazione" ben più avanzato, preciso e dettagliato del comune raster. Nvidia ha introdotto secondo me con troppo anticipo l'RT nelle sue schede: non per questioni commerciali (ha anticipato tutti i concorrenti, buon per loro), ma perchè è evidente che le prestazioni in RT sono ancora pessime, e se consideriamo che ancora i giochi ne offrono un'implementazione minima la cosa è ancor più evidente. Per questo considero il DLSS una "gran furbata": perchè ha reso il RT fruibile in modo "degno" con almeno una generazione di anticipo. Questo senza entrare nel discorso dello stesso (letto le elucubrazioni chilometriche di cdmauro come sempre con interesse, ma sulla specifica contrapposizione tra "migliore" e "fedele" non concordo. Non riuscire ad essere fedeli vuol dire rendere una cosa peggiore, o al limite semplicemente diversa. Per averla "migliore" dovresti partire da un'immagine di riferimento che sia tale... e ovviamente non esiste. L'unica immagine di riferimento è quella renderizzata nativamente). Ma al di là dei miei pensieri personali, rimane il fatto che, trucco o meno, il DLSS fa un buonissimo lavoro. Quello che sinceramente aspetterei a verificare è l'effettiva capacità delle nuove GPU AMD: le console sono tutte targate AMD, per cui i giochi futuri saranno probabilmente tarati meglio per l'hardware rosso. Inoltre è impossibile fare raffronti finchè non presenteranno la loro tecnologia analoga al DLSS. A livello personale, io continuerò a tenermi la mia cara 5700XT ancora per almeno un paio d'anni. Aspetto schede in grado di reggere meglio le richiesta hardware del RT anche senza "trucchi" come il DLSS, i giochi che lo sfruttano sono ancora pochi (e con effetti limitati) e non sono tipo da spendere 700 euro per una GPU. Oltretutto lo schermo del mio PC è 2K (e mi basta ed avanza), per cui a suo tempo mi dovrebbe bastare una GPU di fascia media. Scende una lacrimuccia.
__________________
Ultima modifica di cronos1990 : 23-11-2020 alle 09:02. |
23-11-2020, 12:07 | #304 | |||||||||
Senior Member
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 20670
|
Quote:
Quote:
Quote:
Quote:
Benissimo allora: quindi una 3080 con 512gb/s (esperimento facilmente effettuabile downcloccando la ram) avrà le stesse prestazioni rispetto la 6800xt in 4k avrai ragione...perchè la cache di amd "Dà una mano, senz'altro, ma non può fare miracoli, e infatti non li fa proprio quando dovrebbe servire più banda." Quindi in 4k, quantomeno in raster, stai assumendo che la banda serve meno, giusto? (se dici che la cache non fa tutta sta differenza). Quindi di logica se la 3080 la portiamo a 512gb/s non si scosterebbe più di tanto dalla 6800xt in raster, giusto? Del resto la cache da solo una piccola mano no? Se invece portandola a 512gb/s calasse di un bel po', sempre a rigor di logica, vorrebbe dire che la cache AMD funziona dannatamente bene eccome se compensa oltre DUECENTO gb/s in meno, o no... Bene, per "nostra" fortuna mio cugino ha una 3080 in arrivo per dicembre (strix oc) e puoi giurarci che gli chiederò di fare questa prova e postero qui i risultati vediamo che succede... Quote:
Quote:
Quote:
"3080 veloce il doppio della 5700xt. Dubito fortemente che bignavi offrirà prestazioni doppie rispetto a quest'ultima, per cui nvidia potrà continuare a dormire sonni tranquilli" la 5700xt aveva l'RT? no, quindi è ovvio che a quella e al raster ti riferivi. Quote:
Quote:
E infatti qua chiudo, perchè è evidente che continuare a interloquire con chi non ammette ne' l'evidente errore sulla sua previsione rigirandosela a comodo col senno del poi, e nega pure la netta efficacia della cache (sottolineata invece proprio dagli articoli del settore) è solo che bandwidth sprecata, per restare in tema , ma in quel caso non c'è cache che tenga
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT ventigigaBAIT Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb Ultima modifica di Ale55andr0 : 23-11-2020 alle 15:30. |
|||||||||
23-11-2020, 12:14 | #305 | |
Senior Member
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 20670
|
Quote:
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT ventigigaBAIT Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb |
|
23-11-2020, 13:31 | #306 |
Senior Member
Iscritto dal: Mar 2002
Messaggi: 1623
|
azz mea culpa allora, e' un lavoro immane, io avrei fatto copia e incolla
non capisco pero perche nella relative performance hanno messo 33 gpu, ma nella recensione i valori sui singoli giochi non ce ne sono traccia, andiamo sulla fiducia ho provato pure a paragonare i valori con quelli di hwu ma giustamente e' difficile con giochi ,impostazioni e configurazioni diverse, ma un valore era troppo anomalo, quello di Borderlands3, ho capito subito che era perche uno era in dx11 l'altro 12, ma la giustificazione di TPU"In our testing, we used DirectX 11 because the DirectX 12 renderer has extremely long loading times and some instability." cioe' ti sei preso la briga di testare 33gpu, lavoro assurdo, ti sei tenuto i risultati per te, quindi a che pro ma..poi non aveva tempo da perdere con BL3 ok una una rondine non fa primavera, ma la stagione di caccia e' sempre aperta contro amd, stiamo freschi aspetta la primavera |
23-11-2020, 13:43 | #307 | |
Senior Member
Iscritto dal: May 2005
Messaggi: 11652
|
Quote:
poi non saprei, quello è quello che scrivono, ma a quel punto allora non dovresti credere a nessuna review.
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360 |
|
24-11-2020, 07:15 | #308 | ||||||||||||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
|
Quote:
Quote:
Ribadisco l'esempio che ho fatto in precedenza sul filtro anisotropico implementato da Ati con le Radeon 9600: era un'approssimazione di quello "fedele" (sigh!) che tutte le altre GPU implementavano (a suon di transistor), e presentava degli artefatti visivi in alcuni casi, ma per il resto era il risultato era molto buono. Eppure non ho visto gente stracciarsi le vesti per questa "furbata" di Ati. Anzi, complimenti a valanga. Qui nVidia propone uno strumento simile, e si scatena l'inferno (!). Meno male che anche AMD lo implementerà, così finiranno una buona volta tutte queste polemiche oggettivamente faziose. Quote:
Quando hai soltanto 128MB per la cache, ma ben 16GB per i dati e, soprattutto, le texture, non è che ci voglia molto a capire perché serva ANCHE un buon bus verso la memoria, eh! E scusa l'ovvietà... Quote:
Ti ricordo che AMD ha pure utilizzato in passato le costosissime memorie HBM, che offrivano una bandwidth (reale: niente cache di mezzo) mostruosa e ridotta latenza, con annessi proclami in pompa magna. Poi abbiamo visto com'è andata a finire: è tornata alla GDDR, che costano molto meno, anche se offrono meno banda (se hai dei bus piccoli, ovviamente) e latenze più elevate. Che un bus più ampio sia più costoso per GPU E (congiunzione) scheda (come avevo scritto prima, visto che non è soltanto un problema della sola GPU) è noto, tant'è che lo sottintende anche la stessa AMD. Dall'articolo: "Il PCB a 14 strati (quattro con 2 once di rame per una conducibilità migliore) prevede 15 fasi di alimentazione e vede la presenza su entrambe le schede di due classici connettori PCIe a 8 pin per l'alimentazione. Due fasi sono dedicate alle memorie (8 chip da 16 Gbit) GDDR6, e AMD sottolinea che questa netta differenza di efficienza rispetto a Nvidia, che sulla RTX 3080 dedica 3 fasi a 10 chip di memoria e sulla 3090 ben quattro per 24 chip, è legata a Infinity Cache." E qui parliamo soltanto della sezione di alimentazione: immagina quanto siano complicati i PCB e quanti strati siano necessari per accomodare anche soltanto il 50% di linee dati in più. E ovviamente anche la GPU ha i suoi bei problemi (clock screw in primis, che fa scendere le prestazioni) e costi sia per il memory controller sia per i bus più ampi interni. Quote:
"s'è visto come calino le prestazioni in ray tracing appena già superi il FullHD" mentre continui a sviolinare sulla grafica raster. Non è che puoi fare il pignolo sulle cose che scrivo soltanto quando ti fa comodo, eh! Quote:
Quote:
Quote:
Detto in altri termini, ridurre bovinamente le frequenze della memoria che ha un certo bus di dati per ottenere la stessa banda nominale NON è equivalente. Roba che si sa da quando sono apparse le memorie DDR... Quote:
Poi, dall'articolo: "In Call of Duty Black Ops: Cold War le GPU Ampere hanno la meglio, anche se bisogna notare come le Radeon si riescano a difendere in 4K grazie alla maggiore VRAM. È proprio a tale risoluzione che emerge la difficoltà della RTX 3070, limitata da una bandwidth di memoria contenuta e da soli 8 GB.". Ovviamente in ray tracing. Quote:
In raster sì, e l'ho confermato: che vuoi di più? Quote:
Ma nVidia può continuare a dormire sonni tranquilli perché sulle tecnologie moderne AMD non è messa bene. Quote:
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
||||||||||||
24-11-2020, 07:18 | #309 | ||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
|
Quote:
Quote:
Ed è anche il motivo per cui ad AMD non servono sponsorizzazioni a livello di nVidia: i giochi glieli ottimizzano già a default. Ovviamente non al meglio, ma è già a costo zero per lei.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
||
24-11-2020, 09:10 | #310 | |
Senior Member
Iscritto dal: Feb 2004
Città: perugia
Messaggi: 7898
|
Quote:
Quoto... e poi mi fanno ridere che se dici questa cosa si offendono come se gli avessi tirato in ballo la mamma. che tra l'altro amd a me non è mai stata antipatica altrimenti non le avrei mai avute, ma quando c'è da fare una puntualizzazione si fa e basta. Mancano allo stato attuale tecnologie alla pari del dlss (funzionanti e attive) e performance in raytracing. Poi nulla vieta che tra 1-2 mesi ci siano sfornate e vagonate di giochi dove amd rulla come un tamburo e offre discrete prestazioni seppur minori della controparte verde. Tra l'altro ho offeso anche i pronipoti di nvidia per il paper launch e offendo i pronipoti per il paper launch delle amd. ma infatti anche sta cosa... che è una novita? è sempre stato cosi! mah
__________________
Nvidia Manli GeForce RTX® 4090 Gallardo , INTEL i9-13900K, 32gb Crucial HyperX DDR5 @6000, SSD NVME Corsair Pcie 4.0 4TB, Monitor LG OLED 240HZ 27GR95QE, Headset AR/VR Meta Quest Pro |
|
24-11-2020, 09:46 | #311 | |||
Senior Member
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 20670
|
Quote:
Quote:
Quote:
Per il resto ripeto, è inutile stare a discutere e si può riassumere senza nuovamente spararsi sulle palle con altri wall of text stile CDmauro/Oliva, così: AMD diero in RT... in 5 giochi su 6 giochi ottimizzati per nvidia. Unbelievable
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT ventigigaBAIT Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb Ultima modifica di Ale55andr0 : 24-11-2020 alle 10:08. |
|||
24-11-2020, 11:11 | #312 | |
Senior Member
Iscritto dal: Feb 2004
Città: perugia
Messaggi: 7898
|
Quote:
sono anche altri i giochi dove va molto meno in rt mica solo i 6 testati qui manca bfV, deliver us, enlisted, mechwarriors, ghostrunner e anche altri... saranno 18-20 titoli. questa è la media circa con rt attivo: per fare altri test poi sono in arrivo altri 15-20 entro gennaio tra cui hitman 3,Atomic Heart, dying light 2 e cyberpunk e vedremo se si è trattato solo di mancata ottimizazione o di un effettivo gap. attualmente è meglio non pronunciarsi piu di tanto, poi è ovvio che spero anche io che amd faccia bene, dato che non puo' che giovarne il nostro portafoglio
__________________
Nvidia Manli GeForce RTX® 4090 Gallardo , INTEL i9-13900K, 32gb Crucial HyperX DDR5 @6000, SSD NVME Corsair Pcie 4.0 4TB, Monitor LG OLED 240HZ 27GR95QE, Headset AR/VR Meta Quest Pro Ultima modifica di al135 : 24-11-2020 alle 11:35. |
|
24-11-2020, 18:22 | #313 | |
Senior Member
Iscritto dal: Mar 2002
Messaggi: 1623
|
Quote:
ci sono scelte che possono stravolgere il destino di ognuno di noi, di un popolo ,dell'intera umanita'(se avessero vinto i nazisti?) figuriamoci un azienda, mondi paralleli dove ancora esiste osborne, la commodore, olivetti,3DFX..dove una certa apple a fine secolo sarebbe stata lasciata fallire..chissa' come sarebbe andata se si fosse fatto cosi' cola' chissa'.. che doveva fare amd pagare qualche gioco? e a che pro tanto nvidia ne poteva molti di piu',con le console e' sopravvissuta, poi con le collaborazioni fisiologiche a gratis, molti giochi girano e dignitosamente e questo e' molto piu' importante di "qualche" gioco, perche appunto non l'avrebbe salvata ma ca220 era quasi fallita fino a pochi anni fa, e' riuscita con le sue scelte a sopravvivere e riprendersi a tal punto da riuscire a tornare a competere, e con le cpu anche a superare, con due giganti dalle risorse sconfinate immaginiamo piuttosto un mondo parallelo rimasta senza amd(gatto morto) eravamo rimasti con i quad a 300€ e passa, con gpu di due/tre generazione dietro,la 3090 manco nei sogni esisteva altro che rt e dlss, stavamo con la serie 900/1000 pure scalate di fascia(xx106 come x80)tanto non esiste niente di meglio perche investire? non ci pare che le console hanno portato benefici? perche poi questa critica , per "hanno recuperato giusto in raster" hai detto niente, era tutto fino a poco fa, ma e' ancora quasi tutto anche adesso, l'rt e' il futuro un futuro e un presente(rt /dlss) che se esiste, esistera' sono appunto per quelle scelte tanto bistrattate oggi si anche i litigi e le sospensioni dal forum sono un piacevole effetto collaterale scusate la crisi mistica/quantistica |
|
24-11-2020, 23:05 | #314 |
Senior Member
Iscritto dal: Dec 2001
Messaggi: 8485
|
__________________
Intel i7-4770; Arctic i30 CO; ASRock Fatal1ty H87; Corsair DDR3 1600 2*8GB; Gigabyte WindForce 780TI; Corsair AX760; Dell U2410; TP-Link Archer D5 |
25-11-2020, 03:11 | #315 |
Senior Member
Iscritto dal: Aug 2004
Messaggi: 1847
|
Quello scorso era il primo esperimento di SoC x86 AMD su console, seguito dalle prime conversioni alla meno peggio.
Nel frattempo è migliorata l'esperienza e gli strumenti, MS-AMD in primis, visto che il GDK di MS ha un occhio di riguardo per il PC. Ci sarebbe anche il discorso delle feature DX-12U che dovrebbero essere sfruttate prendendo spunto dall'implementazione AMD, ma per ora... Tra seconda run e tutto il resto, insomma, diventa difficile pensare che AMD non tragga vantaggi passivi dalla situazinone, finanche per quanto riguarda il carico medio di RT che avranno i giochi condivisi con le console. Dopo Nvidia potrà legittimamente spingere per quel qualcosa in più che gli conviene, ma tant'è... Vedremo.
__________________
GB-B660 | 14600K | RTX-4070 TiS | 64GB | 2x NVMe + 16TB | LCD-28 4K |
25-11-2020, 07:18 | #316 | ||||||||||||||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
|
StraLOL. Lo dici proprio tu che sei partito sparato per la tangente parlando di cose completamente diverse, e mistificando mettendomi in bocca per ben due volte parole che non avevo detto?
Peraltro la mia frase era assolutamente calzante su quanto cronos1990 e tu, che gli avevi replicato, stavate discutendo su quel preciso punto. A parole puoi dire e inventarti quello che vuoi, come hai ampiamente mostrato prima, ma la realtà e i fatti rimangono tali. Quote:
Cercare di uscirsene così da una discussione ormai divenuta insostenibile è un film che ormai ho visto migliaia di volte.... Quote:
Quote:
Infatti non hai battuto ciglio e sei sparito: chi l'avrebbe mai detto... Quote:
Quote:
Quote:
La concorrenza non può che fare bene, a tutto vantaggio di noi consumatori, che ci ritroviamo o prodotti più economici, o migliori allo stesso prezzo. Quote:
Quote:
Quote:
Quote:
Adesso con le nuove schede grafiche e le nuove console ci sono dei segnali positivi (tant'é che AMD ha sfornato un padellone di chip. Roba che ovviamente è sempre stata vista con disprezzo e dileggiata dal troll numero uno del forum quando si trattava di nVidia, ma sulla quale adesso "stranamente" non ha avuto nulla da dire), ma ci sono delle lacune da colmare. Quote:
Quote:
Invece a me i litigi non piacciono: possibile che non si possa discutere di questioni tecniche o ludiche senza finire con delle faide? Ognuno esponga le proprie tesi e fatti a supporto senza dileggiare / insultare / mistificare gli altri, e finisca lì. Poi chi legge si farà le proprie idee. Non mi sembra che sia chiedere troppo... Quote:
Quote:
L'unica che deve per forza cacciare fuori soldi per avere un supporto migliore per i suoi prodotti è nVidia, invece.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
||||||||||||||
25-11-2020, 08:32 | #317 | |
Senior Member
Iscritto dal: Jan 2008
Messaggi: 4128
|
Quote:
Ottimizzare per queste architetture non credo portasse chissà quali miglioramenti a Fiji, Vega, Navi etc. Le nuove console sono RDNA2 + ZEN2, quindi molto attuali, e qualche vantaggio ci sarà per AMD, ma le architetture future di AMD si allontaneranno e il vantaggio andrà un po' a perdersi con il tempo.
__________________
AMD 7950X - Sapphire 7900XT Pulse - MSI PRO X670-P WIFI - 32GB@6400 - NZXT H5 Flow - Enermax Revo X't 730W - 3xAsus VG249 FHD 144Hz - 500GB Samsung 970 Evo NVME - 256GB Samsung 840 Evo Sata3 - Seagate 4TB HDD |
|
25-11-2020, 09:32 | #318 | |
Senior Member
Iscritto dal: Jul 2008
Città: Falconara Marittima
Messaggi: 26362
|
Che bello essere citato di continuo e non poter rispondere Sia chiaro: non ho scritto il papiro seguente in 5 minuti, ho perso tempo a scriverlo su Word mentre ero ancora sospeso
Quote:
In discorso “sono ANNI” va contestualizzato al fatto che una generazione console dura in media 6 anni. Di fatto le console sono targate AMD solo da una generazione (adesso è iniziata la seconda), prima avevamo la PS3 con il tanto vituperato Cell e la XBox carrozzata con uno Xeon Intel se non ricordo male. Di fatto AMD fino a qualche giorno fa aveva fornito le sue tecnologie una volta sola al mondo console, e parliamo di un periodo di circa 7 anni. Tralasciando il discorso Nintendo, che ha Nvidia ma è chiaramente un discorso a parte. Non solo: negli ultimi 10 anni (più indietro non ricordo) AMD è sempre stata dietro per prestazioni pure rispetto ad Nvidia, di sicuro nella fascia alta/enthusiasm prende da sempre sonore mazzate, e ha sempre dovuto cercare di giocare molto sul rapporto prezzo/prestazioni per mantenere quote di mercato… mercato che comunque ha sempre visto Nvidia davanti in questo periodo, a volte come nel periodo attuale con percentuali bulgare (tolta Intel, il 75% delle GPU discrete sono Nvidia). AMD ha avuto ben più necessità di diversificarsi per cercare nuove fonti di guadagno, e buttarsi nel mondo console è stata sicuramente una buona mossa… ma anche necessaria, più che strategica. Ma anche la PS4/XBox precedente (dannati nomi Microsoft ) sono comunque versioni molto customizzate delle tecnologie AMD, un primo avvicinamento al mondo PC ma ancora distante sia lato hardware che lato software. E comunque costruite sempre nell’ottica di quel periodo, ovvero ricercare un compromesso tra costi e prestazioni molto a favore del “risparmio” piuttosto che della capacità computazionale (o delle tecnologie messe a disposizione). Se non ricordo male, quando uscirono quelle console l’hardware era pari ad un PC di fascia media già presente da mesi sul mercato. Tanto per capirci: la progettazione di quelle macchine si basava su presupposti del tutto diversi da quelli attuali. Ora: non sto certo dicendo che AMD andrà meglio di Nvidia. Anzi, ho sempre pensato che anche con questa generazione di schede sarebbero stati in grado di avvicinarsi ma rimanendo comunque dietro anche in raster, l’aumento di prestazioni che hanno avuto mi ha sinceramente sorpreso. Dico però che la situazione attuale è ben diversa rispetto a prima. Per la prima volta dopo oltre un decennio AMD riesce a stare al passo (in alcuni casi leggermente meglio) rispetto ad Nvidia senza il discorso RT, con consumi minori e maggior quantitativo di vRAM (che reputo un “di più” inutile, ma non entro nel discorso). E le nuove PS5/X Series sono in effetti molto più vicine ad un PC rispetto alle console precedenti, e anzi fanno pieno uso dell’architettura di punta di AMD, che è in continuo sviluppo. Questo senza contare che la “potenza relativa” è anche superiore al passato: la loro capacità computazionale non è molto distante dalla 2080Ti, risultato che sinceramente non mi aspettavo (soprattutto la X Series, la PS5 ha più difficoltà). Io sto semplicemente dicendo che prima di dare giudizi definitivi, conviene aspettare di vedere all’opera queste nuove schede con i giochi che dovranno uscire tra qualche mese. Anche perché l’hai detto tu stesso: finora chi ha “sborsato” per l’ottimizzazione per le proprie schede è Nvidia, che è l’unica che fino ad oggi ha proposto una tecnologia RT. Mi pare lapalissiano che i giochi finora usciti in RT sono stati tarati esclusivamente per le schede verdi, pensare che con i giochi attuali le rosse vadano meglio in RT è a mio avviso utopistico. Beninteso, non vuol dire che i giochi del 2021 andranno meglio in RT con le AMD, solo che al momento è troppo presto per dare giudizi definitivi. Certo, se dovessi azzardare un'ipotesi direi che al momento Nvidia ha un vantaggio tecnologico, se non altro perché ha circa 2 anni di “esperienza in più”. E vale sia per il RT che per il discorso del DLSS. E poco o tanto che sia, avrà il suo peso sulle prestazioni complessive in RT. Comunque, come già hanno detto in diversi (e lo stesso dico io da anni) l’RT è il futuro… anzi, per la prima volta da anni una tecnologia che, per quanto incida pochissimo sul gameplay, avrà un impatto importante ed esteso che andrà avanti per decenni. Col tempo soppianterà le attuali tecniche di raster, inutile girarci attorno, quindi a maggior ragione come verrà implementato in ambito console avrà un peso rilevante. Vorrei anche fare un appunto: vero che AMD con le console da qualche anno può godere di un’ottimizzazione “di base” senza alcuna spesa (ma entro certi limiti, comunque le console della appena passata generazione erano comunque molto più custom rispetto a quelle uscite adesso, in confronto ad un PC. Con la generazione appena uscita potremo vedere maggiori benefici). Ma va anche detto che AMD generalmente utilizza tecnologie open, anziché chiuse e proprietarie come quelle di Nvidia, per cui si tratta di un’ottimizzazione che sulla carta non le da reali vantaggi perché ne può godere anche Nvidia da sempre (o comunque tale vantaggio è minimo). Inoltre va pur sempre detto che Nvidia sborsa soldi come se non ci fosse un domani da ben prima che AMD invadesse il mondo console, non è certo un’opera che avviene dagli ultimi 7 anni. Da ben più tempo convincono le SH ad ottimizzare i giochi per le loro schede a suon di dollari, tra l’altro sfruttando una situazione economica ben migliore di quella di AMD (lecito, sia chiaro). Farla passare come una “necessità” per la presenza di un vantaggio “gratuito” lato AMD è fuorviante, semplicemente Nvidia ha sempre spinto per sopraffare l’avversario indirizzando le scelte dei programmatori ancor prima che attraverso il suo hardware (e software) proprietario. A me personalmente poi interessa zero chi la spunterà; quello che è importante è che ci sia concorrenza vera, sia per avere prezzi più umani, sia per avere una spinta propositiva nel campo dell’innovazione e progresso tecnologico. Poi si, se qualcuno me lo chiede preferisco la mentalità più “open” di AMD… ma non perché odio “chi si fa tutto in casa”, ma semplicemente perché in questo modo si lascia più spazio di scelta al consumatore finale. Il DLSS ne è un esempio: mi sono già espresso positivamente nei suoi confronti, ma per poterlo avere sono costretto a comprare Nvidia. Ovviamente Nvidia ha tutto il diritto di mantenere proprietaria tale sua tecnologia, ma dal mio punto di vista (acquirente) preferirei avere la libertà di poterlo usare su qualunque GPU, in modo da poter avere la più ampia possibilità di scelta. Sotto questo punto di vista AMD è sempre stata più lungimirante… certo, sempre ricordando che lo è per strategie commerciali, non certo perché sono dei buon samaritani. Resto comunque dell’idea che l’attuale situazione è molto interessante, perché pare che finalmente abbiamo una vera concorrenza. Se dovessi cambiare la GPU adesso farei esattamente come ho fatto l’anno scorso quando ho preso la 5700XT: aspetterei l’uscita di tutte le tecnologie AMD, test e benchmark di più testate su più titoli con il confronto tra tutte le schede (con e senza RT, con e senza DLSS e analoga tecnologia rossa) e, in base ai limiti di spesa imposti da me, valuterei cosa è meglio per le mie esigenze. Non devo certo fare favori a questo o quel produttore, ma solo acquistare quello che reputo meglio per me.
__________________
|
|
25-11-2020, 17:18 | #319 |
Member
Iscritto dal: Sep 2007
Messaggi: 203
|
Boh ragazzi, per come sono le premesse, da profano e indietro di generazioni a livello hw ( r9 290x con fw della 390...), dai video che trovo in rete riguardanti il raytracing faccio davvero fatica a notare la differenza, tralasciando la pochezza dell'hw dedicato attuale, (va bene, nvidia ha dlss, ma è solo un'approssimazione, mi sembra difficile affermare di avere risultati eccellenti partendo da rendering a risoluzioni infime).
Per me sarebbe ormai anche ora di effettare un upgrade, tuttavia non capisco se al momento ne valga realmente la pena o sia meglio attendere l'anno prossimo, magari potrebbero uscire soluzioni dotate di memorie hbm con molta più bandwith in grado di gestire un raytracing reale e non fomentarne solamente l'hype(un upscaling resta upscaling per come si voglia rigirarla...) |
25-11-2020, 21:35 | #320 | |
Amministratore
Iscritto dal: Jun 2009
Città: Glasgow, Scozia
Messaggi: 1857
|
Quote:
Invito tutti a darsi una calmata e sottoscrivo il commento di cronos1990: "in base ai limiti di spesa imposti da me, valuterei cosa è meglio per le mie esigenze. Non devo certo fare favori a questo o quel produttore, ma solo acquistare quello che reputo meglio per me." Ricordatevi che siamo qui per qualcosa che ci unisce, non che ci divide. Comportatevi di conseguenza.
__________________
Riccardo Robecchi - autore per Hardware Upgrade MB ASUS Crosshair VI Hero, CPU Ryzen 7 1700X, RAM 32 GiB Corsair Vengeance 3000MHz, VGA Sapphire AMD Radeon RX 5700 XT Pulse, CASE Sun Ultra 24, PSU Corsair TX650W. KDE neon x64 & Win 10 Pro x64. |
|
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 14:12.