|
|||||||
|
|
|
![]() |
|
|
Strumenti |
|
|
#61 | |
|
Bannato
Iscritto dal: Jun 2021
Messaggi: 29
|
Quote:
Ora ti assicuro che è al 100% fattibile creare una GPU univocamente per il RT con risultati ottimali, ma ti ripeto il costo e lo spettro di utilizzo sono cosi insensati che non ha alcun senso produrla. L'algoritmo di cui parli è già di forza bruta, AI e forza bruta non sono due cose in contrapposizione, ritorno al fatto che non credo tu sia un programmatore. " E no, anche se gli algoritmi vengono raffinati e ottimizzati i dati di partenza quelli sono e non si fanno miracoli. Non li si sono fatti in 30 anni con algoritmi offline che potevano metterci minuti a calcolare, come si può credere che li si possa fare con una cosa che deve andare in real time (e occupare il meno possibile le unità di calcolo per evitare di rubare il tempo per il frame successivo)" Questa è una cavolata grossa quanto una casa basata su supposizioni personali senza un minimo di conoscenza teorica, non ha senso rispondere. L'utilizzo del FSR o altro non esclude l'utilizzo di altre tecniche, non vedo quale sia il problema o il rischio di mettere in ombra. |
|
|
|
|
|
|
#62 | ||||
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4189
|
Andiamo con ordine, che qui siamo al livello demenziale massimo.
Quote:
Che tu non veda i miglioramenti in altre scene è tua personale incapacità di comprendere la qualità dell'illuminazione globale anche durante movimenti rapidi. DLSS e algoritmi che supportano i calcoli brute force sono il futuro per permettere di calcolare cose che altrimenti richiederebbero molto più tempo. Il DLSS è una applicazione che sfrutta l'AI per l'immagine finale ma niente vieta di usare algoritmi con l'AI anche per il puro calcolo a monte per gli effetti. Ovviamente questo richiede HW capace (e diffuso abbastanza come oggi l'HW ha ROPs e TMUs) ma visto che stiamo parlando di anni di evoluzione futura della grafica, le unità per il calcolo degli algoritmi AI sono e saranno sempre più importanti (che siano nella GPU o su un modulo a parte come nei SoC dei cellulari poco importa.. ah, lo sai vero che tutti i SoC per cellulare hanno unità per il calcolo di algoritmi AI enhanced.. ma sì, DLSS e più in generale unità per l'AI sono solo una transizione, certo, certo.. come dire che anche l'AA sarebbe stato passeggero e che prima o poi saremmo giunti al punto in cui non sarebbe servito... roba passeggera). Quote:
Infatti nella tua pochezzza puoi giusto credere (ah, no mi assicuri con le tue conoscenze di cosa?) che una GPU realizzata oggi con solo HW per il raytracing sia capace di fare path tracing di una scena completa. Ovviamente senza supporto alle unità di calcolo normali che non fanno nulla durante il calcolo RT, fa tutto l'unità HW RT! Basta metterne 1000, ma no che dico, 10000 e via, l'algoritmo si calcola da solo. Quote:
Lo sai vero che pure gli scaler delle TV usano algoritmi di AI per gestire lo scaling senza i quali la qualità sarebbe decisamente peggiore? Ma no, dai, usiamo la matematica come 30 anni fa che si ottengono risultati migliori! Stupidi ingegneri che progettano chip complessi e costosi con supporto ai calcoli AI quando con 3 unità a funzione fissa potrebbero facilmente fare scaling interpolando immagini a risoluzione maggiore con qualità maggiore. Forse sei tu che non sai come funziona la teoria dell'interpolazione classica (quella proposta da AMD con il suo rivoluzionario SR): ebbene in poche parole.. non puoi ottenere dettaglio dove non l'hai calcolato, per cui l'immagine finale avrà una qualità inferiore a una che tali dettagli li ha, e pure peggio se scalata. Che è poi il principio dell'uso della risoluzione più alta (oh Shannon, dove sei!), ovvero avere i dettagli presenti là dove la bassa risoluzione li toglierebbe. Partire da una risoluzione bassa e fare mille calcoli di interpolazione, sharpening, streching e scalatura non permette di aggiungere alcun dettaglio mancante. Infatti nei giochi dove hai capacità di calcolo in abbondanza fai proprio l'opposto, ovvero usi il DSR (se non sai cosa è cercatelo) per aumentare i dettagli reali dell'immagine e non quelli apparenti dovuti a sharpening. Mi spiace per te e il fatto che pensi che sia basato su supposizioni personali senza conoscenza tecnica si vede che siamo programmatori a livelli differenti. Quote:
In più il DLSS usa già i suoi algoritmi di sharpening e AA, e applicarli 2 volte non è per niente un bene (se conosci la teoria del degrado del segnale). Quindi l'idea di usare il semplice scaler HW del monitor/TV non è proprio così campata in aria. Sempre che ci vedi bene, se hai la TV da 32pollici a 4 metri e non ti accorgi della festa di sfocature che vedrai con la doppia riscalatura, allora inutile parlare.. ma sicuro a quel punto ti basta lo scaler della TV senza fomentare inutili dubbi su una qualità che non c'è e non può esserci. Quello che qui sembra nona vere alcuna conoscenza in materia sei tu che credi che da oggi al domani (anzi 22 Giugno) le teorie si cui si è basata l'elaborazione delle immagini negli ultimi 30 anni sarà "rivoluzionata". Puoi credere quello che vuoi ma senza alcuna esposizione delle cose fai solo la figura dell'allocco a cui si propone l'acqua calda da microonde e la si fa passare come l'ultimo ritrovato per fare nuove bevande calde, cosa prima impossibile perché l'acqua non era riscaldata in quella maniera. Spiacente aver sgretolato le tue convinzioni infantili che Babbo Natale esiste e chi pensa di no lo fa su convinzioni personali che non meritano di essere commentate. Non sei diverso da quei poveretti che credevano che AMD avrebbe realizzato ray tracing senza HW dedicato, anzi su HW già realizzato con altre capacità in mente, solo perché si chiama AMD e usa roba open. E per fortuna che ci ha messo un abbozzo di unità dedicata nelle nuove GPU, altrimenti sai che figura! Ultima modifica di CrapaDiLegno : 07-06-2021 alle 18:16. |
||||
|
|
|
|
|
#63 | |
|
Senior Member
Iscritto dal: Dec 2005
Messaggi: 7260
|
Quote:
Quale persona sana di mente puo' criticare una tecnologia aperta che potenzialmente puo' allungare la vita del tuo hardware? |
|
|
|
|
|
|
#64 |
|
Bannato
Iscritto dal: Apr 2016
Messaggi: 19106
|
Il punto non è la competitività di AMD ma quello di rischiare che prenda piede la tecnologia inferiore.
|
|
|
|
|
|
#65 | ||
|
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14739
|
Quote:
Ma un domani questo salto potrebbe avvenire, e secondo me non sarebbe neppure un domani così lontano. Magari tra una o due generazioni di consolle, con qualche aiutino e un hardware sempre più specifico per questo genere di calcoli. Il paragone con il server da duecentomila euro non è del tutto azzeccato, il rendering in tempo reale ha esigenze di precisione molto inferiori e può essere "aiutato" dal post processing con risultati accettabili. Ma già sulle schede attuali hanno fatto girare Quake 2, ora immagina di partire da una base di risorse di calcolo 10 volte superiori (anzi di più considerando che girava sulle geforce 2xxx), le applicazioni comincerebbero a diventare più interessanti. Chiariamoci, prima o poi questo salto avverrà, come si è passati dai giochi in 2D a quelli in 3D, che richiedevano molte più risorse e agli esordi avevano una bella grafica cubettosa (che di conseguenza appariva molto più scarsa di quella dei giochi in due dimensioni), ma alla fine la strada era segnata e ci ha portato fino ai risultati odierni. Quote:
Immagina una situazione come quella della Wii o della Switch, che non si sono messi in competizione diretta con le altre consolle, hanno tagliato abbondantemente sulla retrocompatibilità e che nei loro giochi non miravano alla stessa grafica (risoluzione/dettaglio) di PS e XboX: con un target grafico minore, con aiuti tipo DLSS, senza problemi di supportare i titoli passati la cosa diventerebbe fattibile, e potrebbero fregiarsi di essere la prima consolle con grafica completamente calcolata in ray-tracing. |
||
|
|
|
|
|
#66 | |
|
Senior Member
Iscritto dal: Dec 2005
Messaggi: 7260
|
Quote:
Detto questo non credo sia un male raggiungere più persone possibile e non soltanto un'elite di privilegiati. FSR sarà pur sempre un miglioramento rispetto alla situazione attuale. Ultima modifica di k0nt3 : 07-06-2021 alle 18:44. |
|
|
|
|
|
|
#67 | ||
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4189
|
Quote:
E comunque NO, non allunga un bel niente, visto che come detto gioco felicemente con un monitor 4K e una grafica calcolata con una risoluzione inferiore già da ieri e con TUTTO il parco SW esistente, senza aspettare AMD e i titoli che supporteranno la sua inutile feature. Quindi dimostrami tu che questa tecnologia è quella che stavamo aspettando per migliorare graficamente i titoli di ieri (e non solo quelli di domani) e che non si sarebbe potuto avere di meglio se AMD non avesse lesinato sulla progettazione delle nuove GPU. Quote:
Anzi, anni fa era stata fatta ed era scoppiato il caso della minore definizione usata in questo o quel gioco da parte di una o dell'altra casa pur di guadagnare qualche frame nei titoli dove barcollavano. Oggi che lo fa AMD con una soluzione Open è la panacea a tutti i mali prestazionali... per i fanboy AMD e per chi non capisce che è un male al progresso invece che un miglioramento. Perché vorrei HW concorrenziale migliore in termini di prestazioni reali a prezzi ragionevoli, non soluzioni posticce per cercare di ovviare a buchi di progettazione "e allungare la vita di roba obsoleta" come si sta facendo con questa soluzione che non capisco come faccia ad essere accettata da chi fino a ieri criticava come un forsennato la prima versione del DLSS "che era un imbroglio e non permetteva di fare confronti perché la qualità era diversa e ben peggiore". E come si diceva ai tempi, bastava che AMD proponesse qualcosa di simile e voilà, cambio di fase e tutti a glorificare il blur e lo sfocamento condito da sharpenfing a manetta per cercare di nascondere la nebbia artificiale. Ultima modifica di CrapaDiLegno : 07-06-2021 alle 19:00. |
||
|
|
|
|
|
#68 | |
|
Bannato
Iscritto dal: Apr 2016
Messaggi: 19106
|
Quote:
|
|
|
|
|
|
|
#69 |
|
Senior Member
Iscritto dal: Dec 2005
Messaggi: 7260
|
|
|
|
|
|
|
#70 | ||
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4189
|
Quote:
Quello che contano sono i titoli e i titoli li hai se all'inizio paghi per lo sviluppo per il tuo HW che ha diffusione zero. La CdL console avrebbe chance zero di vendere più di 5 pezzi anche se fosse 10 volte più potente della XBox Serie X. Ma anche la CalbarUltimate Console con supporto alla grafica olografica se per questo. E se presentate entrambe non arriveremmo a 10 pezzi in totale perché qualcuno degli acquirenti in comune potrebbe decidere di comprarne solo 1 delle 2. Nintendo è proprio la casa i cui giochi cartooneschi e un po' bambineschi godrebbero di meno dell'uso del ray tracing per cui non credo sia la funzione principale che Nintendo ha chiesto a Nvidia con il nuovo SoC. Certo, "supporto al raytracing" oggi lo devi scrivere da qualche parte, ma anche su PC si vede che tale supporto può valere zero se i giochi si limitano a tracciare 2 raggi e a renderizzare 100 pixel con quella tecnica influendo zero sulla qualità finale dell'immagine (ma poter dire, hey, il raytracing c'è!). Magari anche con effetti RT precalcolati come nel caso di Intel e il giochino dei carri armati. Io non nutro alcuna speranza a meno che Sony o MS si decidano a fare il cambio magari allettati da una possibile diversificazione dalla concorrenza per lasciarla al palo con una mossa inaspettata. Quote:
Se al posto di quell'inutilità di RDNA1 AMD avesse presentato qualcosa con funzionalità nuove simili a quelle di Turing oggi saremmo una generazione avanti con le caratteristiche moderne sfruttate molto di più invece che parlare di un inutile sistema di interpolazione per risoluzioni maggiori che non serve a nessuno se non a chi appunto ha comprato HW obsoleto e non sa che può fare le stesse cose tramite lo scaler della propria TV e aspetta la soluzione AMD per "allungare la vita del proprio HW" accettando cose che anni fa erano pesantemente criticate anche solo pensarle. Roba da pazzi solo a sentirla. Ma si sa, AMD può lvareil cervello meglio che Apple quando si presenta con queste soluzioni che rendono il proprio HW obsoleto "fine wine". Ultima modifica di CrapaDiLegno : 07-06-2021 alle 19:26. |
||
|
|
|
|
|
#71 | |
|
Senior Member
Iscritto dal: Dec 2005
Messaggi: 7260
|
Quote:
Smettila con le discussioni da bar |
|
|
|
|
|
|
#72 | |
|
Senior Member
Iscritto dal: Mar 2002
Messaggi: 1983
|
Quote:
se era possibile farlo prima? probabile ma il mercato, i consumatori ti giudicano con la cultura del periodo anni fa se provavi a presentare un escamotage simile, saresti stato linciato da redazioni e puristi della qualita' oggi? nvidia ha fatto da apripista, ha investito in hw e marketing, ha sbolognato l'idea che inventarsi pixel in nome delle prestazioni e' cosa buona e giusta ha cambiato, imposto nuovi bisogni, oggi vanno di moda monitor da millemilaHertz, poi per colpa della carenza di chip(per pandemia e mining) in giro sono rimaste solo qualche 710/1030 e le integrate.. le prestazioni adesso sono tutto pazienza se si perde un po di qualita' il 22 quando amd presentera' sta ciofeca, il mondo sara' concentrato piu' alle prestazioni, grazie al recupero di tutto quel che si trova o si ha gia',verra' visto appunto come una caratteristica fica e indovinate un po di chi e' la colpa?
|
|
|
|
|
|
|
#73 | |||
|
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14739
|
Quote:
La retrocompatibilità è moda recente, prima era l'eccezione, le consolle uscivano con i titoli sviluppati per loro, esattamente quello che sarebbe necessario fare con una consolle "raytracing" come quella di cui parlavo. Comunque ho parlato di Nintendo per fare un esempio di prodotti innovativi che cercando di differenziarsi dalla concorrenza, e che hanno avuto successo. Non intendevo dire che Nintendo dovesse essere l'outsider. Quote:
Su questo non gli si può proprio dare torto. Anche a me ha deluso molto sia la decisione di non puntare sul ML (che avrebbe portato ad un vero concorrente di DLSS2) sia il risultato che hanno mostrato (che molti paragonano a DLSS1), ma non ha senso fare una crociata su una tecnologia che ancora non si conosce solo perchè si pensa di sapere come dovrà funzionare. Manca poco, aspettiamo e vediamo cosa tirano fuori, a quel punto se non sarà soddisfacente avremo ottimi motivi per parlarne male. Quote:
Ti sta assimilando? |
|||
|
|
|
|
|
#74 | |
|
Senior Member
Iscritto dal: Feb 2005
Città: Padova
Messaggi: 898
|
Quote:
Il DLSS faceva pena e pietà, poi AMD pubblica FFX CAS e magicamente esce il DLSS 2 che è leggermente migliorato... |
|
|
|
|
|
|
#75 | |
|
Senior Member
Iscritto dal: May 2004
Messaggi: 8391
|
Quote:
|
|
|
|
|
|
|
#76 | |
|
Bannato
Iscritto dal: Apr 2016
Messaggi: 19106
|
Quote:
DLSS2 leggermente migliorato certo, in realtà è cambiato completamente. Il CAS di AMD non centra un tubazzolo con DLSS e SR. |
|
|
|
|
|
|
#77 | |
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4189
|
Quote:
Credo che sia inutile continuare a discutere di tecnologia con chi ancora crede che la terra sia piatta, non sa cosa sia un algoritmo supporto dalla'AI (definirlo algoritmo di AI mi sembra un po' esagerato) e crede che la matematica sia un'opinione e bisogna vedere altrimenti non ci si crede, come se 30 anni di storia di elaborazioni dell'immagine possa essere rivoluzionata in 2 mesi, a no 2 ormai sono oltre 2 anni, di ottimizzazione di algoritmi implementabili da funzioni fisse. Vabbe' rinuncio. Fatemi divertire a cercare di difendere l'indifendibile solo perché "è AMD e soprattutto è open" (che è meglio a prescindere secondo alcuni di voi). Tanto le cose con cambieranno: chi ha la possibilità di usare il DLSS avrà immagine pressoché nitide e di qualità, chi userà queste mezze soluzioni provenienti dal secolo scorso rimarrà con le immagini sfocate e sharpening a manetta e si inventerà giustificazione ridicole per accettarle (quando prima.. oh, che ribrezzo il pixel errato, o ma siamo matti che si deve diminuire la qualità dell'immagine per andare più velocemente? Che truffa!). Film già visto e neanche tanto tempo fa (RT? Roba che non serve a nulla e passeggera che si fa anche senza HW dedicato.. e intanto i transistor nelle GPU AMD si moltiplicano come i fermenti lattici e ancora non è a livello delle funzionalità offerte dalla concorrenza). |
|
|
|
|
|
|
#78 | |
|
Senior Member
Iscritto dal: Jan 2003
Messaggi: 3708
|
Quote:
Oppure il processore integrato nei monitor per le immagini così da avere il Gsync, assolutamente hardware fondamentale Peccato poi che il Freesync faccia la stessa cosa senza cianfrusaglie inutili e costose. E utimamente Nvidia cosa ha fatto? Ha passato il tempo a scopiazzare. AMD fa L'anti-lag; tempo di quanlche settimana che esce Reflex. AMD se ne esce con SAM ed Nvidia "Lo sappiamo fare anche noi" Il discorso della qualità DLSS 2... dipende da come lo setti. Che non mi si venga a raccontare la storiella: "chi ha la possibilità di usare il DLSS avrà immagine pressoché nitide e di qualità" ...magari in ultra performance...certo, come no Ci sono i settaggi di qualità esattamente come l'FSR o come lo è per il CAS. La vera realtà è che l'unico colpo l'ha fatto con gli Rt Core, anche se si è dovuto aspettare quasi due anni prima che si vedesse qualcosa di fatto ad arte. E quel qualcosa è ovviamente stato finaziato da Nvidia ed ovviamente è ottimizzato per le RTX. Ora che escono i titoli ottimizzati per AMD in ray tracing si faranno i conti. E basta con sti pregiudizi prima del tempo. Con gli Nvidiari della casa marrone non si può ragionare: LAMENTONI!
__________________
MASTER: Ryzen 5 9600X LC,Powercolor RX 7700XT,MSI PRO B650M-A WIFI,32GB Ram 6400 CL32 RIPJAWS X in DC,Samsung 980Pro 512GB G4 + 980Pro 2TB G4 + SSHD 2TB SATA + HDD 1TB SATA,Audio ALC897,MSI MPG A650GF,Win 11 PRO,TK X-SUPERALIEN + AQUARIUS III,MSI 32" Optix MAG322CQR,MSI VIGOR GK30 COMBO,MSI Agility GD20 PAD,MSI IMMERSE GH10 HEADSET |
|
|
|
|
|
|
#79 |
|
Senior Member
Iscritto dal: Feb 2005
Città: Padova
Messaggi: 898
|
|
|
|
|
|
|
#80 | |
|
Senior Member
Iscritto dal: Feb 2005
Città: Padova
Messaggi: 898
|
Quote:
Che non c'entri niente? La filosofia (reale) di funzionamento comprende anche la logica della valutazione di contrasto. |
|
|
|
|
|
| Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 15:58.




















