Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza
Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza
Motorola edge 70 porta il concetto di smartphone ultrasottile su un terreno più concreto e accessibile: abbina uno spessore sotto i 6 mm a una batteria di capacità relativamente elevata, un display pOLED da 6,7 pollici e un comparto fotografico triplo da 50 MP. Non punta ai record di potenza, ma si configura come alternativa più pragmatica rispetto ai modelli sottili più costosi di Samsung e Apple
Display, mini PC, periferiche e networking: le novità ASUS al CES 2026
Display, mini PC, periferiche e networking: le novità ASUS al CES 2026
Sono molte le novità che ASUS ha scelto di presentare al CES 2026 di Las Vegas, partendo da una gamma di soluzioni NUC con varie opzioni di processore passando sino agli schermi gaming con tecnologia OLED. Il tutto senza dimenticare le periferiche di input della gamma ROG e le soluzioni legate alla connettività domestica
Le novità ASUS per il 2026 nel settore dei PC desktop
Le novità ASUS per il 2026 nel settore dei PC desktop
Molte le novità anticipate da ASUS per il 2026 al CES di Las Vegas: da schede madri per processori AMD Ryzen top di gamma a chassis e ventole, passando per i kit di raffreddamento all in one integrati sino a una nuova scheda video GeForce RTX 5090. In sottofondo il tema dell'intelligenza artificiale con una workstation molto potente per installazioni non in datacenter
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 07-06-2021, 16:56   #61
Afixenc
Bannato
 
Iscritto dal: Jun 2021
Messaggi: 29
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Che il RT sia limitato non lo mette in dubbio nessuno.
Ma già il suo uso per la luce globale rende la scena molto più realistica.
Se devo scegliere tra una luce realistica accompagnata da uno scaler AI e una scena ad alta risoluzione senza la luce RT, preferisco di gran lunga la prima.
Il DLSS, così come tutta una serie di algoritmi con supporto all'AI sono il futuro. Non solo scaling dell'immagine, ma anche lo stesso processo di RT può essere migliorato tramite AI. Senza contare che le unità AI possono finalmente creare giochi con una intelligenza vera e non solo scriptate.

E no, neanche se oggi occupassero il 100% dell'area della GPU con unità dedicate al RT si riuscirebbe ad avere giochi sufficientemente veloci se non aiuti il tutto con filtraggi. E le unità RT usate oggi accelerano solo una parte dell'algoritmo di RT, il resto lo devi comunque calcolare con la potenza bruta.
Quindi tante più unità di BVH aggiungi, tante più unità di calcolo puro devi mettere perché se ne tragga beneficio.

E sì, il problema come ho già detto sono le console che non permettono il vero cambio di passo. Un outsider non potrebbe fare un bel nulla, perché per progettare l'HW per una console servono X soldi, ma per avere tutto l'ecosistema che supporta tale HW in modo da venderne più d 5 e con il porting dei giochi da altre piattaforme bisogna investire 20 o 30X.
L'unica speranza è che uno dei due produttori di console casalinghe cambi idea e adotti un altro fornitore in modo che si inneschi una sorta di competizione interna a chi fa meglio, come era un tempo, non a chi fa a meno prezzo per svendere meno in sottocosto.

Visto che Nvidia non è mai stata interessata a vendere HW a basso costo per le console a discapito dei prodotti a maggiore margine, magari Intel con le nuove GPU e la garanzia di una capacità produttiva maggiore riuscirà a entrare e a portare finalmente un po' di modernità nel mercato con contemporaneamente una buona pubblicità e un supporto diretto al suo HW. Cosa che credo abbia bisogno essendo l'ultima entrata nel gioco.

E no, anche se gli algoritmi vengono raffinati e ottimizzati i dati di partenza quelli sono e non si fanno miracoli. Non li si sono fatti in 30 anni con algoritmi offline che potevano metterci minuti a calcolare, come si può credere che li si possa fare con una cosa che deve andare in real time (e occupare il meno possibile le unità di calcolo per evitare di rubare il tempo per il frame successivo)?

E sì, per una interpolazione come quella che ci sta "regalando" AMD mi basta quella del monitor che ha il vantaggio di essere compatibile con tutti i giochi, anche con Half Life del 1998, pensa te! Ecco perché spero che non venga presa come la soluzione definitiva al male delle performance scadenti: è vecchio stile, inutile e lascia in secondo piano soluzioni decisamente più valide come il VRS.
Si la scena è più realistica, ma attualmente in un gioco lo vedi solo in alcune scene nettamente limitate. Nel resto del gioco non c'è differenza. Ti ripeto che il DLSS non è per niente il futuro, è solo una tecnologia che fa da ponte per il futuro, ma qui sarà il tempo a stabilire chi ha ragione. "Algoritmi con supporto all'AI" mi fa un po sorridere, non credo tu sia un programmatore da questa frase. L'AI in altri ambiti è un discorso a parte.

Ora ti assicuro che è al 100% fattibile creare una GPU univocamente per il RT con risultati ottimali, ma ti ripeto il costo e lo spettro di utilizzo sono cosi insensati che non ha alcun senso produrla. L'algoritmo di cui parli è già di forza bruta, AI e forza bruta non sono due cose in contrapposizione, ritorno al fatto che non credo tu sia un programmatore.

" E no, anche se gli algoritmi vengono raffinati e ottimizzati i dati di partenza quelli sono e non si fanno miracoli. Non li si sono fatti in 30 anni con algoritmi offline che potevano metterci minuti a calcolare, come si può credere che li si possa fare con una cosa che deve andare in real time (e occupare il meno possibile le unità di calcolo per evitare di rubare il tempo per il frame successivo)" Questa è una cavolata grossa quanto una casa basata su supposizioni personali senza un minimo di conoscenza teorica, non ha senso rispondere.

L'utilizzo del FSR o altro non esclude l'utilizzo di altre tecniche, non vedo quale sia il problema o il rischio di mettere in ombra.
Afixenc è offline   Rispondi citando il messaggio o parte di esso
Old 07-06-2021, 18:08   #62
CrapaDiLegno
Senior Member
 
L'Avatar di CrapaDiLegno
 
Iscritto dal: Jan 2011
Messaggi: 4189
Andiamo con ordine, che qui siamo al livello demenziale massimo.

Quote:
Originariamente inviato da Afixenc Guarda i messaggi
Si la scena è più realistica, ma attualmente in un gioco lo vedi solo in alcune scene nettamente limitate. Nel resto del gioco non c'è differenza. Ti ripeto che il DLSS non è per niente il futuro, è solo una tecnologia che fa da ponte per il futuro, ma qui sarà il tempo a stabilire chi ha ragione. "Algoritmi con supporto all'AI" mi fa un po sorridere, non credo tu sia un programmatore da questa frase. L'AI in altri ambiti è un discorso a parte.
Sì, sono programmatore e quanto detto è reale.
Che tu non veda i miglioramenti in altre scene è tua personale incapacità di comprendere la qualità dell'illuminazione globale anche durante movimenti rapidi.

DLSS e algoritmi che supportano i calcoli brute force sono il futuro per permettere di calcolare cose che altrimenti richiederebbero molto più tempo. Il DLSS è una applicazione che sfrutta l'AI per l'immagine finale ma niente vieta di usare algoritmi con l'AI anche per il puro calcolo a monte per gli effetti.
Ovviamente questo richiede HW capace (e diffuso abbastanza come oggi l'HW ha ROPs e TMUs) ma visto che stiamo parlando di anni di evoluzione futura della grafica, le unità per il calcolo degli algoritmi AI sono e saranno sempre più importanti (che siano nella GPU o su un modulo a parte come nei SoC dei cellulari poco importa.. ah, lo sai vero che tutti i SoC per cellulare hanno unità per il calcolo di algoritmi AI enhanced.. ma sì, DLSS e più in generale unità per l'AI sono solo una transizione, certo, certo.. come dire che anche l'AA sarebbe stato passeggero e che prima o poi saremmo giunti al punto in cui non sarebbe servito... roba passeggera).

Quote:
Originariamente inviato da Afixenc Guarda i messaggi
Ora ti assicuro che è al 100% fattibile creare una GPU univocamente per il RT con risultati ottimali, ma ti ripeto il costo e lo spettro di utilizzo sono cosi insensati che non ha alcun senso produrla. L'algoritmo di cui parli è già di forza bruta, AI e forza bruta non sono due cose in contrapposizione, ritorno al fatto che non credo tu sia un programmatore.
Guarda, questa tua convinzione che per 4 parole che manco hai compreso in toto io non sarei un programmatore mi fa ridere di cuore.
Infatti nella tua pochezzza puoi giusto credere (ah, no mi assicuri con le tue conoscenze di cosa?) che una GPU realizzata oggi con solo HW per il raytracing sia capace di fare path tracing di una scena completa. Ovviamente senza supporto alle unità di calcolo normali che non fanno nulla durante il calcolo RT, fa tutto l'unità HW RT! Basta metterne 1000, ma no che dico, 10000 e via, l'algoritmo si calcola da solo.

Quote:
Originariamente inviato da Afixenc Guarda i messaggi
" E no, anche se gli algoritmi vengono raffinati e ottimizzati i dati di partenza quelli sono e non si fanno miracoli. Non li si sono fatti in 30 anni con algoritmi offline che potevano metterci minuti a calcolare, come si può credere che li si possa fare con una cosa che deve andare in real time (e occupare il meno possibile le unità di calcolo per evitare di rubare il tempo per il frame successivo)" Questa è una cavolata grossa quanto una casa basata su supposizioni personali senza un minimo di conoscenza teorica, non ha senso rispondere.
Ahahah, certo, infatti si vede come conosci bene l'argomento.
Lo sai vero che pure gli scaler delle TV usano algoritmi di AI per gestire lo scaling senza i quali la qualità sarebbe decisamente peggiore?
Ma no, dai, usiamo la matematica come 30 anni fa che si ottengono risultati migliori! Stupidi ingegneri che progettano chip complessi e costosi con supporto ai calcoli AI quando con 3 unità a funzione fissa potrebbero facilmente fare scaling interpolando immagini a risoluzione maggiore con qualità maggiore.
Forse sei tu che non sai come funziona la teoria dell'interpolazione classica (quella proposta da AMD con il suo rivoluzionario SR): ebbene in poche parole.. non puoi ottenere dettaglio dove non l'hai calcolato, per cui l'immagine finale avrà una qualità inferiore a una che tali dettagli li ha, e pure peggio se scalata. Che è poi il principio dell'uso della risoluzione più alta (oh Shannon, dove sei!), ovvero avere i dettagli presenti là dove la bassa risoluzione li toglierebbe. Partire da una risoluzione bassa e fare mille calcoli di interpolazione, sharpening, streching e scalatura non permette di aggiungere alcun dettaglio mancante.
Infatti nei giochi dove hai capacità di calcolo in abbondanza fai proprio l'opposto, ovvero usi il DSR (se non sai cosa è cercatelo) per aumentare i dettagli reali dell'immagine e non quelli apparenti dovuti a sharpening.

Mi spiace per te e il fatto che pensi che sia basato su supposizioni personali senza conoscenza tecnica si vede che siamo programmatori a livelli differenti.

Quote:
Originariamente inviato da Afixenc Guarda i messaggi
L'utilizzo del FSR o altro non esclude l'utilizzo di altre tecniche, non vedo quale sia il problema o il rischio di mettere in ombra.
Non esclude l'uso di altre tecniche ma non è necessariamente compatibile con esse. Il VRS già usa risoluzioni inferiori per parti dell'immagine e fare calcoli a bassa risoluzione e scalarli 2 volte non è il massimo e la qualità finale ne risente. Stessa cosa per molti degli effetti RT che sono calcolati a risoluzione inferiore e già riscalati dal motore del gioco.
In più il DLSS usa già i suoi algoritmi di sharpening e AA, e applicarli 2 volte non è per niente un bene (se conosci la teoria del degrado del segnale).
Quindi l'idea di usare il semplice scaler HW del monitor/TV non è proprio così campata in aria. Sempre che ci vedi bene, se hai la TV da 32pollici a 4 metri e non ti accorgi della festa di sfocature che vedrai con la doppia riscalatura, allora inutile parlare.. ma sicuro a quel punto ti basta lo scaler della TV senza fomentare inutili dubbi su una qualità che non c'è e non può esserci.

Quello che qui sembra nona vere alcuna conoscenza in materia sei tu che credi che da oggi al domani (anzi 22 Giugno) le teorie si cui si è basata l'elaborazione delle immagini negli ultimi 30 anni sarà "rivoluzionata".
Puoi credere quello che vuoi ma senza alcuna esposizione delle cose fai solo la figura dell'allocco a cui si propone l'acqua calda da microonde e la si fa passare come l'ultimo ritrovato per fare nuove bevande calde, cosa prima impossibile perché l'acqua non era riscaldata in quella maniera.
Spiacente aver sgretolato le tue convinzioni infantili che Babbo Natale esiste e chi pensa di no lo fa su convinzioni personali che non meritano di essere commentate.

Non sei diverso da quei poveretti che credevano che AMD avrebbe realizzato ray tracing senza HW dedicato, anzi su HW già realizzato con altre capacità in mente, solo perché si chiama AMD e usa roba open. E per fortuna che ci ha messo un abbozzo di unità dedicata nelle nuove GPU, altrimenti sai che figura!

Ultima modifica di CrapaDiLegno : 07-06-2021 alle 18:16.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 07-06-2021, 18:08   #63
k0nt3
Senior Member
 
Iscritto dal: Dec 2005
Messaggi: 7260
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
E sì, per una interpolazione come quella che ci sta "regalando" AMD mi basta quella del monitor che ha il vantaggio di essere compatibile con tutti i giochi, anche con Half Life del 1998, pensa te! Ecco perché spero che non venga presa come la soluzione definitiva al male delle performance scadenti: è vecchio stile, inutile e lascia in secondo piano soluzioni decisamente più valide come il VRS.
Fammi vedere una comparazione tra l'interpolazione del tuo monitor e FSR e poi ne riparliamo, per ora stai parlando di aria fritta
Quale persona sana di mente puo' criticare una tecnologia aperta che potenzialmente puo' allungare la vita del tuo hardware?
k0nt3 è offline   Rispondi citando il messaggio o parte di esso
Old 07-06-2021, 18:21   #64
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
Quote:
Originariamente inviato da Dark_Lord Guarda i messaggi
Complimenti a tutti per i commenti, sembra di stare in un asilo (nido).

Se AMD diventa competitiva è un bene per il mercato, ma è un ragionamento troppo complesso evidentemente.
Il punto non è la competitività di AMD ma quello di rischiare che prenda piede la tecnologia inferiore.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 07-06-2021, 18:24   #65
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14739
Quote:
Originariamente inviato da coschizza;
con solo il RT i giochi non possono funzionare l'RT fa solo una minima parte dei calcoli necessari il resto è fatto dagli shader quindi non è possibile fare quello che chiedi e per avere una gpu potente abbastanza da poter usare il full RT dovresti avere una potenza di almeno un paio di ordini di grandezza superiore quindi se ne parla fra qualche decennio.
Oggi, certo.
Ma un domani questo salto potrebbe avvenire, e secondo me non sarebbe neppure un domani così lontano. Magari tra una o due generazioni di consolle, con qualche aiutino e un hardware sempre più specifico per questo genere di calcoli.

Il paragone con il server da duecentomila euro non è del tutto azzeccato, il rendering in tempo reale ha esigenze di precisione molto inferiori e può essere "aiutato" dal post processing con risultati accettabili.
Ma già sulle schede attuali hanno fatto girare Quake 2, ora immagina di partire da una base di risorse di calcolo 10 volte superiori (anzi di più considerando che girava sulle geforce 2xxx), le applicazioni comincerebbero a diventare più interessanti.

Chiariamoci, prima o poi questo salto avverrà, come si è passati dai giochi in 2D a quelli in 3D, che richiedevano molte più risorse e agli esordi avevano una bella grafica cubettosa (che di conseguenza appariva molto più scarsa di quella dei giochi in due dimensioni), ma alla fine la strada era segnata e ci ha portato fino ai risultati odierni.


Quote:
Originariamente inviato da CrapaDiLegno;
E sì, il problema come ho già detto sono le console che non permettono il vero cambio di passo. Un outsider non potrebbe fare un bel nulla, ...
Io invece credo molto nell' "outsider" proprio perchè non necessita di supportare il software passato, cosa impossibile su un chip che si lascia dietro gran parte delle unità di calcolo che servivano in passato.
Immagina una situazione come quella della Wii o della Switch, che non si sono messi in competizione diretta con le altre consolle, hanno tagliato abbondantemente sulla retrocompatibilità e che nei loro giochi non miravano alla stessa grafica (risoluzione/dettaglio) di PS e XboX: con un target grafico minore, con aiuti tipo DLSS, senza problemi di supportare i titoli passati la cosa diventerebbe fattibile, e potrebbero fregiarsi di essere la prima consolle con grafica completamente calcolata in ray-tracing.
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 07-06-2021, 18:39   #66
k0nt3
Senior Member
 
Iscritto dal: Dec 2005
Messaggi: 7260
Quote:
Originariamente inviato da nickname88 Guarda i messaggi
Il punto non è la competitività di AMD ma quello di rischiare che prenda piede la tecnologia inferiore.
Più che un rischio è una certezza, da che mondo è mondo prende piede la tecnologia più accessibile, non la tecnologia superiore. Altrimenti il concetto stesso di PC non avrebbe senso e tutti (o meglio pochi) avremmo supercomputer domestici
Detto questo non credo sia un male raggiungere più persone possibile e non soltanto un'elite di privilegiati. FSR sarà pur sempre un miglioramento rispetto alla situazione attuale.

Ultima modifica di k0nt3 : 07-06-2021 alle 18:44.
k0nt3 è offline   Rispondi citando il messaggio o parte di esso
Old 07-06-2021, 18:50   #67
CrapaDiLegno
Senior Member
 
L'Avatar di CrapaDiLegno
 
Iscritto dal: Jan 2011
Messaggi: 4189
Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Fammi vedere una comparazione tra l'interpolazione del tuo monitor e FSR e poi ne riparliamo, per ora stai parlando di aria fritta
Quale persona sana di mente puo' criticare una tecnologia aperta che potenzialmente puo' allungare la vita del tuo hardware?
Eh, appunto quello che dicevo la comparazione non è semplice perché non si può catturare l'output interpolato del monitor se non tramite una conversione analogica che fa perdere ulteriori dettagli.
E comunque NO, non allunga un bel niente, visto che come detto gioco felicemente con un monitor 4K e una grafica calcolata con una risoluzione inferiore già da ieri e con TUTTO il parco SW esistente, senza aspettare AMD e i titoli che supporteranno la sua inutile feature.

Quindi dimostrami tu che questa tecnologia è quella che stavamo aspettando per migliorare graficamente i titoli di ieri (e non solo quelli di domani) e che non si sarebbe potuto avere di meglio se AMD non avesse lesinato sulla progettazione delle nuove GPU.

Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Più che un rischio è una certezza, da che mondo è mondo prende piede la tecnologia più accessibile, non la tecnologia superiore. Altrimenti il concetto stesso di PC non avrebbe senso e tutti (o meglio pochi) avremmo supercomputer domestici
Detto questo non credo sia un male raggiungere più persone possibile e non soltanto un'elite di privilegiati. FSR sarà pur sempre un miglioramento rispetto alla situazione attuale.
Questo perché l'HW creato da AMD è inferiore a quello della concorrenza. Ecco perché parlo di freno allo sviluppo e solo tanto fumo negli occhi per creare qualcosa che sarebbe potuta benissimo essere stata fatta anche anni fa per ovviare ad un problema con le stesse identiche modalità che fanno già monitor e TV in HW (con queste ultime decisamente avanti con il supporto di AI per risultati migliori).
Anzi, anni fa era stata fatta ed era scoppiato il caso della minore definizione usata in questo o quel gioco da parte di una o dell'altra casa pur di guadagnare qualche frame nei titoli dove barcollavano.
Oggi che lo fa AMD con una soluzione Open è la panacea a tutti i mali prestazionali... per i fanboy AMD e per chi non capisce che è un male al progresso invece che un miglioramento.

Perché vorrei HW concorrenziale migliore in termini di prestazioni reali a prezzi ragionevoli, non soluzioni posticce per cercare di ovviare a buchi di progettazione "e allungare la vita di roba obsoleta" come si sta facendo con questa soluzione che non capisco come faccia ad essere accettata da chi fino a ieri criticava come un forsennato la prima versione del DLSS "che era un imbroglio e non permetteva di fare confronti perché la qualità era diversa e ben peggiore".

E come si diceva ai tempi, bastava che AMD proponesse qualcosa di simile e voilà, cambio di fase e tutti a glorificare il blur e lo sfocamento condito da sharpenfing a manetta per cercare di nascondere la nebbia artificiale.

Ultima modifica di CrapaDiLegno : 07-06-2021 alle 19:00.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 07-06-2021, 18:54   #68
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Più che un rischio è una certezza, da che mondo è mondo prende piede la tecnologia più accessibile, non la tecnologia superiore. Altrimenti il concetto stesso di PC non avrebbe senso e tutti (o meglio pochi) avremmo supercomputer domestici
Detto questo non credo sia un male raggiungere più persone possibile e non soltanto un'elite di privilegiati. FSR sarà pur sempre un miglioramento rispetto alla situazione attuale.
Nvidia ha l'80% del market share delle discrete.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 07-06-2021, 19:16   #69
k0nt3
Senior Member
 
Iscritto dal: Dec 2005
Messaggi: 7260
Quote:
Originariamente inviato da nickname88 Guarda i messaggi
Nvidia ha l'80% del market share delle discrete.
Si, ma grazie a modelli come la GTX 1060 che sono accessibili, non certo grazie alle RTX 3090
k0nt3 è offline   Rispondi citando il messaggio o parte di esso
Old 07-06-2021, 19:19   #70
CrapaDiLegno
Senior Member
 
L'Avatar di CrapaDiLegno
 
Iscritto dal: Jan 2011
Messaggi: 4189
Quote:
Originariamente inviato da calabar Guarda i messaggi
Io invece credo molto nell' "outsider" proprio perchè non necessita di supportare il software passato, cosa impossibile su un chip che si lascia dietro gran parte delle unità di calcolo che servivano in passato.
Immagina una situazione come quella della Wii o della Switch, che non si sono messi in competizione diretta con le altre consolle, hanno tagliato abbondantemente sulla retrocompatibilità e che nei loro giochi non miravano alla stessa grafica (risoluzione/dettaglio) di PS e XboX: con un target grafico minore, con aiuti tipo DLSS, senza problemi di supportare i titoli passati la cosa diventerebbe fattibile, e potrebbero fregiarsi di essere la prima consolle con grafica completamente calcolata in ray-tracing.
Purtroppo come detto realizzare HW superiore non è il punto fondamentale per avere un mercato per la propria console.
Quello che contano sono i titoli e i titoli li hai se all'inizio paghi per lo sviluppo per il tuo HW che ha diffusione zero.
La CdL console avrebbe chance zero di vendere più di 5 pezzi anche se fosse 10 volte più potente della XBox Serie X. Ma anche la CalbarUltimate Console con supporto alla grafica olografica se per questo. E se presentate entrambe non arriveremmo a 10 pezzi in totale perché qualcuno degli acquirenti in comune potrebbe decidere di comprarne solo 1 delle 2.

Nintendo è proprio la casa i cui giochi cartooneschi e un po' bambineschi godrebbero di meno dell'uso del ray tracing per cui non credo sia la funzione principale che Nintendo ha chiesto a Nvidia con il nuovo SoC. Certo, "supporto al raytracing" oggi lo devi scrivere da qualche parte, ma anche su PC si vede che tale supporto può valere zero se i giochi si limitano a tracciare 2 raggi e a renderizzare 100 pixel con quella tecnica influendo zero sulla qualità finale dell'immagine (ma poter dire, hey, il raytracing c'è!). Magari anche con effetti RT precalcolati come nel caso di Intel e il giochino dei carri armati.

Io non nutro alcuna speranza a meno che Sony o MS si decidano a fare il cambio magari allettati da una possibile diversificazione dalla concorrenza per lasciarla al palo con una mossa inaspettata.
Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Si, ma grazie a modelli come la GTX 1060 che sono accessibili, non certo grazie alle RTX 3090
E' ad HW di livello accessibile che AMD deve rispondere con HW altrettanto valido e non presentare le stessa minestra riscaldata 10 volte solo un po' più veloce.
Se al posto di quell'inutilità di RDNA1 AMD avesse presentato qualcosa con funzionalità nuove simili a quelle di Turing oggi saremmo una generazione avanti con le caratteristiche moderne sfruttate molto di più invece che parlare di un inutile sistema di interpolazione per risoluzioni maggiori che non serve a nessuno se non a chi appunto ha comprato HW obsoleto e non sa che può fare le stesse cose tramite lo scaler della propria TV e aspetta la soluzione AMD per "allungare la vita del proprio HW" accettando cose che anni fa erano pesantemente criticate anche solo pensarle.

Roba da pazzi solo a sentirla. Ma si sa, AMD può lvareil cervello meglio che Apple quando si presenta con queste soluzioni che rendono il proprio HW obsoleto "fine wine".

Ultima modifica di CrapaDiLegno : 07-06-2021 alle 19:26.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 07-06-2021, 19:24   #71
k0nt3
Senior Member
 
Iscritto dal: Dec 2005
Messaggi: 7260
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Eh, appunto quello che dicevo la comparazione non è semplice perché non si può catturare l'output interpolato del monitor se non tramite una conversione analogica che fa perdere ulteriori dettagli.
E comunque NO, non allunga un bel niente, visto che come detto gioco felicemente con un monitor 4K e una grafica calcolata con una risoluzione inferiore già da ieri e con TUTTO il parco SW esistente, senza aspettare AMD e i titoli che supporteranno la sua inutile feature.

Quindi dimostrami tu che questa tecnologia è quella che stavamo aspettando per migliorare graficamente i titoli di ieri (e non solo quelli di domani) e che non si sarebbe potuto avere di meglio se AMD non avesse lesinato sulla progettazione delle nuove GPU.
Ma ti rendi conto che stai parlando di una tecnologia che non è ancora uscita e hai già bollato come inutile?
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Questo perché l'HW creato da AMD è inferiore a quello della concorrenza blabla
Smettila con le discussioni da bar
k0nt3 è offline   Rispondi citando il messaggio o parte di esso
Old 07-06-2021, 20:37   #72
ionet
Senior Member
 
Iscritto dal: Mar 2002
Messaggi: 1983
Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Ma ti rendi conto che stai parlando di una tecnologia che non è ancora uscita e hai già bollato come inutile?

Smettila con le discussioni da bar
e' chiaramente stizzito che amd ha presentato una tecnologia simile per il fine(anche se sicuramente inferiore come qualita') praticamente gratis e senza investimenti

se era possibile farlo prima? probabile ma il mercato, i consumatori ti giudicano con la cultura del periodo
anni fa se provavi a presentare un escamotage simile, saresti stato linciato da redazioni e puristi della qualita'
oggi? nvidia ha fatto da apripista, ha investito in hw e marketing, ha sbolognato l'idea che inventarsi pixel in nome delle prestazioni e' cosa buona e giusta

ha cambiato, imposto nuovi bisogni, oggi vanno di moda monitor da millemilaHertz, poi per colpa della carenza di chip(per pandemia e mining) in giro sono rimaste solo qualche 710/1030 e le integrate.. le prestazioni adesso sono tutto pazienza se si perde un po di qualita'
il 22 quando amd presentera' sta ciofeca, il mondo sara' concentrato piu' alle prestazioni, grazie al recupero di tutto quel che si trova o si ha gia',verra' visto appunto come una caratteristica fica
e indovinate un po di chi e' la colpa?
ionet è offline   Rispondi citando il messaggio o parte di esso
Old 07-06-2021, 20:40   #73
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14739
Quote:
Originariamente inviato da CrapaDiLegno;
Quello che contano sono i titoli e i titoli li hai se all'inizio paghi per lo sviluppo per il tuo HW che ha diffusione zero.
Certo, come è sempre accaduto.
La retrocompatibilità è moda recente, prima era l'eccezione, le consolle uscivano con i titoli sviluppati per loro, esattamente quello che sarebbe necessario fare con una consolle "raytracing" come quella di cui parlavo.

Comunque ho parlato di Nintendo per fare un esempio di prodotti innovativi che cercando di differenziarsi dalla concorrenza, e che hanno avuto successo. Non intendevo dire che Nintendo dovesse essere l'outsider.

Quote:
Originariamente inviato da k0nt3;
Ma ti rendi conto che stai parlando di una tecnologia che non è ancora uscita e hai già bollato come inutile?
@CrapaDiLegno
Su questo non gli si può proprio dare torto.
Anche a me ha deluso molto sia la decisione di non puntare sul ML (che avrebbe portato ad un vero concorrente di DLSS2) sia il risultato che hanno mostrato (che molti paragonano a DLSS1), ma non ha senso fare una crociata su una tecnologia che ancora non si conosce solo perchè si pensa di sapere come dovrà funzionare.
Manca poco, aspettiamo e vediamo cosa tirano fuori, a quel punto se non sarà soddisfacente avremo ottimi motivi per parlarne male.

Quote:
Originariamente inviato da CrapaDiLegno;
Roba da pazzi solo a sentirla. Ma si sa, AMD può lvareil cervello meglio che Apple quando si presenta con queste soluzioni che rendono il proprio HW obsoleto "fine wine".
Stai cominciando a parlare come Grammy però!
Ti sta assimilando?
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 07-06-2021, 23:00   #74
ciolla2005
Senior Member
 
Iscritto dal: Feb 2005
Città: Padova
Messaggi: 898
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Mi piacerebbe davvero mettere a confronto questa cosa della rivoluzionaria funzione di "super interpolation" fatta con algoritmi mai visti prima (ma ne siamo sicuri?) con la capacità di scaling del mio monitor 4K per vedere quali dei due produce una immagine migliore.
E anche le televisioni 4K oggi hanno scaler HW mica da ridere (sia spaziali che temporali) per cercare di rendere al meglio tutti quei contenuti che non sono nativi 4K.

D'altronde non si estrarre sangue da una rapa, per cui se le informazioni sono quelle della risoluzione inferiore per quanto un algoritmo super interpolante possa essere, la qualità non potrà mai essere paragonabile a quella nativa.

Poi vediamo se qualche fanboy chiude entrambi gli occhi davanti a sfocature, retinature e oversharpening varie che saranno di sicuro presenti ma poi punta il dito contro il singolo pixel sbagliato del DLSS che "mamma mia che schifezza con quel pixel fuori posto che ho visto per un frame grabbato e ingrandito a 200x che è durato 1/100 di secondo!"

Le console è già dal 2005 che fanno scaling di risoluzione a manetta per renderizzare immagini che altrimenti non riuscirebbero e sono 16 anni che se ne decanta la qualità che tanto nessuno se ne accorge su una TV.


Mi aspetto che non sia nulla che non si sia potuto applicare anche ieri con un semplice effetto di post processing al più aiutato da una interpolazione temporale (quindi con necessità di supporto attivo da parte degli sviluppatori dei giochi).
Direi che è un semplice tentativo di proporre una panacea ad un problema che esiste da anni e che per altrettanti anni è stato affrontato nello stesso modo. Fino all'arrivo del DLSS. Questa nuova versione di algoritmi di interpolazione di dati non è nulla di nuovo e nulla di nuovo porterà sul mercato.
Però è made AMD, è open e quindi sarà una rivoluzione per tutto il mercato.
Il VRS lo hanno inventato così, giusto per fare interpolare ancora una volta di più una risoluzione ancora più bassa, giusto per dire. Ah, no, era il tentativo di inserire l'uso di una risoluzione inferiore solo nelle parti della scena dove questo non avrebbe intaccato più di tanto la qualità dell'immagine... eh, giusto, la rivoluzione è invece fare un scaler SW di tutta la scena con i soli dati della scena a bassa risoluzione... che dire... RIVOLUZIONARIO!
Continuate a credere alle supercazzole dei supercomputer che "elaborano immagini che poi in qualche modo vengono integrati nei driver ecc ecc..."

Il DLSS faceva pena e pietà, poi AMD pubblica FFX CAS e magicamente esce il DLSS 2 che è leggermente migliorato...
ciolla2005 è offline   Rispondi citando il messaggio o parte di esso
Old 07-06-2021, 23:02   #75
coschizza
Senior Member
 
Iscritto dal: May 2004
Messaggi: 8391
Quote:
Originariamente inviato da ciolla2005 Guarda i messaggi
Continuate a credere alle supercazzole dei supercomputer che "elaborano immagini che poi in qualche modo vengono integrati nei driver ecc ecc..."

Il DLSS faceva pena e pietà, poi AMD pubblica FFX CAS e magicamente esce il DLSS 2 che è leggermente migliorato...
Se non sai come funziona il dlss non è un problema ma non metterti a pontificare su cose che non sai fai solo brutta figura
coschizza è online   Rispondi citando il messaggio o parte di esso
Old 07-06-2021, 23:26   #76
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
Quote:
Originariamente inviato da ciolla2005 Guarda i messaggi
Continuate a credere alle supercazzole dei supercomputer che "elaborano immagini che poi in qualche modo vengono integrati nei driver ecc ecc..."

Il DLSS faceva pena e pietà, poi AMD pubblica FFX CAS e magicamente esce il DLSS 2 che è leggermente migliorato...
Certo che ne spari di caxxate !
DLSS2 leggermente migliorato certo, in realtà è cambiato completamente.
Il CAS di AMD non centra un tubazzolo con DLSS e SR.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 08-06-2021, 00:15   #77
CrapaDiLegno
Senior Member
 
L'Avatar di CrapaDiLegno
 
Iscritto dal: Jan 2011
Messaggi: 4189
Quote:
Originariamente inviato da ciolla2005 Guarda i messaggi
Continuate a credere alle supercazzole dei supercomputer che "elaborano immagini che poi in qualche modo vengono integrati nei driver ecc ecc..."

Il DLSS faceva pena e pietà, poi AMD pubblica FFX CAS e magicamente esce il DLSS 2 che è leggermente migliorato...
Qui si rasenta il ridicolo del ridicolo.
Credo che sia inutile continuare a discutere di tecnologia con chi ancora crede che la terra sia piatta, non sa cosa sia un algoritmo supporto dalla'AI (definirlo algoritmo di AI mi sembra un po' esagerato) e crede che la matematica sia un'opinione e bisogna vedere altrimenti non ci si crede, come se 30 anni di storia di elaborazioni dell'immagine possa essere rivoluzionata in 2 mesi, a no 2 ormai sono oltre 2 anni, di ottimizzazione di algoritmi implementabili da funzioni fisse.



Vabbe' rinuncio.
Fatemi divertire a cercare di difendere l'indifendibile solo perché "è AMD e soprattutto è open" (che è meglio a prescindere secondo alcuni di voi).
Tanto le cose con cambieranno: chi ha la possibilità di usare il DLSS avrà immagine pressoché nitide e di qualità, chi userà queste mezze soluzioni provenienti dal secolo scorso rimarrà con le immagini sfocate e sharpening a manetta e si inventerà giustificazione ridicole per accettarle (quando prima.. oh, che ribrezzo il pixel errato, o ma siamo matti che si deve diminuire la qualità dell'immagine per andare più velocemente? Che truffa!).
Film già visto e neanche tanto tempo fa (RT? Roba che non serve a nulla e passeggera che si fa anche senza HW dedicato.. e intanto i transistor nelle GPU AMD si moltiplicano come i fermenti lattici e ancora non è a livello delle funzionalità offerte dalla concorrenza).
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 08-06-2021, 01:03   #78
Max Power
Senior Member
 
L'Avatar di Max Power
 
Iscritto dal: Jan 2003
Messaggi: 3708
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Qui si rasenta il ridicolo del ridicolo.
Credo che sia inutile continuare a discutere di tecnologia con chi ancora crede che la terra sia piatta, non sa cosa sia un algoritmo supporto dalla'AI (definirlo algoritmo di AI mi sembra un po' esagerato) e crede che la matematica sia un'opinione e bisogna vedere altrimenti non ci si crede, come se 30 anni di storia di elaborazioni dell'immagine possa essere rivoluzionata in 2 mesi, a no 2 ormai sono oltre 2 anni, di ottimizzazione di algoritmi implementabili da funzioni fisse.



Vabbe' rinuncio.
Fatemi divertire a cercare di difendere l'indifendibile solo perché "è AMD e soprattutto è open" (che è meglio a prescindere secondo alcuni di voi).
Tanto le cose con cambieranno: chi ha la possibilità di usare il DLSS avrà immagine pressoché nitide e di qualità, chi userà queste mezze soluzioni provenienti dal secolo scorso rimarrà con le immagini sfocate e sharpening a manetta e si inventerà giustificazione ridicole per accettarle (quando prima.. oh, che ribrezzo il pixel errato, o ma siamo matti che si deve diminuire la qualità dell'immagine per andare più velocemente? Che truffa!).
Film già visto e neanche tanto tempo fa (RT? Roba che non serve a nulla e passeggera che si fa anche senza HW dedicato.. e intanto i transistor nelle GPU AMD si moltiplicano come i fermenti lattici e ancora non è a livello delle funzionalità offerte dalla concorrenza).
Certo, lo stesso "hardware dedicato": i mitici tensor core che servivano assolutamente per l'RTX Audio, poi si editava un file e magicamente funzionava sulle GTX.

Oppure il processore integrato nei monitor per le immagini così da avere il Gsync, assolutamente hardware fondamentale
Peccato poi che il Freesync faccia la stessa cosa senza cianfrusaglie inutili e costose.

E utimamente Nvidia cosa ha fatto? Ha passato il tempo a scopiazzare.

AMD fa L'anti-lag; tempo di quanlche settimana che esce Reflex.

AMD se ne esce con SAM ed Nvidia "Lo sappiamo fare anche noi"


Il discorso della qualità DLSS 2... dipende da come lo setti. Che non mi si venga a raccontare la storiella: "chi ha la possibilità di usare il DLSS avrà immagine pressoché nitide e di qualità" ...magari in ultra performance...certo, come no
Ci sono i settaggi di qualità esattamente come l'FSR o come lo è per il CAS.


La vera realtà è che l'unico colpo l'ha fatto con gli Rt Core, anche se si è dovuto aspettare quasi due anni prima che si vedesse qualcosa di fatto ad arte.

E quel qualcosa è ovviamente stato finaziato da Nvidia ed ovviamente è ottimizzato per le RTX.
Ora che escono i titoli ottimizzati per AMD in ray tracing si faranno i conti.

E basta con sti pregiudizi prima del tempo.

Con gli Nvidiari della casa marrone non si può ragionare: LAMENTONI!
__________________

MASTER: Ryzen 5 9600X LC,Powercolor RX 7700XT,MSI PRO B650M-A WIFI,32GB Ram 6400 CL32 RIPJAWS X in DC,Samsung 980Pro 512GB G4 + 980Pro 2TB G4 + SSHD 2TB SATA + HDD 1TB SATA,Audio ALC897,MSI MPG A650GF,Win 11 PRO,TK X-SUPERALIEN + AQUARIUS III,MSI 32" Optix MAG322CQR,MSI VIGOR GK30 COMBO,MSI Agility GD20 PAD,MSI IMMERSE GH10 HEADSET
Max Power è offline   Rispondi citando il messaggio o parte di esso
Old 08-06-2021, 01:09   #79
ciolla2005
Senior Member
 
Iscritto dal: Feb 2005
Città: Padova
Messaggi: 898
Quote:
Originariamente inviato da coschizza Guarda i messaggi
Se non sai come funziona il dlss non è un problema ma non metterti a pontificare su cose che non sai fai solo brutta figura
Un conto sono le comunicazioni di marketing, un altro è la realtà...
ciolla2005 è offline   Rispondi citando il messaggio o parte di esso
Old 08-06-2021, 01:12   #80
ciolla2005
Senior Member
 
Iscritto dal: Feb 2005
Città: Padova
Messaggi: 898
Quote:
Originariamente inviato da nickname88 Guarda i messaggi
Certo che ne spari di caxxate !
DLSS2 leggermente migliorato certo, in realtà è cambiato completamente.
Il CAS di AMD non centra un tubazzolo con DLSS e SR.
Sulla prima ero (palesemente) ironico.

Che non c'entri niente? La filosofia (reale) di funzionamento comprende anche la logica della valutazione di contrasto.
ciolla2005 è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza Motorola edge 70: lo smartphone ultrasottile che...
Display, mini PC, periferiche e networking: le novità ASUS al CES 2026 Display, mini PC, periferiche e networking: le n...
Le novità ASUS per il 2026 nel settore dei PC desktop Le novità ASUS per il 2026 nel settore de...
Le novità MSI del 2026 per i videogiocatori Le novità MSI del 2026 per i videogiocato...
I nuovi schermi QD-OLED di quinta generazione di MSI, per i gamers I nuovi schermi QD-OLED di quinta generazione di...
Stranger Things sbarca sui device Samsun...
Grok finisce sotto indagine nel Regno Un...
Arriva in Italia il nuovo marchio iCAUR,...
Obiettivo raggiunto: mille tablet OPPO c...
Nintendo nega l'uso dell'intelligenza ar...
Zeekr apre gli ordini per la station wag...
Redstone su RDNA 3? Non è nei pia...
Tutti su Epic Games Store, ma nessuno co...
ChatGPT Jobs: l'IA forse ci ruberà...
Lo sviluppo AAA è fuori controllo...
ASUS RTX 5090 ROG Matrix: un lavoro di f...
Anche lo shopping diventa 'agentico': Go...
Caos motori in Formula 1, riunione di em...
Walmart porta Gemini di Google nello sho...
Obiettivo 2030: così l'Europa pro...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 15:58.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v
1