Schede video, addio alla 'forza bruta'? DLSS e intelligenza artificiale sono qui per restare
Negli ultimi anni il settore della grafica ha visto l'introduzione di tecnologie di intelligenza artificiale capaci di creare buona parte dell'immagine, andando ad affiancare il rendering nativo. Secondo NVIDIA non si tornerà indietro: il ricorso all'IA sarà sempre maggiore.
di Manolo De Agostini pubblicata il 21 Settembre 2023, alle 07:31 nel canale Schede VideoNVIDIAGeForceAMDRadeonIntelArc










Renault Twingo E-Tech Electric: che prezzo!
Il cuore digitale di F1 a Biggin Hill: l'infrastruttura Lenovo dietro la produzione media
DJI Osmo Mobile 8: lo stabilizzatore per smartphone con tracking multiplo e asta telescopica
Snap e Perplexity unite: dal prossimo anno le ricerche si potranno fare direttamente da Snapchat
La Cina dice addio a NVIDIA? Il governo avrebbe vietato i chip AI stranieri nei progetti pubblici
Microlino, simbolo italiano della mobilità elettrica, potrebbe spostare la produzione in Cina
Apple disattiverà la sincronizzazione delle reti Wi-Fi tra iPhone e Apple Watch in tutta l’UE
Google lancia l'allarme: attenzione ai malware che riscrivono il codice in tempo reale con l’AI
Primo test drive con Leapmotor B10: le cinesi così fanno paura | Video
'Non può essere un robot': l'umanoide di Xpeng si muove così fluidamente da diventare un caso
Monopattino elettrico Segway Ninebot Max G2E in offerta: 450W di potenza e freni su entrambe le ruote, ora a 549€ su Amazon
Syberia Remastered è disponibile: il ritorno poetico di Kate Walker su PS5, Xbox e PC
Sony scopre che tutti i modelli AI hanno pregiudizi razziali: ecco cosa è emerso con il dataset FHIBE
Amazon nasconde un -15% su 'Seconda Mano' — ecco come accaparrarselo subito
Due occasioni Apple su Amazon: iPhone 16 e MacBook Air M4 a prezzi super scontati
Verso la fine della TV tradizionale? I giovani guardano sempre più TikTok e YouTube
Cassa JBL a 39€, portatili, smartphone, TV e robot scontati di centinaia di Euro: le migliori offerte Amazon con diverse idee regalo









58 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoBeh "mercì a lu penis" cosa avrebbe dovuto dire?
NV Oste: "no guardate sta roba è una cag#t4 che potrebbe avere risvolti tragicomici per tutto il settore"
Questo é il problema. Lumen di Unreal ha dato nuova linfa alla rasterizzazione (anche usando un pó di RT) ma il futuro é PT. E magari ci saremmo giá arrivati se invece di usare solo una frazione dei transistor a quello scopo per poter mantenere tutto il carrozzone, ci fossimo buttati a capofitto.
Anzi, ci saremmo giá arrivati se dopo la guerra per i triangoli al secondo, e i pixel al secondo, AMD e nVidia avessero ingaggiato la guerra per i raggi al secondo.
Siccome questo non é successo, il passaggio al PT non é mai avvenuto e si dá la colpa all'algoritmo dimenticando che 25 anni fa c'era chi seriamente sosteneva che calcolare una radice quadrata per ogni pixel non era fattibile e che quindi l'illuminazione per pixel non sarebbe mai stata realtá.
Quindi riassumendo il tutto uno di nvidia, insieme ad uno di cdproject, che dal 2011 piglia soldi da nvidia e senza nvidia lavorerebbe al supermercato, afferma che il raster è sostanzialmente un fake, mentre la loro grande tecnologia che inventa tutto da una manciata di informazioni precalcolate a monte ed eseguite su hardware nvidia è la vera visual fidelity
Complimenti
Secondo me meno pixel e raggi ci sono meglio è, se arriviamo a 1x1 pixel si vedrà tutto perfettamente matematicamente liscio e uniforme
Che schifo tutti quei pixel taglienti e tutta quella roba nitida
Complimenti
"riassumendo" cosa? Non certo quello che ho detto io, visto che ho parlato di path tracing...
E comunque che la rasterizzazione é una pila di trucchi e magheggi messa insieme a martellate nel corso di 30 anni non é certo una novitá: forse sai giá come funzionano RT e rasterizzazione, ma se non lo sai, vai a vedere il banalissimo problema delle ombre come lo risolve uno e come lo risolve l'altro e poi dimmi quale delle due é la soluzione idealmente migliore.
E siccome questo vale per *tutto*, per ogni singolo aspetto del rendering, é facile capire come prima ce ne sbarazziamo e meglio é...
- Ottimizzazione software (tra cui DLSS, FSR etc.)
la vera ottimizzazione software sarebbe da fare a priori senza quelle tecnologie, abbiamo giochi graficamente sbalorditivi di 10 anni fa, e nuova roba mediocre che fatica a girare a 60fps oggi
Complimenti
"riassumendo" cosa? Non certo quello che ho detto io, visto che ho parlato di path tracing...
E comunque che la rasterizzazione é una pila di trucchi e magheggi messa insieme a martellate nel corso di 30 anni non é certo una novitá: forse sai giá come funzionano RT e rasterizzazione, ma se non lo sai, vai a vedere il banalissimo problema delle ombre come lo risolve uno e come lo risolve l'altro e poi dimmi quale delle due é la soluzione idealmente migliore.
E siccome questo vale per *tutto*, per ogni singolo aspetto del rendering, é facile capire come prima ce ne sbarazziamo e meglio é...
Il sunto di tutto il polpettone è quello, parlano per se stessi, sapendo bene di avere il seguito di fan appresso
Marketing at it's finest. Prossima scheda NON sarà nvidia
NV Oste: "no guardate sta roba è una cag#t4 che potrebbe avere risvolti tragicomici per tutto il settore"
Sono dell'idea che l'importante è il risultato, cioè che la grafica sia sempre meglio. Arrivarci con denoise e simili, o con potenza bruta, non da differenza.
L'unico problema, non da poco, è che dovrebbero cominciare a fare dei line up seri, con rapporti prezzi/pretazioni onesti, e non quella roba che ci propinano ora.
Boh, non capisco perché hai citato me per commentare quanto detto da loro. Il fatto che la rasterizzazione, per quanto abbia svolto ottimamente il suo lavoro negli ultimi decenni, abbia dei grossi problemi a scalare verso l'alto in termini di qualitá e che quindi necessita di continui trucchi & magheggi é roba nota da almeno un ventennio. Fino a poco tempo fa non c'erano alteranative, ora invece si e non serve avere conflitti di interessi per affermarlo.
Come detto, é cosa nota da anni a tutti gli addetti ai lavori.
Se poi tu trovi bizzarro che descrivano in quel modo la rasterizzazione ma poi contemporaneamente esaltino le loro tecnologie di "invenzione" dei contenuti, quello é un problema tuo con loro, non vedo perché citare me che di quelle tecnologie manco ho parlato e mi interessano pure relativamente poco :-)
Non è che "ottimizzando al massimo" la GPU possa magicamente migliorare le sue performance [B][U]dove conta solo lei[/U][/B], è il sistema nel suo complesso che migliora il dialogo fra le varie parti e a quel punto ci sono i guadagni prestazionali.
Negli scenari GPU-limited non c'è "ottimizzazione" che tenga quindi l'unica via sono proprio le tecnologie di upscaling.
Magari prima di parlare fare un corso di sistemi di elaborazione o chiedo troppo?
E cmq sì, il raster è fake da 40 anni, basta considerare il problema irrisolvibile delle trasparenze: per chi non lo sapesse NON si può in raster risolverlo in modo ottimo quando il numero di oggetti trasparenti sovrapposti visibili a scena sale sopra un certo limite: finestra con dietro una tenda con dietro una bottiglia con dentro un liquido.....
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".