Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Apple MacBook Air M3: chi deve davvero comprarlo? La recensione
Apple MacBook Air M3: chi deve davvero comprarlo? La recensione
A distanza di circa 8 mesi arriva l’importante aggiornamento dei MacBook Air: nessun cambiamento estetico, ma una revisione hardware interna con l’upgrade al processore M3. Le prestazioni migliorano rispetto alle generazioni precedenti, e questo fa sorgere una domanda spontanea: a chi è rivolto oggi questo laptop? Cerchiamo di capirlo nella nostra recensione 
ASUS ROG Swift OLED PG49WCD: quando QD-OLED e ultrawide si fondono
ASUS ROG Swift OLED PG49WCD: quando QD-OLED e ultrawide si fondono
Da ASUS un monitor particolare ma molto completo: principalmente indirizzato al videogiocatore, può essere sfruttato con efficacia anche per attività creative e di produzione multimediale
Dreame L10s Pro Ultra Heat: la pulizia di casa tutta sostanza
Dreame L10s Pro Ultra Heat: la pulizia di casa tutta sostanza
Il nuovo robot aspirapolvere domestico di Dreame abbina funzionalità complete a un moccio flottante che raggiunge al meglio gli angoli delle pareti. Un prodotto tutto in uno semplice da utilizzare ma molto efficace, in grado di rispondere al meglio alle necessità di pulizia della casa
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 13-05-2021, 13:46   #21
386DX40
Senior Member
 
Iscritto dal: Aug 2019
Messaggi: 2690
I primi giochi in 3D non facevano imho pietà e tutto sommato se si guarda a quelli textured senza accelerazione in hardware sono durati poco e comunque hanno segnato per sempre il mondo videoludico. L'esempio su tutti e' Quake. Nella versione originale quella software rendered era un salto tecnologico imparagonabile. I giochi in 3D se si intende poligonali di fine anni 80 / anni 90 erano comunque impressionanti per l' epoca sebbene senza texture ma il vero salto da tutti riconosciuto fu quello textured di Quake tutt'altro che ininfluente. Se invece si prende come riferimento la prima PlayStation beh, aveva i suoi limiti ma per quel che poteva spiazzò il mercato comunque. I PC cominciavano ad avere chip con features anche migliori sebbene troppo lenti e con pochi titoli per poter davvero sfondare.
Poi arrivato Quake e successivamente GLQuake tanti saluti alle console.

Ultima modifica di 386DX40 : 13-05-2021 alle 13:48.
386DX40 è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 14:03   #22
386DX40
Senior Member
 
Iscritto dal: Aug 2019
Messaggi: 2690
Quote:
Originariamente inviato da Techie Guarda i messaggi
Stavo pensando a Battlezone (1980) e Mechwarrior 2 - Mercenaries (1996)
Pensavo pero' a titoli come Stunts (1990) o LHX (1990) o Test Drive 3 (1990). Ma sui primi textured certamente non potevano permettersi grandi cose senza l'aiuto di un hardware dedicato ma esempi appunto come Quake e Tomb Raider e come dimenticarsi Unreal o Half Life sono piuttosto validi anche senza accelerazione hardware. Certo non erano proprio i primi ok ma piu' o meno le tecnologie in gioco erano sempre le stesse. Ovviamente il vero salto lo permise la FPU del Pentium e l'arrivo di schede video PCI che anche senza feature dedicate al 3D aiutavano comunque in minimo nell'insieme.

Ultima modifica di 386DX40 : 13-05-2021 alle 14:08.
386DX40 è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 14:25   #23
radeon_snorky
Senior Member
 
Iscritto dal: Mar 2003
Messaggi: 1924
ok gta5...
provate a farlo con stunt car racer o un qualunque vg anni 90
radeon_snorky è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 16:55   #24
a.peter
Member
 
Iscritto dal: Sep 2020
Messaggi: 42
Ray-Tacing è solo il nome figo da marketing adatto al mondo del gaming.
Nei software di modellazione 3D, o meglio (e soprattutto) nei software di rendering (talvolta sono il medesimo software) si chiama Illuminazione Globale.
Esistono diversi tipi di GI, più o meno random-precisi e di conseguenza più o meno pesanti.
Storicamente il fatto è che fino a tempi recenti fa, il rendering appunto, avveniva solo per CPU; negli ultimi anni invece sta facendo passi da gigante il rendering tramite GPU che spesso è più rapido, ma in realtà dipende, ma su sistemi più umani di solito permette una live view molto più rapida.
La cosa è che con la tecnica GI la CPU si fa il conto di moltissimi raggi-rimbalzi(che poi vanno a dare un risultato più realstico, ricordiamoci stiamo parlando di film, render architettonici e di prodotti, nonchè automotive), cosa non adatta per i videogiochi.
Ed è qui che arriva RT, hardware appositamente studiato per fare "solo" l'emissione di raggi e i loro rimbalzi, un numero comunque "irrisorio" di raggi, che però implementati a tecniche già esistenti nei videogiochi da una mano.
Di conseguenza per coloro che usano software di rendering 3d, tramite GPU (come potrebbe essere Octane o Redshift) avere i tensor core gli da una grossa mano nella live view, ma sostanzialmente sempre di Illuminazione globale si tratta, solo che si sfrutta l'aiuti di questi nuovi hw e sw.
a.peter è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 17:13   #25
386DX40
Senior Member
 
Iscritto dal: Aug 2019
Messaggi: 2690
Quote:
Originariamente inviato da a.peter Guarda i messaggi
Ray-Tacing è solo il nome figo da marketing adatto al mondo del gaming.
Nei software di modellazione 3D, o meglio (e soprattutto) nei software di rendering (talvolta sono il medesimo software) si chiama Illuminazione Globale.
Esistono diversi tipi di GI, più o meno random-precisi e di conseguenza più o meno pesanti.
Storicamente il fatto è che fino a tempi recenti fa, il rendering appunto, avveniva solo per CPU; negli ultimi anni invece sta facendo passi da gigante il rendering tramite GPU che spesso è più rapido, ma in realtà dipende, ma su sistemi più umani di solito permette una live view molto più rapida.
La cosa è che con la tecnica GI la CPU si fa il conto di moltissimi raggi-rimbalzi(che poi vanno a dare un risultato più realstico, ricordiamoci stiamo parlando di film, render architettonici e di prodotti, nonchè automotive), cosa non adatta per i videogiochi.
Ed è qui che arriva RT, hardware appositamente studiato per fare "solo" l'emissione di raggi e i loro rimbalzi, un numero comunque "irrisorio" di raggi, che però implementati a tecniche già esistenti nei videogiochi da una mano.
Di conseguenza per coloro che usano software di rendering 3d, tramite GPU (come potrebbe essere Octane o Redshift) avere i tensor core gli da una grossa mano nella live view, ma sostanzialmente sempre di Illuminazione globale si tratta, solo che si sfrutta l'aiuti di questi nuovi hw e sw.
Infatti mi pareva di ricordare cosi' anche a me. Poi immagino che con le attuali architetture si possa fare anche altro assieme alla illuminazione globale, ma quella resta la tecnica di illuminazione che spazzerebbe via (se calcolata con la stessa complessità dei sw appunto suddetti, se in tempo reale) praticamente vent'anni di videogiochi che hanno cercato in ogni modo di simulare (anche bene) i risultati di un vero calcolo di illuminazione globale.
Se ne parlava gia' appunto quasi un ventennio fa. E i tempi di rendering su un Pentium 4 li ricordo tutti altro che tempo reale, potevi andare a mangiare e tornare che ancora stava calcolando il frame a 640x480 di una scena geometrica semplice.
386DX40 è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 17:20   #26
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3287
Quote:
Originariamente inviato da a.peter Guarda i messaggi
Ray-Tacing è solo il nome figo da marketing adatto al mondo del gaming.
Nei software di modellazione 3D, o meglio (e soprattutto) nei software di rendering (talvolta sono il medesimo software) si chiama Illuminazione Globale.
Esistono diversi tipi di GI, più o meno random-precisi e di conseguenza più o meno pesanti.
Storicamente il fatto è che fino a tempi recenti fa, il rendering appunto, avveniva solo per CPU; negli ultimi anni invece sta facendo passi da gigante il rendering tramite GPU che spesso è più rapido, ma in realtà dipende, ma su sistemi più umani di solito permette una live view molto più rapida.
La cosa è che con la tecnica GI la CPU si fa il conto di moltissimi raggi-rimbalzi(che poi vanno a dare un risultato più realstico, ricordiamoci stiamo parlando di film, render architettonici e di prodotti, nonchè automotive), cosa non adatta per i videogiochi.
Ed è qui che arriva RT, hardware appositamente studiato per fare "solo" l'emissione di raggi e i loro rimbalzi, un numero comunque "irrisorio" di raggi, che però implementati a tecniche già esistenti nei videogiochi da una mano.
Di conseguenza per coloro che usano software di rendering 3d, tramite GPU (come potrebbe essere Octane o Redshift) avere i tensor core gli da una grossa mano nella live view, ma sostanzialmente sempre di Illuminazione globale si tratta, solo che si sfrutta l'aiuti di questi nuovi hw e sw.
No, assolutamente.
GI è una parte delle capacità del ray tracing, non è la sua caratteristica di base.
In un programma per modellare e renderizzare scende architettoniche magari basta per aumentare il realismo dell'immagine finale, ma ray tracing è molta altra roba.
Chiameresti Global Illumination l'algoritmo che ti permette di calcolare la rifrazione di una corpo trasparente?
Chiameresti Global Illumination l'algoritmo che permette di calcolare hightlights, riflessioni e ombre, caustiche e iridiscenze? Interferenze e anche DoF?

Global Illumination è la dicitura "povera" di qualcosa che è molto di più. Serve a voi architetti per non farvi andare il cervello in pappa con paroloni che vi spaventerebbero.
Da che è nato, si chiama Ray-tracing e ci sono programmi che lo calcolano prima di avere i programmi di modellazione e prima che il PC avesse anche più di 16 colori.
Infatti le applicazioni di modellazione sono nate su Amiga con Read4D e Imagine, poi LightWave e Cinema 4D. Ai tempi il PC non aveva ancora il mouse. E là si chiamava ray tracing.

Ultima modifica di CrapaDiLegno : 13-05-2021 alle 17:29.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 18:02   #27
sbaffo
Senior Member
 
L'Avatar di sbaffo
 
Iscritto dal: Feb 2005
Città: MI
Messaggi: 5574
Quote:
Originariamente inviato da Pino90 Guarda i messaggi
no, è molto di più di un "color grader" avanzato. Vengono modificate focali, geometrie, riflessi, emissioni di luce etc.

Guarda le immagini qui: https://intel-isl.github.io/PhotorealismEnhancement/

Ad esempio sull'ultima si nota che l'erba cambia proprio geometria, la texture dell'asfalto è molto più realistica nella versione "IA" anche in fatto di rappresentazione delle buche etc.
Mah, a me sembra che l'asfalto sia semplicemente "piallato" cioè uniformato e ingrigito perdendo totalmente la sua "granularità" originale, come se lo avessero riasfaltato. (certo, hanno preso come modello immagini di città tedesche, se erano italiane altro che riasfalatato... )
Per quanto riguarda i reflessi sulla carrozzeria delle auto mi sembrano decisamente esagerati soprattutto nella quarta immagine, quella con le due auto sulla destra.

Diciamo che l'idea è buona, una AI object oriented che prenda gli oggetti dal processo di rendering per migliorarli e poi miscelarli col render, ma ha ancora molta strada da fare, giustamente essendo la prima prova.
Diciamo che hanno applicato l'idea del tile-rendering all'AI, modificandola in object AI-rendering.
__________________
intel Q9550, nvidia 9800 GTX+, ram 4GB. Ipad Air 4. \\ DUKE é vivo: eduke32 - High Res - roch - DNF 2013 - ports -\- Wolfenstein is back: Blade of agony
Santa Opera di Pulizia del forum: -bannati: Chelidon, Diemberger(aka Svelgen/Vuiton/...?), hereiam,... -sospesi: Toretto x2, Rello75cl, destroyer85, Zocchi X2, Informative x2,... GomblottoH e DisinformazioneH : 1 e 2. BOOOM

Ultima modifica di sbaffo : 13-05-2021 alle 18:07.
sbaffo è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 18:14   #28
Fos
Senior Member
 
L'Avatar di Fos
 
Iscritto dal: Aug 2004
Messaggi: 1847
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Dove è quello che sosteneva "per l'inferenza non serve HW dedicato, basta che le ALU sappiano elaborare INT4, quindi i tensor sono superflui?
Chissà, però in un topic ho visto uno che diceva che "AMD non ha investito un solo transistor nel calcolo per l'AI visto che manca qualsiasi istruzione ottimizzata sia nelle sue CPU che nelle GPU"...
Per poi far finta di niente quando gli è stato sottolineato qualcosa di diverso.

Eccolo:
https://www.hwupgrade.it/forum/showthread.php?t=2940113

Non è che ti piace pensare che se i tensor non sono inutili lo sono tutti gli approcci diversi? Istruzioni ottimizzate non significa necessariamente co-processori, eh?

Ah, perché non mi posti il topic del tipo che citi, magari mi viene voglia di partecipare.
__________________
GB-B660 | 14600K | RTX-4070 TiS | 64GB | 2x NVMe + 16TB | LCD-28 4K
Fos è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 19:16   #29
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3287
Quote:
Originariamente inviato da Fos Guarda i messaggi
Chissà, però in un topic ho visto uno che diceva che "AMD non ha investito un solo transistor nel calcolo per l'AI visto che manca qualsiasi istruzione ottimizzata sia nelle sue CPU che nelle GPU"...
Per poi far finta di niente quando gli è stato sottolineato qualcosa di diverso.

Eccolo:
https://www.hwupgrade.it/forum/showthread.php?t=2940113

Non è che ti piace pensare che se i tensor non sono inutili lo sono tutti gli approcci diversi? Istruzioni ottimizzate non significa necessariamente co-processori, eh?

Ah, perché non mi posti il topic del tipo che citi, magari mi viene voglia di partecipare.
Si ho esagerato nel concetto, ti concedo che AMD ha investito questi 100 transistor per ALU per aggiungere 4 nuove istruzioni di calcolo con dimensioni inferiori a 16bit, ma non è avere qualcosa che sia usabile per l'inferenza delle IA.
Non è che "una approccio diverso è inutile", è semplicemente insufficiente per fare quello che si chiede.
Si potrà fare inferenza con RDNA2, sicuramente meglio che con RDN1 (che è concettualmente pari a roba del 2016), ma siamo come con l'RT: indietro e tanto. E finora non è stato dimostrato proprio nulla sotto questo punto di vista, esattamente come AMD non mostrava nulla delle "iperboliche" capacità di raytracing prima di RNA2 (e ora lo supporta giusto giusto e non ne fa certo un vanto, ma per i fanboy AMD avrebbe portato il raytracing anche alle schede più scrause senza perdita di performance perché bastavano le ALU e l'HW dedicato di NVidia era inutile).

Vedi qui che tempi di calcolo sono necessari con una 3090 e tutta la sua potenza di fuoco. Usare DirectML (le istruzioni di RDNA sono per supportare quella specifica funzionalità delle DX12) sulle ALU significa uccidere il resto dei calcoli grafici, questo lo sai vero?
Infatti a quanto pare AMD ha abbandonato l'idea di usare un sistema di inferenza come quello di Nvidia (o come sembra come quello che proporrà Intel) perché "non ja fa". O l'AI p la grafica. Usare l'AI per ridurre i tempi di calcolo grafici e poi rubare tempi di calcolo grafici con l'AI è un vero controsenso.

D'altronde il numero di transistor in RDNA2 è già davvero elevato solo per fare raster, aggiungere altra roba avrebbe portato la piastrella a diventare troppo grande (e troppo costosa per le console, dove una ha pure scelto di non usare tutto l'arsenale disponibile già senza metterci roba in più).

Il risultato netto è che AMD nell'AI è indietro almeno 2 generazioni rispetto ad Nvidia. Vedremo rispetto a Intel cosa riuscirà a fare, ma credo poco.
Come con il ray tracing (e parecchia altra roba anche in passato) aspettiamo la generazione successiva che sarà quella giusta. Se gli altri non fanno nulla nel frattempo...
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 19:52   #30
Fos
Senior Member
 
L'Avatar di Fos
 
Iscritto dal: Aug 2004
Messaggi: 1847
Prima non le aveva, ora è come se non le avesse. Beh, un passo alla volta...

Quanta potenza serva e per fare cosa ancora si deve vedere bene.
Anche col RT si diceva che l'integrazione avrebbe saturato il resto; Ora pare chiaro che in confronto a non avere i RA c'è una bella differenza, no?
O dobbiamo fare la prova con un'improbabile compatilbilità per bellezza di RDNA-1?

Quindi, come sopra, è difficile capire quanto e come quei calcoli saturino il resto, mentre e facile pensare che AMD insieme a MS (che potrebbe aver spinto per usufruirne su XSX) non abbiano pensato alla possibilità per sprecare spazio...

Per altro, anche solo per ipotizzare un'inutilità per congestione, bisognerebbe conoscere profondamente l'implementazione, a quale stadio avviene, quanto e come toglie ecc... Altrimenti parliamo tanto per tifoseria speranzosa nelle inutilità altrui. Con i commenti esagerati è quella l'impressione che dai, eh, e con i 100 transistor stai seguendo la stessa strada.

Col RT non sarebbe proprio la stessa cosa, tanto per evitare repliche sul pelo fuori dal piatto. Ad esempio, non è detto che se in RDNA-2 ci fossero stati 2 RA per CU il fratello sarebbe stato uno sfaticato...

Dopo, se la vogliamo mettere sulle opinioni blande, si potrebbe anche dire che l'implementazione AMD alla integro finché posso spesso viene considerata più elegante, anche per il rapporto spesa/resa, ma appunto sarebbe un modo di vederla senza saperla più di tanto.

Per quanto ne sappiamo, domani Nvidia potrebbe virare verso l'approccio AMD e/o viceversa, quindi meglio non forzare troppo, dopo tocca tornare troppo indietro e seguendo una strana diversa.
Non so se mi spiego.
__________________
GB-B660 | 14600K | RTX-4070 TiS | 64GB | 2x NVMe + 16TB | LCD-28 4K

Ultima modifica di Fos : 13-05-2021 alle 19:56.
Fos è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 20:46   #31
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3287
Mi da che vuoi fare l'avvocato delle cause perse di forza? O solo il fanboy offeso?

Quote:
Originariamente inviato da Fos Guarda i messaggi
Prima non le aveva, ora è come se non le avesse. Beh, un passo alla volta...
Forse ti è sfuggito, così di passaggio, che Nvidia quelle stesse istruzioni le ha messe dico, in Pascal, nel 2016. E guarda caso nessuna applicazione che sfrutta l'AI è mai stata sviluppata per Pascal.

Forse ti è sfuggito, che nonostante quelle istruzioni ad hoc Turing era 6 volte più veloce. Ora parliamo della generazione successiva di quella tecnologia che è quasi 2 volte ancora più veloce.

Ma tu parli di roba che non capisci solo per il gusto di difendere una multinazionale che è 2 generazioni complete dietro la concorrenza.
Praticamente RDNA2 ha le stesse capacità AI di Pascal. Solo 5 anni dopo.

Quote:
Originariamente inviato da Fos Guarda i messaggi
Quanta potenza serva e per fare cosa ancora si deve vedere bene.
Anche col RT si diceva che l'integrazione avrebbe saturato il resto; Ora pare chiaro che in confronto a non avere i RA c'è una bella differenza, no?
O dobbiamo fare la prova con un'improbabile compatilbilità per bellezza di RDNA-1?
Eh?
Chi ha detto che l'integrazione avrebbe saturato cosa?
Fatto sta che non serve fare alcuna prova con RDNA-1 (che per vergogna totale AMD non rende compatibile con DXR). Basta vedere cosa fa Pascal con DXR rispetto a Turing e capire che i core RT a qualcosa servono perché le prestazioni sono decisamente migliori che senza.
Potenza dell'HW dedicato vs roba buttala là tanto per dire "anche noi abbiamo il supporto".

Quote:
Originariamente inviato da Fos Guarda i messaggi
Quindi, come sopra, è difficile capire quanto e come quei calcoli saturino il resto, mentre e facile pensare che AMD insieme a MS (che potrebbe aver spinto per usufruirne su XSX) non abbiano pensato alla possibilità per sprecare spazio...

Per altro, anche solo per ipotizzare un'inutilità per congestione, bisognerebbe conoscere profondamente l'implementazione, a quale stadio avviene, quanto e come toglie ecc... Altrimenti parliamo tanto per tifoseria speranzosa nelle inutilità altrui. Con i commenti esagerati è quella l'impressione che dai, eh, e con i 100 transistor stai seguendo la stessa strada.

Col RT non sarebbe proprio la stessa cosa, tanto per evitare repliche sul pelo fuori dal piatto. Ad esempio, non è detto che se in RDNA-2 ci fossero stati 2 RA per CU il fratello sarebbe stato uno sfaticato...
1, 2, 10, 100 unità frega nulla. Quello che conta sono i risultati e AMD è indietro con l'RT con la patchatura dell'ultimo minuto di una architettura che non era pensata per tale funzionalità. E i risultati sono abbastanza scarsi.
Là dove l'RT è usato per davvero (e non nei giochi sponsorizzati AMD che dicono di usarlo e poi lo fanno su 100 pixel e basta) le prestazioni delle GPU AMD cala a picco. E come non bastasse, mancano di tutto l'occorrente per riprendersi tramite qualche algoritmo di ricostruzione delle immagini.


Quote:
Originariamente inviato da Fos Guarda i messaggi
Dopo, se la vogliamo mettere sulle opinioni blande, si potrebbe anche dire che l'implementazione AMD alla integro finché posso spesso viene considerata più elegante, anche per il rapporto spesa/resa, ma appunto sarebbe un modo di vederla senza saperla più di tanto.

Per quanto ne sappiamo, domani Nvidia potrebbe virare verso l'approccio AMD e/o viceversa, quindi meglio non forzare troppo, dopo tocca tornare troppo indietro e seguendo una strana diversa.
Non so se mi spiego.
Ma che vuoi provare con queste frasi monche che non dicono nulla?
Che AMD con un RT indietro più di una generazione e un supporto alla AI indietro di 2 sta facendo un buon lavoro perché "integra più che può"?
Integra cosa? La solita roba vecchia di 5 anni rispetto alla concorrenza?
Dove stanno tutte le funzioni avanzate che oggi si potrebbero usare e invece persegue la strada di propinare le stesse identiche cose del 2012 solo più veloci?

AMD oggi di buono ha solo il PP (che è di TSMC e lei paga caro) ed è stata costretta a integrare il minimo possibile (non tutto quello che può) altrimenti le venivano piastrelle invece che die e i costi sarebbero stati ingestibili.
Non so se hai visto quanto guadagna AMD con il PP a 7nm... la vedo dura con quello a 5nm e tutto quello che ancora deve integrare... e magari senza il vantaggio del clock rispetto alla concorrenza che ha questo giro.

Ah, per concludere, finora chi ha inseguito e copiato alla grande è stata proprio AMD a partire da GCN e tutte le non-funzionalità che ha abbandonato con il VLIW per abbracciare l'architettura moderna delle SIMD già proposta da Nvidia 6 anni prima. E il tile rendering 4 anni dopo. E le istruzioni per l'IA (che poi non servono a niente fatte così come già visto) 5 anni dopo. E le unità RT 2 anni dopo. Chissà, magari tra 4 anni proporrà l'equivalente dei tensor core anche lei così che si potrà pensare di usare l'AI può proficuamente con tutti i giochi. 6 anni dopo la concorrenza.
Ma sì, aspettiamo (o solo speriamo per orgoglio?) che Nvidia viri verso la filosofia usata da AMD... prima però deve farsi superare e poi può copiare anche lei alla grande e nel frattempo fermare i progresso monopolizzando lo sviluppo dei giochi cone la fornitura dell'HW.. chissà se veramente avverrà il contrario, con console basate su HW Nvidia e quest'ultima che propone roba di 4 o 5 anni prima che tanto vende lo stesso visto che i giochi sul suo HW gireranno comunque bene.

Ultima modifica di CrapaDiLegno : 13-05-2021 alle 20:50.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 21:46   #32
Fos
Senior Member
 
L'Avatar di Fos
 
Iscritto dal: Aug 2004
Messaggi: 1847
Stai sbarellando di brutto, dimostrando ancora meglio chi è il fanboy offeso, altroché...

Pascal ha le stesse istruzioni, quindi va diretta anche di INT4? Stesse ha un significato solo, eh...

Poi continui a vederla sempre a modo tuo, parli del RT sulle vecchie come se fosse realmente usabile con dettagli e risoluzioni paragonabili. Ma de che!
Non è che è Nvidia che le ha rese compatibili tanto per far venire la voglia di passare oltre? Ma no, ci mancherebbe.

Sul RT divaghi portando il discorso dove non serviva alla discussione, ma la voglia era troppa, eh... Sul resto peggio ancora, ma non ho intenzione di venirti dietro.

Quello che fa l'esperto partendo sparando cazzate come quella che citavo, non sono io. Inutile divagare altrove per poi intorbidire le acque per farle sembrare profonde. Azz, sapevi di Pascal, ma RDNA-2 sull'AI doveva andare in emulazione. Ti sei informato dopo credendo che cambiasse qualcosa, o semplicemente con AMD sparli sempre a vanvera per partito preso?

Sull'effettiva utilità, niente, eh... Sei tu che hai parlato di possibilità strozzata dal fatto che le ALU di AMD non faranno solo quello, poi ti sorprendi se ti rispondo contestualemente? Io il filo lo seguo, mica che no...
Chi ha parlato di copiare? Lo vedi che la testa ti porta a buttarla in solo modo? Se un approccio si dimostra conveniente col tempo, perché non lo dovrebbero usare? Magari Nvidia ha usato quel metodo per avere subito prestazioni di livello, chi razzo lo ha negato? Il tuo parlare sa di infantile, questa è l'impressione che mi dai, e non credo di essere più un solitario...

Toni simili te li sei cercati fin dall'inizio, ora l'hai dimostrato con gli interessi.
Se pensi di migliorare cercando di buttarla a coppe sul personale, mi sa che hai scelto l'interlocutore sbagliato.

PS: Ah, dimenticavo: Il topic di quello che diceva che i tensor sono superflui? Occhio che la rischi grossa, buonuomo.
__________________
GB-B660 | 14600K | RTX-4070 TiS | 64GB | 2x NVMe + 16TB | LCD-28 4K

Ultima modifica di Fos : 13-05-2021 alle 21:51.
Fos è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 22:12   #33
a.peter
Member
 
Iscritto dal: Sep 2020
Messaggi: 42
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
No, assolutamente.
GI è una parte delle capacità del ray tracing, non è la sua caratteristica di base.
In un programma per modellare e renderizzare scende architettoniche magari basta per aumentare il realismo dell'immagine finale, ma ray tracing è molta altra roba.
Chiameresti Global Illumination l'algoritmo che ti permette di calcolare la rifrazione di una corpo trasparente?
Chiameresti Global Illumination l'algoritmo che permette di calcolare hightlights, riflessioni e ombre, caustiche e iridiscenze? Interferenze e anche DoF?

Global Illumination è la dicitura "povera" di qualcosa che è molto di più. Serve a voi architetti per non farvi andare il cervello in pappa con paroloni che vi spaventerebbero.
Da che è nato, si chiama Ray-tracing e ci sono programmi che lo calcolano prima di avere i programmi di modellazione e prima che il PC avesse anche più di 16 colori.
Infatti le applicazioni di modellazione sono nate su Amiga con Read4D e Imagine, poi LightWave e Cinema 4D. Ai tempi il PC non aveva ancora il mouse. E là si chiamava ray tracing.
Non sono un architetto, poi i riflessi e le caustiche i software di render oggi te la fanno sia senza GI si RT, poi ti cito wiki, sicuramente sono più esperti di me.
Ray tracing:
"Il ray tracing è una tecnica generale di geometria ottica che si basa sul calcolo del percorso fatto dalla luce, seguendone i raggi attraverso l'interazione con le superfici."
[...] Nel contesto degli algoritmi di illuminazione globale, come il photon mapping ed il Metropolis light transport, il ray tracing è solo uno dei tool usati per calcolare il trasferimento di luce tra le superfici.

Illuminazione globale:
" [...] Radiosity, ray tracing, beam tracing, cone tracing, path tracing, metropolis light transport, ambient occlusion, e photon mapping sono esempi di algoritmi usati nel campo dell'illuminazione globale; alcuni possono essere combinati tra loro per ottenere risultati più rapidi, ma comunque accurati."

Quindi alle tue domande "Chiameresti Global Illumination l'algoritmo che ti permette di calcolare la rifrazione di una corpo trasparente?
Chiameresti Global Illumination l'algoritmo che permette di calcolare hightlights, riflessioni e ombre, caustiche e iridiscenze? Interferenze e anche DoF?" a tua sorpresa la risposta è si, e perchè? Perchè la GI è un insieme più ricco di algoritmi che collaborano, il RT è sicuramente uno dei più importanti, ma è uno dei tanti.
in più ti aggiungo una chicca: la profondità di campo (DoF) spesso è ottenuta "solo" in post produzione sfruttando le mappe di profondità, così il render 3d è più leggero e permette in secondo luogo di effettuare il focus sul punto desiderato, ma come si fa ad accorgersene vedendo il frame finale? semplice, non puoi.
Ed appunto in ultimo luogo dato che hai citato Cinema4D, li settando il motore di render su fisico, puoi avere il DoF senza utilizzare nè la GI nè RT (che appunto non ha nemmeno una sua voce)
__________________
Lenovo Y540 - i7 9750h - GTX 1660 Ti - RAM 16 GB - 1080p 144hz

Ultima modifica di a.peter : 13-05-2021 alle 22:25.
a.peter è offline   Rispondi citando il messaggio o parte di esso
Old 14-05-2021, 11:18   #34
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3287
Ultima risposta a uno che è qui solo per fare l'avvocato difensore delle cause perse.

Quote:
Originariamente inviato da Fos Guarda i messaggi
Quello che fa l'esperto partendo sparando cazzate come quella che citavo, non sono io. Inutile divagare altrove per poi intorbidire le acque per farle sembrare profonde. Azz, sapevi di Pascal, ma RDNA-2 sull'AI doveva andare in emulazione. Ti sei informato dopo credendo che cambiasse qualcosa, o semplicemente con AMD sparli sempre a vanvera per partito preso?
Emulazione?
Non sai di cosa stai parlando ovviamente.
Il problema sono solo le prestazioni.
Senza tensor non vai da nessuna parte. E infatti AMD non sta andando da nessuna parte con la IA.
Nè su GPU nè su CPU, dove non ha proprio nulla.

Quote:
Originariamente inviato da Fos Guarda i messaggi
PS: Ah, dimenticavo: Il topic di quello che diceva che i tensor sono superflui? Occhio che la rischi grossa, buonuomo.
Rischio grosso? Sono minacciato?
Mi devo preoccupare?

Dai che anche questo mese ti sei portato a casa la pagnotta e vedrai che AMD ti versa l'obolo.

Quote:
Originariamente inviato da a.peter Guarda i messaggi
Non sono un architetto, poi i riflessi e le caustiche i software di render oggi te la fanno sia senza GI si RT, poi ti cito wiki, sicuramente sono più esperti di me.
Ray tracing:
"Il ray tracing è una tecnica generale di geometria ottica che si basa sul calcolo del percorso fatto dalla luce, seguendone i raggi attraverso l'interazione con le superfici."
[...] Nel contesto degli algoritmi di illuminazione globale, come il photon mapping ed il Metropolis light transport, il ray tracing è solo uno dei tool usati per calcolare il trasferimento di luce tra le superfici.

Illuminazione globale:
" [...] Radiosity, ray tracing, beam tracing, cone tracing, path tracing, metropolis light transport, ambient occlusion, e photon mapping sono esempi di algoritmi usati nel campo dell'illuminazione globale; alcuni possono essere combinati tra loro per ottenere risultati più rapidi, ma comunque accurati."

Quindi alle tue domande "Chiameresti Global Illumination l'algoritmo che ti permette di calcolare la rifrazione di una corpo trasparente?
Chiameresti Global Illumination l'algoritmo che permette di calcolare hightlights, riflessioni e ombre, caustiche e iridiscenze? Interferenze e anche DoF?" a tua sorpresa la risposta è si, e perchè? Perchè la GI è un insieme più ricco di algoritmi che collaborano, il RT è sicuramente uno dei più importanti, ma è uno dei tanti.
in più ti aggiungo una chicca: la profondità di campo (DoF) spesso è ottenuta "solo" in post produzione sfruttando le mappe di profondità, così il render 3d è più leggero e permette in secondo luogo di effettuare il focus sul punto desiderato, ma come si fa ad accorgersene vedendo il frame finale? semplice, non puoi.
Ed appunto in ultimo luogo dato che hai citato Cinema4D, li settando il motore di render su fisico, puoi avere il DoF senza utilizzare nè la GI nè RT (che appunto non ha nemmeno una sua voce)
Non confondiamo le cose.
La Global Illumination è una cosa, ed è un "effetto" della scena (uno dei tanti), il raytracing è una tecnica.
Con il ray tracing puoi calcolare la GI. Nessuno ha detto che la GI la puoi calcolare solo con il ray tracing.
Ma con il ray tracing puoi calcolare anche altre cose che non sono GI. Tipo simulare le caratteristiche di una lente. O creare caustiche. O il DoF.
Si possono calcolare in altra maniera?
Ovvio, e si può anche approssimarle con tecniche meno impegnative, ma questo cosa c'entra? Anche la GI si fa in mille modi, e infatti finora la si è calcolata senza alcun algoritmo computazionale pesante. I risultati sono però quello che sono quando li si confronta con quelli che si ottengono con un algoritmo come il ray tracing. Calcoli la GI con raytracing e radiosity? Superbo, risultati spettacolari, peccato che ci voglia 10x il tempo.
E non c'entra nulla con il resto degli effetti che il raytracing può calcolare oltre alla GI.

Quindi GI è una cosa (calcolabile in molte maniere) e il ray tracing è un'altra cosa, ovvero una tecnica (o più tecniche perché è implementabile in molti modi) che calcola (o più precisamente simula) il comportamento della luce, qualsiasi cosa essa faccia, anche non illuminare una scena o essere limitato solo a un particolare effetto/zona.
Con il raytracing si possono anche calcolare semplici texture che poi sono applicate con la normale tecnica raster.
Quindi la cosa più generale è la tecnica che permette di fare le cose, poi viene il particolare effetto che vuoi ottenere.

Se faccio un simulatore di lenti ottiche non chiamerò di certo l'algoritmo di calcolo "Global Illumination". Anche se sto usando tecniche di raytracing e calcolando come si muove la luce.
Il raytracing è una tecnica che può essere usato anche per mille altre cose, non solo illuminazione, comunque. Tipo calcolare lo spazio visible da una certa angolazione. Ovvero posso calcolare precisamente quello che una persona vede o meno quando è in certa posizione e guarda in una certa direzione. In generale quali superifici vengono colpite da un raggio tracciato.
Non escono i valori della luminosità di un pixel, ma una bella mappa di 1/0 che dice vedo/non vedo, colpito/non colpito. Sempre tecnica raytracing rimane.
Che è poi il calcolo che viene bene accelerato dagli RT core.

Quindi chiamare il raytracing semplicemente Global Illumination lo limita un po' al solo effetto che uno vuole calcolare. Ma c'è molto di più dietro.
E calcolare un effetto con altre tecniche meno precise è proprio quello che l'uso del raytracing vorrebbe evitare: l'approssimazione eccessiva. Approssimazione che c'è sempre (perché non puoi pretendere di tirare miliardi di raggi in tempo reale) ma può comunque aumentare la precisione rispetto a insiemi pre-calcolati che non possono di natura comprendere tutti i casi possibili.

Ecco perché si è introdotto il raytracing nei motori dei giochi per fare, oltre alla GI, anche il calcolo delle ombre precise e delle riflessioni (sempre speculari perché quelle diffuse necessitano mooolta più potenza di calcolo) e l'ambient occlusion.
Possibile arriveranno anche altri effetti, come le trasparenze che con il raster classico è un bel problema da ottenere, le caustiche dell'acqua, le luci volumetriche (oggi solo simulate tramite voxel che però non possono tenere conto dell'esatta provenienza di tutte le luci magari dinamiche della scena) e se la potenza aumenta anche magari applicarlo per quanto detto prima riguardo al calcolo della reale parte visibile di un personaggio (così magari la si smette di fare script dove i giocatori gestiti dal PC imbrogliano usando altri metodi per determinare cosa vedono o meno e quindi capaci di colpirti a un km di distanza una volta che ti hanno individuato, mentre prima a 1 metro non ti scorgevano nemmeno).

Tutto questo è calcolabile tramite ray tracing, e metterlo sotto la dicitura "Global Illumination" che è un effetto importante e ricade sugli altri senza dubbio, è un po' limitativo.

Per la questione Cinama4D è evidente che la scelta è quella di dare il nome agli effetti indipendentemente dall'algoritmo utilizzato per realizzarli, esattamente come la questione Global Illumination vs raytracing.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 14-05-2021, 12:03   #35
Fos
Senior Member
 
L'Avatar di Fos
 
Iscritto dal: Aug 2004
Messaggi: 1847
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Ultima risposta a uno che è qui solo per fare l'avvocato difensore delle cause perse.
Emulazione?
Non sai di cosa stai parlando ovviamente.
Il problema sono solo le prestazioni.
Senza tensor non vai da nessuna parte. E infatti AMD non sta andando da nessuna parte con la IA.
Nè su GPU nè su CPU, dove non ha proprio nulla.
Ecco, fai finta di non capire, che ti conviene.

AMD non fa nulla direttamente, le INT4 erano dappertutto, e tu non spari razzate.
Eh, sì, per te è sicuro che AMD e MS si gratteranno a perdere, che con quelle possibilità non ci fai niente di utile ecc... Solo perché ti conviene pensarlo, o hai qualche dato, esempio, esperimento... qualsiasi cosa che non sia fuffa, insomma.

Quote:
Rischio grosso? Sono minacciato?
Mi devo preoccupare?

Dai che anche questo mese ti sei portato a casa la pagnotta e vedrai che AMD ti versa l'obolo.
Hey, me lo posti quel topic o contiui a schivare l'osso? Rischi grosso intendevo la faccia, visto che pare proprio che ti stessi riferendo a qualcuno a cui non rispondi direttamente.
Comportamento puerile tale da sotterrarsi. Per me è grosso, dopo, se la faccia te la sei già giocata: Rischi solo la conferma.

Quote:
Non confondiamo le cose.
Appunto, non confondere le cose. Quello che ti ha postato è fin troppo chiaro, inutile continuare ad intorbidire l'acqua... Quello che non sa di cosa parla continua a ribadirlo.

In quel contesto il ray tracing entrava in quel modo. Il resto è indiretto, e per farlo non è indispensabile usare la sola tecnica Ray tracing che rientra nell'insieme. Anche se ci calcoli i rimbalzi dell'audio, da dove parti...? Tra l'altro è il RT ad essere approssimativo, in quella lista ci sono metodi unbiased, ben superiori al RT, che da come la metti pare l'asse imprescindibile.
Chissà perché tendi ad amplificare il RT, chissà...
__________________
GB-B660 | 14600K | RTX-4070 TiS | 64GB | 2x NVMe + 16TB | LCD-28 4K

Ultima modifica di Fos : 14-05-2021 alle 12:06.
Fos è offline   Rispondi citando il messaggio o parte di esso
Old 14-05-2021, 12:04   #36
386DX40
Senior Member
 
Iscritto dal: Aug 2019
Messaggi: 2690
Imho ma potrei sbagliare ho l'impressione che a livello di messaggio consumer si sia un po' stiracchiato il concetto originale che effettivamente c'era anche decadi fa di ray tracing ma come algoritmo che vedeva nella illuminazione globale la sua forma piu' avanzata di scopo. Non chiamerei un "effetto" l'illuminazione globale diretta e indiretta che era a suo tempo l'obiettivo originario di quell' algoritmo e che per mezzo del numero di sample (eventualmente infiniti) con cui si voleva calcolare l'illuminazione, piegherebbe probabilmente l'hardware piu' potente con cui si calcola. Che poi il ray tracing nel senso della parte hardware moderna a cio' dedicata venga usata per altre cose o anche per altre cose, fa pensare che l'illuminazione globale per essere davvero realistica resta ancor oggi talmente pesante da doverla approssimare in altro modo. Poi certamente il livello a cui si e' raggiunto e' anni luce rispetto al passato.
L' illuminazione globale piu' che approssimata in passato era immagino precalcolata e non proprio dinamica. Sul discorso fotorealismo imho una piu' accurata illuminazione globale rende molto di piu' di eventuali scopi altri come rifrazioni o effetti comunque importanti ma che non sò se metterei sullo stesso piano di importanza della GI.

Ultima modifica di 386DX40 : 14-05-2021 alle 12:47.
386DX40 è offline   Rispondi citando il messaggio o parte di esso
Old 14-05-2021, 12:34   #37
radeon_snorky
Senior Member
 
Iscritto dal: Mar 2003
Messaggi: 1924
il problema principale è che saranno sempre tecniche di rendering biased... anche quelle unbiased alla fine sono legate al tempo di calcolo quindi parziali per natura.
https://www.youtube.com/watch?v=5XYLagdL8eA
una roba del genere su vg a 60fps a chi serve?
l'intelligenza artificiale che aiuta a definire e percepire meglio il "mondo 3d" la trovo molto interessante perché può sopperire alla mancanza di dettaglio.
qualunque nome vogliate dargli
radeon_snorky è offline   Rispondi citando il messaggio o parte di esso
Old 26-05-2021, 02:59   #38
mrk-cj94
Senior Member
 
Iscritto dal: Nov 2014
Messaggi: 3594
Quote:
Originariamente inviato da TorettoMilano Guarda i messaggi
sinceramente la sensazione personale è che il fotorealismo sia pronto da tempo per oggetti/ambienti e il problema rimane principalmente uno: la pelle umana.
avere un gioco fotorealistico con pupazzi non deve proprio rendere benissimo, quando avremo risolto questa cosa si vedranno giochi totalmente fotorealistici.
su una scatoletta del 2013 puoi avere questa grafica del resto
https://www.youtube.com/watch?v=4vABPJ9GF8M
quello è sicuramente uno dei problemi (a proposito di "umana" aggiungerei il discorso capelli, barba ecc).
Ma ben più rilevanti direi acqua (uno dei giochi migliori in tal senso è Sea of Thieves, peccato che lì l'acqua sia molto bella ma non altrettanto realistica) e soprattutto il fuoco
__________________
Telegram > Whatsapp | Waze > Maps | iliad > vodafone | Basket > Calcio | Marquez > Rossi | Hamilton > Schumacher | futuro > passato
mrk-cj94 è offline   Rispondi citando il messaggio o parte di esso
Old 26-05-2021, 11:18   #39
386DX40
Senior Member
 
Iscritto dal: Aug 2019
Messaggi: 2690
Imho non e' solo un discorso di rendering della pelle umana ma di tanti fatori legati al contesto per cui come dicevo inanzitutto il primo problema e' che attraverso il monitor gia' il limite e' li e non attraverso un VR dove il cervello sarebbe molto piu' (teoricamente) slegato dall'ambiente circostante.
Se si parla della sola grafica i passi da gigante sono stati fatti ma spesso in un ottica di giochi fantascientifici o storici o comunque non legato a contesti "reali". Dal momento che si parla di contesti in movimento basta solo il rendering di un personaggio che cammina per far cadere il castello di carte. Il cervello umano (fortunatamente) ancora capisce automaticamente cosa e' reale e cosa non lo e' a meno che non si parli di immagini renderizzate statiche per cui forse puo' venire qualche dubbio al limite.
Ma se si pensa al solo viso umano, ci sono 36 muscoli facciali ed e' difficile immaginare un rendering di un personaggio che riesca ad usarli tutti per il solo volto con la variabilita' e tutte le miriadi di sfumature che il volto umano fa nella normalità di qualsiasi azione. Per non parlare poi degli occhi. Se poi si passa al realismo dell'ambiente circostante come detto sopra un conto e' "credere" al realismo di una cosa di fantascienza, un conto una cosa che esiste e abituati a vedere. La sola acqua nel rendering aveva fatto passo da gigante con l'introduzione del Pixel Shading a suo tempo ma ancora oggi e' difficile immaginare un acqua renderizzata davvero realistica.
Ma poi c'e' tutto il contesto dei titoli che ormai sono troppo esagerati nelle ambizioni e non puntano a realismo quanto a sorprendere. Realistico puo' essere il rendering di una abitazione senza altro che il punto di vista in prima persona un po' come alcune tech demo. Bisognerebbe riconsiderare che "la storia" deve essere in un contesto realistico prima che tutta la immane complessità del rendering di quell' ambiente.
386DX40 è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Apple MacBook Air M3: chi deve davvero comprarlo? La recensione Apple MacBook Air M3: chi deve davvero comprarlo...
ASUS ROG Swift OLED PG49WCD: quando QD-OLED e ultrawide si fondono ASUS ROG Swift OLED PG49WCD: quando QD-OLED e ul...
Dreame L10s Pro Ultra Heat: la pulizia di casa tutta sostanza Dreame L10s Pro Ultra Heat: la pulizia di casa t...
HONOR Magic6 Pro: come funziona Magic Portal, il modo ''intelligente'' di condividere HONOR Magic6 Pro: come funziona Magic Portal, il...
L'innovazione richiede fiducia: Workday si propone come guida nell'era dell'IA L'innovazione richiede fiducia: Workday si propo...
RocketStar FireStar Drive: un propulsore...
Roscosmos: il lancio del razzo spaziale ...
Italia strategica per Oracle. Arriva la ...
Sam-Bankman Fried: 25 anni di reclusione...
Mobility Analytics di WINDTRE Business p...
Il lander lunare JAXA SLIM si è r...
Warframe conquista l'iPhone: senza soluz...
Marvel Rivals!, l'inaspettato shooter Pv...
Twitch aggiorna le linee guida sui conte...
Galaxy M55 ufficiale: la nuova fascia me...
Google corregge sette vulnerabilit&agrav...
IA: le imprese italiane sono in prima li...
Garmin Dash Cam 57: un'alleata perfetta ...
Elgato Facecam MK2: come rendere ancora ...
2 iRobot Roomba al prezzo più sco...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 22:39.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Served by www1v
1