PDA

View Full Version : 8 GB di memoria sono pochi? AMD mostra una scena 3D con 1.200 alberi usando solo 51 KB


Redazione di Hardware Upg
27-06-2025, 14:24
Link alla notizia: https://www.hwupgrade.it/news/skvideo/8-gb-di-memoria-sono-pochi-amd-mostra-una-scena-3d-con-1200-alberi-usando-solo-51-kb_140375.html

AMD e l’Università di Coburg hanno sviluppato una tecnologia che permette di renderizzare alberi e vegetazione complessa in tempo reale utilizzando appena 51 KB di memoria. Basata su work graph e mesh shader, la tecnica migliora drasticamente il rendering 3D nei giochi, riducendo l’uso di VRAM

Click sul link per visualizzare la notizia.

bonzoxxx
27-06-2025, 14:34
Aho se le inventano tutte per non mettere VRAM nell GPU!!

Scherzi a parte, ottima notizia!!

OrazioOC
27-06-2025, 14:36
Non fatelo vedere ad HWUnboxed e GamerNexus. :asd:

rattopazzo
27-06-2025, 14:44
Oggi giorno la maggior parte del VRAM viene saturata da textures ad altissima risoluzione
qui non ne vedo...
Quindi anche se riescono a creare delle scene 3D molto complesse usando pochissima memoria alla fine la gente vorrà sempre i giochi super dettagliati, quindi la RAM rimarrà fondamentale.

Alodesign
27-06-2025, 14:45
Ricordate anni fa quel giochino in stile Doom del peso complessivo di pochi kb?

ronthalas
27-06-2025, 14:51
una volta un gioco generava una intera galassia di stelle e pianeti e stava dentro un floppy da 856K e girava su un 68000 con 1024K di ram.
quanta ottimizzazione delle risorse abbiamo perso per strada negli anni, per necessità di fare presto e "decente" qualcosa?

randorama
27-06-2025, 14:57
ricordatevi cosa venne fatto con lords of midnight...

biometallo
27-06-2025, 14:58
Ricordate anni fa quel giochino in stile Doom del peso complessivo di pochi kb?

suppongo tu stia parlando di kkrieger

https://it.wikipedia.org/wiki/.kkrieger

https://www.youtube.com/watch?v=bD1wWY1YD-M

andresb
27-06-2025, 15:01
una volta un gioco generava una intera galassia di stelle e pianeti e stava dentro un floppy da 856K e girava su un 68000 con 1024K di ram.
quanta ottimizzazione delle risorse abbiamo perso per strada negli anni, per necessità di fare presto e "decente" qualcosa?

Frontier per Amiga?
(ce l'ho ancora originale)

Alodesign
27-06-2025, 15:11
suppongo tu stia parlando di kkrieger

https://it.wikipedia.org/wiki/.kkrieger

https://www.youtube.com/watch?v=bD1wWY1YD-M

Non ricordavo però fosse così vecchio :D

Gringo [ITF]
27-06-2025, 15:48
La differenza tra "La Scena" Demo Tech ecc....
e che poi nel mondo reale non ci stà paragone, ho visto DEMO per C64 e Amiga 500 favolose, per poi a parte qualche perla, nulla lavorare uguale, ricordo il primo Unreal, sempre di Ubisoft per Amiga 500, che non centra nulla con l'attuale saga
fù un solo titolo del genere.

Che mi facciano un titolo da 50kb, e poi i titoli vengono sviluppati per sfruttare a pieno la RTX6000 PRO con 64Giga con DLSS 4.1 Sperimental con compressione del 95% delle textures in 8k.... e logico che se poi compero la RTX5050 unica a prezzo consumer mi ritrovo a giocare non con Unreal Engine ma con Unreal per Amiga 500.

Possono sfornare e dimostrare cosa vogliono, poi gli sviluppatori usano il Basic 2.0 e come debugger Alexa, qiondi e normale che i Titoloni poi facciano sedere un sistema che nessuno a parte Bezos o Elon possono permettersi.

Ripper89
27-06-2025, 15:56
Naturalmente, tutto dipenderà dal supporto e dall'implementazione all'interno dei motori di gioco.Ossia con la prossima generazione di videogiochi.
Quindi rispondendo alla domanda sul titolo, sì 8GB sono pochi visto che questa tecnologia non la vedremo a breve.

belta
27-06-2025, 16:06
Tutto molto bello, detto questo sulla prossima scheda video voglio 32 GB di HBM :O

ninja750
27-06-2025, 16:13
e nei giochi dove non ci sono alberi? :O

CrapaDiLegno
27-06-2025, 16:49
O maroooo, mi tocca sempre fare il fanboy anche quando non è necessario.
ma bisogna fare un po' di chiarezza in questa news buttata là senza che nessuno abbia neanche scritto mesh shading in Google per sapere cosa è, chi e quando è stato introdotto.
Il mesh shading è stato introdotto da Nvidia con Turing nel lontano 2018.
Sì, insieme al RT di cui tutti hanno parlato e sparlato, ci stava anche questa feature. Fa parte delle feature che Nvidia introduce regolarmente nelle sue architetture e di cui nessuno frega niente perché al momento del lancio non porta un aumento di FPS sui giochi già sviluppati.
Così Pascal = Maxwell, Turing = Pascal + RT core, Ampere, Ada, Blackwell sono tutte Turing solo più veloci. Perché se non acceleri il raster, non sei nessuno per alcuni. Il resto non conta, non serve, è solo un metodo per fregarti e farti pagare qualcosa di più anche se non è utile.

Contento che nel 2025 AMD abbia capito che esiste questa funzionalità e come si può usare, così magari la mette fatta decentemente nelle prossime GPU delle console (in RDNA1 non c'era in RDNA2 c'era un abbozzo poco fruibile e quindi mai usato, con RDNA3 si è arrivati a qualcosa di decente).
La demo è sostanzialmente l'abbinamento del mesh shading a una tecnica di generazione frattale, quindi algoritmica, che non richiede di generare a propri i modelli da usare nella scena, ma li fa calcolare direttamente alla GPU, come era il principio d'uso del mesh shading.

Sebbene AMD non abbia ancora indicato una data precisa per la disponibilità commerciale,
Questa frase dimostra come l'autore non sappia di quel che sta scrivendo, visto che il mesh shading è una tecnologia che esiste da 7 anni e quello che è stato fatto è semplicemente una demo che mostra cosa si può fare nel 2025 con una tecnologia a disposizione già nel 2018 che nessuno sviluppatore ha mai preso in considerazione perché le console non la supportano e pertanto nessuno fa 2 motori, uno per console e uno per PC. Qui si parla proprio di roba di basso livello che richiede fare 2 motori completamente diversi con o senza lo sfruttamento di questa cosa.

Alla fine è la solita traduzione cieca dell'ennesimo articolo scritto da qualcun altro in cui non si approfondisce un bel nulla e si scrive una conclusione aberrante.

Qui magari trovate qualche informazione in più su cosa è e come funziona. E' del 2018, non un proclama scritto ieri.
https://developer.nvidia.com/blog/introduction-turing-mesh-shaders/
E c'era già una demo che faceva vedere cosa era possibile fare: miliardi di poligoni senza alcun tentennamento. Sì, nel 2018, quando ancora la 4090 GPU monster non c'era.
https://www.youtube.com/watch?v=CRfZYJ_sk5E

StylezZz`
28-06-2025, 08:45
Solita demo fuffa, ne riparleremo se troverà riscontro nella realtà.