PDA

View Full Version : I requisiti PC di Alan Wake II sono da incubo


Redazione di Hardware Upg
23-10-2023, 07:01
Link alla notizia: https://gaming.hwupgrade.it/news/videogames/i-requisiti-pc-di-alan-wake-ii-sono-da-incubo_121127.html

Requisiti elevati e l'uso delle tecnologie di upscaling sono i tratti distintivi delle configurazioni indicate da Remedy Entertainment per giocare su PC ad Alan Wake II a partire dal 27 ottobre.

Click sul link per visualizzare la notizia.

Saturn
23-10-2023, 08:03
Alan Wake II è un omaggio per lei paga gli optional...
Cosa ???
Il videogioco è un omaggio per lei paga la scheda video, il processore, l'ssd...lei paga, lei paga tutto !

Oh la vaga....vaghissima...impressione che come nella telefonata che il direttore del San Giorgio fece al sommo Mario qui ci stiano prendendo per il posteriore da un bel pezzo.

Una volta i sig. programmatori riuscivano ad "OTTIMIZZARE" i loro prodotti con l'hardware disponibile...che non era neanche un 1/100 in quanto a potenza, OGGI, con schede video da 1000€ (2 milioni e passa) senza barbatrucchi frame rate da 30fps.

Giustamente uscirà la next generation serie 5xxx al doppio del prezzo o giù di lì. Ormai l'andazzo è questo, prendo atto e lascio, lascio tranquillamente a chi ha ancora entusiasmo e soldi a carrettate da investire in videogiUochi !

Cromwell
23-10-2023, 08:11
Requisiti molto elevati sulla carta, ma vedremo come si comporterà il gioco una volta che potremo giocarlo sui nostri PC. Il vostro quale esperienza potrebbe garantirvi? Fatecelo sapere nei commenti!

Ve lo farò sapare tra diversi tanti anni quando troverò il gioco a pochi euro e soprattutto con il pc che avrò in quel momento con sopra una delle schede video di gamma media (o anche medio/bassa) che ci saranno per quel periodo (o della generazione precedente di quel periodo) che mi permetterà di giocarlo senza troppi sbattimenti e senza spendere un rene :O

alethebest90
23-10-2023, 08:13
ma stiamo scherzando ?

ai voglia di giocarlo quando sarà ottimizzato SENZA queste tecnologie....

tra l'altro non è che mi entrusiasma chissà quanto, era gia noioso il primo

agonauta78
23-10-2023, 08:16
Tanto rumore per nulla , il giorno dopo l'uscita non se ne parlerà più .

dominator84
23-10-2023, 08:28
Tanto rumore per nulla , il giorno dopo l'uscita non se ne parlerà più .

come no?!?

un altro noiosissimo gioco alla cyberbug, dove da fare c'è solo da guardarsi allo specchio e uccidere bot inermi... ci mancava proprio

servirà per giustificare il fatto che in RT minimo ci voglia na 5090 per maxarlo in 4pippe

sento già i fiumi di "signora: è bianca e fa schiuma" che scorrono... e jakkettahhh schizzerà tutti i fan

The_Hypersonic
23-10-2023, 08:37
può rimanere lì dove sta fino al giorno in cui non lo prenderò gratis su Amazon Prime Gaming se mai ci arriverà, o sarà in saldo a 5,99 su Steam o GoG o da qualche altra parte.

Sono stufo di sviluppatori incapaci che non hanno più capacità di ottimizzazione dei giochi su piattaforme hardware in commercio.

Stefano Landau
23-10-2023, 09:01
Oh la vaga....vaghissima...impressione che come nella telefonata che il direttore del San Giorgio fece al sommo Mario qui ci stiano prendendo per il posteriore da un bel pezzo.

Una volta i sig. programmatori riuscivano ad "OTTIMIZZARE" i loro prodotti con l'hardware disponibile...che non era neanche un 1/100 in quanto a potenza, OGGI, con schede video da 1000€ (2 milioni e passa) senza barbatrucchi frame rate da 30fps.

Giustamente uscirà la next generation serie 5xxx al doppio del prezzo o giù di lì. Ormai l'andazzo è questo, prendo atto e lascio, lascio tranquillamente a chi ha ancora entusiasmo e soldi a carrettate da investire in videogiUochi !

Un tempo si lavorara in Assembler, linguaggio estremamente criptico ed astratto, ma da macchine piccole permetteva di tirar fuori l'impossibile, a costo però di tempi di sviluppo molto lunghi.

Poi si è passati a linguaggi di più alto livello ('C' nel mio caso) che permette di scrivere codice in maniera molto più semplice e veloce. Solo che la potenza HW necessaria sale di 10 volte rispetto al puro assembler.

Ora invece si passa java (e ad un mix di linguaggi e sistemi nuovi) che dovrebbero semplificare lo sviluppo (a me non sembra......) ma sprecano risorse in maniera oscena, come se non bastasse per isolare bene i processi li includono dentro a tante singole macchine virtuali sbattendo via ancora più risorse. In ditta avevamo un SW per la gestione di un servizio che girava su un server con (con il suo server parallelo di backup ed un'altro ambiente ancora di disaster recovery)

Ora per fare cose simili invece di essere in 3 o 4 programmatori ce ne sono 10 volte tanti, su un numero di macchine 10 volte maggiore con le stesse macchine molto più potenti.....
Prima funzionava tutto alla perfezione, gli errori erano molto rari......ora gli errori sono all'ordine del giorno....

a me sembra una bella involuzione, altro che evoluzione......

Come dati vediamo la stessa cosa sui cellulari.

Prima con i primi cellulari umts navigavi su internet e anche maps dei risultati te li dava, questo con una connessione a 64k.

Ora se non hai il 4g maps ti dice connessione debole ed ogni trasmissione costa dati per un volume almeno 100 maggiore rispetto al necessario.

certo che se per tramettere un numero che magari occupa 2 byte di memoria, lo convertono in cifre testuali che poi utilizzano le nuove codifiche a 2 byte .... ecco che quel numero diventa di 10 byte, poi viene inserito in una stringa json dove invece che accedere per posizione gli si mette prima un nome per far capire cos'è, vari separatori e qualificatori e magicamente diventa di 40 byte.

Risultato oggi con un HW molto più potente facciamo le stesse cose di prima......

Forse quando sarà difficile ottimizzare ulteriormente l'HW si tornerà a lavorare meglio sul SW abbandonando certe assurdità attuali.....

bobby10
23-10-2023, 09:20
Punta tutto sulla upscaling.

Da mettere da parte in attesa di ottimizzazioni e magari hw più potente

ninja750
23-10-2023, 10:03
Una volta i sig. programmatori riuscivano ad "OTTIMIZZARE" i loro prodotti con l'hardware disponibile...che non era neanche un 1/100 in quanto a potenza, OGGI, con schede video da 1000€ (2 milioni e passa) senza barbatrucchi frame rate da 30fps.

la questione è diversa, una volta era un vanto avere il gioco ben ottimizzato e fluido

adesso se gira malissimo ecc è un vanto "perchè abbiamo introdotto questo e quello" non vedete?

un gioco che esce OGGI dovrebbe OGGI girare almeno 144fps in 4k con la vga più potente in commercio. se non ci riesci e releghi ad upscaler e FG la questione hai cannato tutto, perchè se aspetti due anni per avere vga più veloci, tra due anni saranno già usciti altri giochi più mattoni di questo

abbiamo dei PC con potenze 10x rispetto a quelli di 10 anni fa, ma non vedo 10x immagini migliori a video

giacomo_uncino
23-10-2023, 10:12
Oh la vaga....vaghissima...impressione che come nella telefonata che il direttore del San Giorgio fece al sommo Mario qui ci stiano prendendo per il posteriore da un bel pezzo.

Una volta i sig. programmatori riuscivano ad "OTTIMIZZARE" i loro prodotti con l'hardware disponibile...che non era neanche un 1/100 in quanto a potenza, OGGI, con schede video da 1000€ (2 milioni e passa) senza barbatrucchi frame rate da 30fps.

Giustamente uscirà la next generation serie 5xxx al doppio del prezzo o giù di lì. Ormai l'andazzo è questo, prendo atto e lascio, lascio tranquillamente a chi ha ancora entusiasmo e soldi a carrettate da investire in videogiUochi !

naaa basta giocare agli arretrati che continuano ad accumularsi, con vga di qualche generazione fa. Ai tripla a in uscita adesso si giocherà tra qualche tempo quando saranno ben ottimizzati, e in sconto o magari regalati
il resto profit! :O

MIKIXT
23-10-2023, 10:13
Ve lo farò sapare tra diversi tanti anni quando troverò il gioco a pochi euro e soprattutto con il pc che avrò in quel momento con sopra una delle schede video di gamma media (o anche medio/bassa) che ci saranno per quel periodo (o della generazione precedente di quel periodo) che mi permetterà di giocarlo senza troppi sbattimenti e senza spendere un rene :O

idem come sopra :asd:

silvanotrevi
23-10-2023, 11:20
vabè ragazzi ma di cosa parliamo? Anche Control era un titolo pesantissimo nel 2019 quando uscì e capace di mettere in ginocchio persino le top gamma di allora rtx 2080 e 2080 Ti.
Anche Quantum Break nel 2016 era un mattone pesante che faceva sudare in 1080p persino la rispettabilissima Gtx 1080.

Remedy è conosciuta da anni per andarci pesante dal punto di vista grafico nei suoi giochi, si sapeva da mesi questa cosa, nulla di nuovo. L'ho paventato io da mesi qui sopra temendo il peggio e ora ne abbiamo la conferma ufficiale.

D'altronde Remedy è uno dei partner più forti di Nvidia da sempre, e si sa Nvidia deve pur venderle queste rtx 4070 - 4080 e 4090. Se il gioco andasse bene a 60 fps in 4k anche con una rtx 3080, come farebbe Nvidia a vendere le nuove gpu Lovelace?

lollo9
23-10-2023, 11:30
Un tempo si lavorara in Assembler...

vecchio discorso trito e ritrito che non vuol dire assolutamente niente, nulla, zero.

a parte che oggi nessuno, e dico NESSUNO, vieta di scrivere in assembly, né per la JVM, né per le varie LLVM, ad a maggior ragione nemmeno direttamente per il ferro.

ma a parte quello, la complessità sottostante che c'è da maneggiare oggi è 5-6 ordini di grandezza superiore a quella di inizio anni 90.
cosa conviene di più, astrarre un po' e comprare HW più potente od avere costi e time-to-market più che centuplicati?

auguri a scrivere in assembly. fallo e poi dicci quanto bene si compete così.
si va a basso livello quando il gioco vale la candela, vale a dire quasi mai per il 99% dei programmatori.

P.S.: in assembly non si scrive quasi più nemmeno per i microcontroller con 15KB di memoria in croce. per ogni altro contesto il costo di sviluppo è semplicemente fuori scala sotto ogni possibile metrica

P.P.S.: no, il SW oggi è molto meno bacato di quanto non lo fosse 30 anni fa, o ci siamo scordati com'era vivere senza protezione della memoria, journaling, segfault a pioggia in produzione, race conditions continue, thread e scheduling policy che se facevi diamond lock su 4 semafori dovevi fisicamente staccare la corrente al server per uscirne, paging... ci stiamo fino a domani.
sono l'aspetto funzionale, quello della sicurezza e delle esigenze di scalabilità avendo macchine connesse ad essere esplosi negli ultimi anni, e che si fa sempre più fatica a testare.
roba alla CP2077 è l'esempio di quanto i misbehaviour funzionali siano comuni oggi.
gmaps ed il lavorare con formati "comodi" sono ciò che ti permette di averle gmaps in tasca. si può fare meglio, ma corre il rischio di arrivare a fine 2023 aspettando ancora gmaps v1.0.
i fatal error -quelli brutti-, pur ormai davvero rari, vengono comunque sempre dai pezzi scritti a più basso livello per i quali non si può fare altrimenti, C/C++ in primis, e sicuro c'è pure ancora un po' di assembly in giro: driver, SO e vari "engine".

ningen
23-10-2023, 12:15
Mi spiace dirlo, ma quelli di Remedy sono abbastanza scarsi tecnicamente.
Quantum break era tecnicamente un disastro, sopratutto su PC.
Control girava di merda ed era un mattonazzo sia su console (con la versione ps4 che raggiungeva fps al di sotto del giocabile) che su PC.
Questo Alan wake 2 sembra confermare la tendenza e per quanto ho visto la resa visiva non giustifica assolutamente questi requisiti fuori di testa.
Partiamo male.

Titanox2
23-10-2023, 14:04
master race

Saturn
23-10-2023, 14:18
Quanto costerà al day1 quest'altra mostruosità ? 120€, basteranno ??? :rolleyes:

Arkas000
23-10-2023, 17:45
Potrei essere d'accordo nelle lamentele sulla pesantezza se il gioco fosse tecnologicamente pari a giochi di 10 anni fa ma 20 volte più pesante.
Ma qui parliamo di sfruttare l'hardware attualmente disponibile per ottenere un risultato visivamente appagante con meno compromessi possibile.

Mi infastidisce quando la gente parla di ottimizzazione senza manco sapere cosa significa e quale sia il workflow di sviluppo di un videogioco.

Ogni epoca videoludica richiede delle ottimizzazioni legate al tipo di hardware che si ha a disposizione. Se io sviluppo un gioco su una riva tnt2 o su una ps1 e voglio renderlo realistico, devo necessariamente eliminare buona parte dei modelli 3d sostituendoli con delle immagini statiche prerenderizzate per dare l'illusione che il gioco abbia l'effetto wow.

Se voglio sviluppare un gioco realistico open world per una radeon 2900xt, devo prerenderizzare gran parte dell'illuminazione, ridurre il numero di poligoni in secondo piano e la risoluzione delle texture, usare lod brutali e rimuovere totalmente gran parte degli asset visibili oltre i 10metri di distanza, limitare le luci dinamiche al minimo indispensabile perché una luce in più tronca il framerate del 30%.

Ogni anno che passa, semplicemente, gli sviluppatori hanno la possibilità di concentrarsi di più sulla parte visiva senza dover più scendere a compromessi e limitare la vena creativa.

Se ad esempio un gioco nascesse totalmente in path tracing, sarebbe sì un mattone, ma sbloccherebbe potenzialità creative che oggi ancora neanche ci sogniamo a causa dei vincoli causati dalla prerenderizzazione.

Goofy Goober
24-10-2023, 07:00
ma andate a rubare!

ah no, lo state già facendo....

:asd:

StylezZz`
24-10-2023, 07:33
Potrei essere d'accordo nelle lamentele sulla pesantezza se il gioco fosse tecnologicamente pari a giochi di 10 anni fa ma 20 volte più pesante.
Ma qui parliamo di sfruttare l'hardware attualmente disponibile per ottenere un risultato visivamente appagante con meno compromessi possibile.

Mi infastidisce quando la gente parla di ottimizzazione senza manco sapere cosa significa e quale sia il workflow di sviluppo di un videogioco

Tolto il ray/path tracing non mi sembra graficamente eccelso da giustificare simili requisiti anche in raster.

bobby10
24-10-2023, 08:36
Potrei essere d'accordo nelle lamentele sulla pesantezza se il gioco fosse tecnologicamente pari a giochi di 10 anni fa ma 20 volte più pesante.
Ma qui parliamo di sfruttare l'hardware attualmente disponibile per ottenere un risultato visivamente appagante con meno compromessi possibile.

Mi infastidisce quando la gente parla di ottimizzazione senza manco sapere cosa significa e quale sia il workflow di sviluppo di un videogioco.

Ogni epoca videoludica richiede delle ottimizzazioni legate al tipo di hardware che si ha a disposizione. Se io sviluppo un gioco su una riva tnt2 o su una ps1 e voglio renderlo realistico, devo necessariamente eliminare buona parte dei modelli 3d sostituendoli con delle immagini statiche prerenderizzate per dare l'illusione che il gioco abbia l'effetto wow.

Se voglio sviluppare un gioco realistico open world per una radeon 2900xt, devo prerenderizzare gran parte dell'illuminazione, ridurre il numero di poligoni in secondo piano e la risoluzione delle texture, usare lod brutali e rimuovere totalmente gran parte degli asset visibili oltre i 10metri di distanza, limitare le luci dinamiche al minimo indispensabile perché una luce in più tronca il framerate del 30%.

Ogni anno che passa, semplicemente, gli sviluppatori hanno la possibilità di concentrarsi di più sulla parte visiva senza dover più scendere a compromessi e limitare la vena creativa.

Se ad esempio un gioco nascesse totalmente in path tracing, sarebbe sì un mattone, ma sbloccherebbe potenzialità creative che oggi ancora neanche ci sogniamo a causa dei vincoli causati dalla prerenderizzazione.

L impressione che si ha è che tecnologie come dlss e fsr offrano agli sviluppatori un margine di prestazioni in più che gli consente di fare un lavoro di ottimizzazione peggiore di prima.
Cioè sono tecnologie che dovrebbero andare a vantaggio nostro e non loro in questi termini.
Potevano essere qualcosa in più (per quanto a me non piacciono) ma se ce li piazzano come obbligatori nei requisiti minimi per riuscire a giocare bene (1080p?!) e con pc pure costosi allora sono cazzi..

bagnino89
25-10-2023, 09:38
Tolto il ray/path tracing non mi sembra graficamente eccelso da giustificare simili requisiti anche in raster.

Quoto.