PDA

View Full Version : Vampyr: da NVIDIA i requisiti di sistema estesi della versione PC


Redazione di Hardware Upg
10-05-2018, 17:01
Link alla notizia: https://gaming.hwupgrade.it/news/videogames/vampyr-da-nvidia-i-requisiti-di-sistema-estesi-della-versione-pc_75837.html

Il nuovo action RPG di DONTNOD Entertainment è in arrivo su PC, PlayStation 4 e Xbox One il prossimo 5 giugno

Click sul link per visualizzare la notizia.

Gyammy85
10-05-2018, 17:18
Mi sarei aspettato "1080ti 60 fps high-1180 30 fps ultra" o cose così :fagiano:

E già la gente a mettere i soldi da parte per la 2080 da 60 fps ultra :asd:

No no, ancora dx11, dai che ancora non son passati neanche 8 anni, dai dai

monster.fx
10-05-2018, 18:11
Interessanti gli ultimi giochi e i loro requisiti.

Ma quanto sono rispettati?

Vedendo questi la mia config in firma ha ancora tanto da dire.

Penso che la R9 sia il miglior acquisto fatto... finchè si vuol giocare in FHD.

CrapaDiLegno
10-05-2018, 20:05
Mi sarei aspettato "1080ti 60 fps high-1180 30 fps ultra" o cose così :fagiano:

E già la gente a mettere i soldi da parte per la 2080 da 60 fps ultra :asd:

Già, e io mi aspettavo qualche battuta migliore dal rosicone fanboy AMD per eccellenza del forum.

No no, ancora dx11, dai che ancora non son passati neanche 8 anni, dai dai
Manco che con le DX12 avessimo visto questi capolavori diversi dalle DX11 :rolleyes:
Ah, no, è vero.. DX12 = :mc: per gli AMD fanboy

thresher3253
10-05-2018, 20:29
No no, ancora dx11, dai che ancora non son passati neanche 8 anni, dai dai

Fino a quando quasi la metà degli utenti continuerà a usare hardware dx11 (fonte: Steam) ce le terremo ancora per molti anni.

Gyammy85
10-05-2018, 20:29
Già, e io mi aspettavo qualche battuta migliore dal rosicone fanboy AMD per eccellenza del forum.


Manco che con le DX12 avessimo visto questi capolavori diversi dalle DX11 :rolleyes:
Ah, no, è vero.. DX12 = :mc: per gli AMD fanboy

Ammetterai che è stucchevole sta storia ormai, ai tempi delle 8800 gtx patchavano dx10 pure campo minato :asd:
Eh dopo quantum break in dx12 l'ordine è preciso, #fearthefuture :fagiano:

Gyammy85
10-05-2018, 20:30
Fino a quando quasi la metà degli utenti continuerà a usare hardware dx11 (fonte: Steam) ce le terremo ancora per molti anni.

Quasi la metà, perché più dell'altra metà usa win 10 :asd:
Ancora per molti anni, fortuna che nel 2000 la clientela era diversa, altrimenti saremmo ancora con le dx7

thresher3253
10-05-2018, 20:37
Non la vedo come una cosa necessariamente negativa, anche perchè le nuove librerie comincieranno a essere seriamente utili solo nella prossima generazione. Se le dx12 devono essere come le 10 ai tempi preferisco aspettare che i tempi siano maturi invece di fare la corsa all'upgrade per avere differenze inesistenti in termini grafici.

TigerTank
10-05-2018, 20:42
Se quelli sono i requisiti con il preset maxato, di sicuro si guadagnerà qualcosa in framerate sacrificando alcuni soliti effetti mattone :D

Quoto sulle dx12, se non mature meglio restare alle dx11, già si sono visti titoli passati andare meglio in dx11 piuttosto che con le nuovissime dx12...

OvErClOck82
10-05-2018, 21:16
Se quelli sono i requisiti con il preset maxato, di sicuro si guadagnerà qualcosa in framerate sacrificando alcuni soliti effetti mattone :D

Quoto sulle dx12, se non mature meglio restare alle dx11, già si sono visti titoli passati andare meglio in dx11 piuttosto che con le nuovissime dx12...

non è che maturano da sole però eh, non si sta parlando di frutta :D se non ci si mettono a svilupparle...

OttoVon
10-05-2018, 21:28
non è che maturano da sole però eh, non si sta parlando di frutta :D se non ci si mettono a svilupparle...

Chi le ha partorite per "recuperare terreno" dovrebbe continuare a svilupparle.:D


ps. Con le prossime gtx anche nvidia dovrebbe essere dx12 proof, quindi sono sicuro che uno dei due spingerà per sviluppare le 13.
Onestamente credo le 12 finiranno come le 10.

TigerTank
10-05-2018, 21:32
non è che maturano da sole però eh, non si sta parlando di frutta :D se non ci si mettono a svilupparle...

Ovvio, però se devono implementarle tanto vale che lo facciano bene piuttosto che situazioni dove setti le dx11 per "disperazione" :D

OvErClOck82
10-05-2018, 22:11
Ovvio, però se devono implementarle tanto vale che lo facciano bene piuttosto che situazioni dove setti le dx11 per "disperazione" :D

su quello sfondi una porta apertissima :muro:

CrapaDiLegno
10-05-2018, 22:12
Ammetterai che è stucchevole sta storia ormai, ai tempi delle 8800 gtx patchavano dx10 pure campo minato :asd:
Eh dopo quantum break in dx12 l'ordine è preciso, #fearthefuture :fagiano:

Sicuro, ecco perché nvidia ha una nuova architettura pronta da oltre 6 mesi e sta solo aspettando che Pascal smetta di essere richiesto come il pane per lanciarla (e fare ancora più soldi). Lo sta facendo perché ha paura del futuro e vuole vendere tutto prima che AMD esca con qualcosa di tremendamente "moderno"... tipo una architettura che non richieda una centrale nucleare e mezzo chilometro quadro di silicio per fare lo stesso lavoro di Pascal: è ovvio che teme la tecnologia di AMD come non mai... pensa che già stanno usando l'HBM sulle schede consumer mentre nvidia, incapace, sta aspettando le GDDR6 :rolleyes:

Ah, no, forse (ma forse) la temerà a fine 2019 quando arriverà Navi. Nel frattempo in nvidia devono stare attenti al fegato che sono 6 anni di fila che bevono champagne dalla mattina alla sera senza mai aver smesso un solo giorno.

Chi le ha partorite per "recuperare terreno" dovrebbe continuare a svilupparle.:D
Già, facendo estensioni personalizzate alla propria architettura.. eh già, il pericolo per il mercato sono i gameworks..


ps. Con le prossime gtx anche nvidia dovrebbe essere dx12 proof
In verità nvidia è già completamente DX12 proof

nickname88
11-05-2018, 07:01
Qualcuno veramente prende questo titolo come riferimento per le nuove uscite ? :rolleyes:

Gyammy85
11-05-2018, 07:51
Sicuro, ecco perché nvidia ha una nuova architettura pronta da oltre 6 mesi e sta solo aspettando che Pascal smetta di essere richiesto come il pane per lanciarla (e fare ancora più soldi). Lo sta facendo perché ha paura del futuro e vuole vendere tutto prima che AMD esca con qualcosa di tremendamente "moderno"... tipo una architettura che non richieda una centrale nucleare e mezzo chilometro quadro di silicio per fare lo stesso lavoro di Pascal: è ovvio che teme la tecnologia di AMD come non mai... pensa che già stanno usando l'HBM sulle schede consumer mentre nvidia, incapace, sta aspettando le GDDR6 :rolleyes:

Ah, no, forse (ma forse) la temerà a fine 2019 quando arriverà Navi. Nel frattempo in nvidia devono stare attenti al fegato che sono 6 anni di fila che bevono champagne dalla mattina alla sera senza mai aver smesso un solo giorno.


Ma smettila con sta storia su, l'abbiamo vista la superscheda di 6 mesi fa da 3000 euro, che paura, uuuuhhhh :asd: :rolleyes:
Lo dico per loro, si ritroveranno schede nuove che vanno come le vecchie occate, se non ci mettono riparo...poi boh, se vogliono diventare una marca che va avanti solo per il nome e tatuaggi di techtuber...cosa succede esattamente se programmano qualcosa che non fa lavorare solo i geo engine di nvidia? sale lo spread?

Qualcuno veramente prende questo titolo come riferimento per le nuove uscite ? :rolleyes:

No, però verrà inserito immediatamente nelle review, mentre altra roba tipo dirt 4 è stata polverizzata con disonore, quando per 2 anni il rompimento in ogni review era dirt rally, chissà perché...

Proprio non ce la fai a fomentare sempre la tua privata VGA war.... Di stucchevole ci sono solo i tuoi soliti ed inutili commenti... Ma quando la finirai con sta crociata? Infili nVidia vs AMD sempre e comunque.... Mah...:rolleyes: :muro:

Era solo una constatazione, penso che anche l'utenza nvidia vorrebbe vedere qualcosa di nuovo, ti ricordi l'ue4 dx12 only altro che ste cosine patchate? Negli indie dai 2 ai 20 euro lo hanno cacciato...

Gyammy85
11-05-2018, 08:09
Le tue "considerazioni" esclusivamente a senso unico, con quel classico velo del pianto/lamento/gombloddo sono pari all'ironia berlusconiana nel dare del kapó a schultz al parlamento europeo o dell'abbronzato ad Obama... "ironia".... Si parla di un gioco che probabilmente non ti filerai mai e, come per Vega che non hai, sei pronto a date battaglia contro i mulini al vento... Una sorta di scudo spaziale preventivo contro ipotetiche armi di distruzioni di massa... BAH...

E chi piange, ti sei fissato con sta cosa, se faccio ironia è perché negli anni ho visto situazioni simili, e vedo che le cose non cambiano

bagnino89
11-05-2018, 08:30
Sicuro, ecco perché nvidia ha una nuova architettura pronta da oltre 6 mesi e sta solo aspettando che Pascal smetta di essere richiesto come il pane per lanciarla (e fare ancora più soldi). Lo sta facendo perché ha paura del futuro e vuole vendere tutto prima che AMD esca con qualcosa di tremendamente "moderno"... tipo una architettura che non richieda una centrale nucleare e mezzo chilometro quadro di silicio per fare lo stesso lavoro di Pascal: è ovvio che teme la tecnologia di AMD come non mai... pensa che già stanno usando l'HBM sulle schede consumer mentre nvidia, incapace, sta aspettando le GDDR6 :rolleyes:

:asd:

Comunque, a leggere certi commenti, sembra che le GPU Nvidia non funzionino con le DX12... :rolleyes:

lucusta
11-05-2018, 09:14
Già, e io mi aspettavo qualche battuta migliore dal rosicone fanboy AMD per eccellenza del forum.


Manco che con le DX12 avessimo visto questi capolavori diversi dalle DX11 :rolleyes:
Ah, no, è vero.. DX12 = :mc: per gli AMD fanboy

attento che quello che scrivi sarà un boomerang...

forse rideranno i fanboys delle AMD quando nvidia presenterà (finalmente) una VERA architettura DX12 proof senza ricorrere al massiccio uso dei driver e lasciare per strada il 10% minimo delle prestazioni.

forse non lo vedremo neanche per la prossima generazione, che assomiglia tanto ad una nuova iterazione maxwell ipervitaminizzata, ma, prima o poi, dovrà farlo anche lei (non è che si può aspettare che sprema prima tutti i limoni!)

nickname88
11-05-2018, 09:17
No, però verrà inserito immediatamente nelle review, mentre altra roba tipo dirt 4 è stata polverizzata con disonore, quando per 2 anni il rompimento in ogni review era dirt rally, chissà perché...
Ma quando ? :asd:
I riferimenti ludici dal punto di vista dei test grafici erano ben altri.
Comunque sia Dirt Rally è vecchio oramai tecnicamente parlando.

lucusta
11-05-2018, 09:17
:asd:

Comunque, a leggere certi commenti, sembra che le GPU Nvidia non funzionino con le DX12... :rolleyes:

no, vanno solo meno, perchè caricano ancora di più del normale il lavoro sui driver, visto che fanno tutto in software.
e se già oggi i processori annaspano, figurati a fagli fare un lavoro ancora più elevato sul thread principale cosa ne esce fuori.:ciapet:

si dovrebbe poi andare a guardare, a quel punto, la famigerata efficienza delle pascal (come ancora riporti in firma).

nickname88
11-05-2018, 09:19
forse rideranno i fanboys delle AMD quando nvidia presenterà (finalmente) una VERA architettura DX12 proof senza ricorrere al massiccio uso dei driver e lasciare per strada il 10% minimo delle prestazioni.


no, vanno solo meno, perchè caricano ancora di più del normale il lavoro sui driver, visto che fanno tutto in software.
e se già oggi i processori annaspano, figurati a fagli fare un lavoro ancora più elevato sul thread principale cosa ne esce fuori.:ciapet:

si dovrebbe poi andare a guardare, a quel punto, la famigerata efficienza delle pascal (come ancora riporti in firma).
Ma dove li tiri fuori sti argomenti ? :asd:
Le solite allucinazioni senza uno straccio di prova come tuo solito.

lucusta
11-05-2018, 09:40
O sembra che le DX12 offrano chissà quale boost grafico :asd:


se parli di grafica per le Dx12, credo che non hai compreso a cosa servano.
distribuiscono meglio il lavoro su più cores, riuscendo a sfruttare in modo più opportuno i multicore.
finchè però ci sono aziende che continuano a far gestire l'uso fine delle risorse della GPU ai drivers (nello specifico lo scheduling software), visto che questi operano soprattutto su un solo ed unico thread, agli sviluppatori non dai molte alternative e useranno le Dx12 per come è il panorama del mercato, ossia alla stregua delle DX11.3, senza cercare di omogenizzare il carico dei thread sui multicore.
d'altra parte, distribuendo opportunamente il carico su più cores, hai anche la possibilità di sfruttare a fondo GPU molto complesse aumentando il livello grafico, pechè non soffrirai più del limite della massima frequenza che può fornire il core che regge il thread principale...

è il cane che si morde la coda, in pratica.

non puoi aumentare il livello grafico perchè le CPU non ce la farebbero;
non puoi sfruttare librerie che distribuiscono meglio i carichi perchè il 70% del mercato usa GPU che scaricano troppo lavoro sulla CPU.
risultato?
anche con soluzioni GPU medie ti ritrovi la CPU al limite con pochi cores usati, sia con A che con B, perchè il gioco dev'essere usato per come dice A, anche se B potrebbe farlo da anni.

...e poi leggi sui forum i soliti che dicono che le nvidia sono la migliore tecnologia sul mercato...
(forse di questo mercato tecnologicamente e forzatamente fermo da 10 anni... a no... ora c'è il meme real time ray tracing, da poter fare solo con una scheda da 3000 euro per 2 effetti in croce!)

lucusta
11-05-2018, 09:40
Ma dove li tiri fuori sti argomenti ? :asd:
Le solite allucinazioni senza uno straccio di prova come tuo solito.

dai grafici di utilizzo delle CPU (quelli che raramente ti mostrano per singolo core logico).

lucusta
11-05-2018, 09:42
Fino a quando quasi la metà degli utenti continuerà a usare hardware dx11 (fonte: Steam) ce le terremo ancora per molti anni.

è questa la realtà dei fatti.
nessuno sviluppa per soluzioni poco usate (anche se sia AMD che Intel sono DX12 proof da un bel pezzo).

nickname88
11-05-2018, 09:45
dai grafici di utilizzo delle CPU (quelli che raramente ti mostrano per singolo core logico).
L'utilizzo CPU ti fu già mostrato con varia video confronti.
E misurare la differenza nella scalabilità delle VGA da 1080p a 4K non centra una beata mazza.

Quando avrai altro di concreto ( ossia nell'atto pratico ) fra le mani a parte teorie complottistiche e dicerie di Thg faccelo sapere .... Eh no bollare come "falsi" ogni video che confuta quello che tu dici non è una giustificazione.

lucusta
11-05-2018, 09:49
lucusta, ma perché ti ostini a fare ragionamenti e discorsi seri? lascia perdere, fai come gyammy anche tu.

contano le barrette colore dei benchmark, il come lo si raggiunge e perché non importa :sofico:

perchè ne meni 3, ne salvi 10.

bagnino89
11-05-2018, 09:49
no, vanno solo meno, perchè caricano ancora di più del normale il lavoro sui driver, visto che fanno tutto in software.
e se già oggi i processori annaspano, figurati a fagli fare un lavoro ancora più elevato sul thread principale cosa ne esce fuori.:ciapet:

si dovrebbe poi andare a guardare, a quel punto, la famigerata efficienza delle pascal (come ancora riporti in firma).

Ma vanno meno dove...

In quei rari giochi dove è possibile selezionare sia DX 11 che 12 (es. Rise of the Tomb Raider) le Nvidia vanno allo stesso modo.

Sul tuo concetto di efficienza, meglio non commentare...

Comunque ti ribadisco che anche chi usa GPU AMD potenti deve avere CPU adeguate, altrimenti annaspano pure loro.

Ma dove li tiri fuori sti argomenti ? :asd:
Le solite allucinazioni senza uno straccio di prova come tuo solito.

Esatto, parole a vanvera quando i benchmark/test raccontano tutt'altro.

La verità è che le DX 12 sono state un fail, punto. Quasi peggio delle DX 10.

lucusta, ma perché ti ostini a fare ragionamenti e discorsi seri? lascia perdere, fai come gyammy anche tu.

contano le barrette colore dei benchmark, il come lo si raggiunge e perché non importa :sofico:

Ah beh, se lui fa discorsi e ragionamenti seri, siamo veramente apposto. :asd:

Il come si raggiunge e perché sarebbe interessante da sapere, certo, ma non è come pensano i soliti fanboy AMD (più che altro: denigratori seriali di Nvidia) che vedono tutto un complotto, colori finti, supercompressioni, filtri non applicati, driver che regalano i FPS, ecc.

La verità è una sola: l'architettura Nvidia degli ultimi anni è superiore, fine della storia.

lucusta
11-05-2018, 09:52
L'utilizzo CPU ti fu già mostrato con varia video confronti.
E misurare la differenza nella scalabilità delle VGA da 1080p a 4K non centra una beata mazza.

Quando avrai altro di concreto ( ossia nell'atto pratico ) fra le mani a parte teorie complottistiche e dicerie di Thg faccelo sapere .... Eh no bollare come "falsi" ogni video che confuta quello che tu dici non è una giustificazione.

ehm... quando l'hai fatto ti son state date risposte ben precise, ma non le hai volute ascoltare.
i processori possono essere usati in molti modi, ma il modo più sbagliato per usare un octacore è usarlo con le DX11 (un pò meglio sulle Dx11.3, ma non così tanto).
ricordati che se porti esempi devi portare anche la contro prova: anche stesso screening con una soluzione diversa, ossia con AMD.

... e scusa se bollo falsi i soliti video che porti del solito tizio...

lucusta
11-05-2018, 09:56
Rise of the Tomb Raider
Rise of Tomb Raider?
hahahahahahahahah
ma bell'intelligentone, pensaci un attimo:
tu credi realmente che gli sviluppatori abbiano scritto ROTR sia in DX11 che in DX12 o piuttosto lo hanno fatto in DX12 tier 1 con retrocompatibilità 11?

e le DX12 tier 1 non sono altro che un modo diverso per chiamare le DX11.3.

qui parliamo di AC; è quello che serve per distribuire il carico sui core, non una sigla.


Esatto, parole a vanvera quando i benchmark/test raccontano tutt'altro.

mostrano, non raccontano.

semmai raccontano di una storia ormai conclamata: AC non è usato nei giochi perchè se viene usato le nvidia collassano nelle prestazioni.
scrivere 2 volte lo stesso identico gioco per DX12 con AC e per le nvidia?
ma chi li paga?
(a già... di solito li paga nvidia!).

ed a posto si scrive A separato da POSTO, non devi mica mettere qualcosa su qualche altra cosa...

nickname88
11-05-2018, 09:58
ehm... quando l'hai fatto ti son state date risposte ben precise, ma non le hai volute ascoltare.
e scusa se bollo falsi i soliti video che porti del solito tizio

Io ho ottenuto solo una risposta nonostante fonti differenti postate.

Ossia "sono tutte false e servono a spingere la vendita di Nvidia".

Il solito tizio ? Mi pare di averti portato 4 fonti differenti :rolleyes:
Dove per altro continuano a mancare le prove che siano false, che ovviamente come al solito non hai.


i processori possono essere usati in molti modi, ma il modo più sbagliato per usare un octacore è usarlo con le DX11 (un pò meglio sulle Dx11.3, ma non così tanto).
ricordati che se porti esempi devi portare anche la contro prova: anche stesso screening con una soluzione diversa, ossia con AMD.
In molti modi ? :rolleyes:

Controprova de che ? Sei tu che stai avanzando ipotesi, mica io, sei tu che devi portare prove. :asd:
Ah quindi adesso è colpa delle DX11 ? E le prove do stanno ? :asd:

bagnino89
11-05-2018, 10:01
ehm... quando l'hai fatto ti son state date risposte ben precise, ma non le hai volute ascoltare.
i processori possono essere usati in molti modi, ma il modo più sbagliato per usare un octacore è usarlo con le DX11 (un pò meglio sulle Dx11.3, ma non così tanto).
ricordati che se porti esempi devi portare anche la contro prova: anche stesso screening con una soluzione diversa, ossia con AMD.

... e scusa se bollo falsi i soliti video che porti del solito tizio...

Erano risposte che non spiegavano un bel niente. Le tue sono solo becere speculazioni.

Rise of Tomb Raider?
hahahahahahahahah
ma bell'intelligentone, pensaci un attimo:
tu credi realmente che gli sviluppatori abbiano scritto ROTR sia in DX11 che in DX12 o piuttosto lo hanno fatto in DX12 tier 1 con retrocompatibilità 11?

e le DX12 tier 1 non sono altro che un modo diverso per chiamare le DX11.3.

qui parliamo di AC; è quello che serve per distribuire il carico sui core, non una sigla.

Visto che sei così intelligente, porta tu prove allora... E non te ne uscire con scuse del tipo "fare prove simili costa troppo", "tutti le prove che trovi in giro sono inaffidabili/di parte", ecc.

Ribadisco: meglio tacere invece di sparare cavolate senza uno stralcio di prova concreta.

Ma tanto è una battaglia persa.

bagnino89
11-05-2018, 10:05
semmai raccontano di una storia ormai conclamata: AC non è usato nei giochi perchè se viene usato le nvidia collassano nelle prestazioni.

Vogliamo prove concrete e inattaccabili.

Altrimenti sono le solite chiacchiere da bar.

Ma ancora gli date corda, ma mettetelo in ignore, insieme a molti altri, o almeno evitate di quotarli così non sono costretto a leggerli...

Un conto è essere appassionati e discutere, un conto invece è essere "invasati" da un qualcosa di totalmente inutile, ed alla fine non ne viene in tasca nulla a nessuno...

Ormai sono diventati religiosi e pregano il Dio del silicio, quindi pensa come stanno messi...

E di solito chi spende male i propri soldi è proprio chi si fissa, ed infatti la maggioranza parla senza aver mai provato, quindi tutto ciò che viene scritto vale meno di zero ;)

Dio del silicio :asd:

I 7 nm della riscossa!!! :asd:

lucusta
11-05-2018, 10:05
Io ho ottenuto solo una risposta nonostante fonti differenti postate.

Ossia "sono tutte false e servono a spingere la vendita di Nvidia".

Il solito tizio ? Mi pare di averti portato 4 fonti differenti :rolleyes:
Dove per altro continuano a mancare le prove che siano false, che ovviamente come al solito non hai.

erano fonti ricorsive.
un video del solito tizio ed un video di un'altro tizio che prendeva metà schermo del video del solito tizio e ci sovrapponeva il suo...
bel modo di fare test.

m'avete annoiato...
continuate a foraggiare chi ci lascia al palo tecnologicamente solo per convenienza economica e che, quando cambierà (perchè cambierà), renderà il vostro HW quello che è.... una cosa giurassica.

nickname88
11-05-2018, 10:07
Vogliamo prove concrete e inattaccabili.

Se ciao .... :asd:

lucusta
11-05-2018, 10:08
Vogliamo prove concrete e inattaccabili.

Altrimenti sono le solite chiacchiere da bar.


ci sono le evidenze e si ragiona su queste.
per darti prove concrete dovrei fartelo io un gioco in AC, visto che non ne esiste uno che sfrutti effettivamente le valenze delle DX12.
hai mai visto ryzen sulla maggior parte dei giochi?
sembra un dislessico: un core a saturazione e 7 a guardarlo.

nickname88
11-05-2018, 10:09
erano fonti ricorsive.
un video del solito tizio ed un video di un'altro tizio che prendeva metà schermo del video del solito tizio e ci sovrapponeva il suo...
bel modo di fare test.

m'avete annoiato...
continuate a foraggiare chi ci lascia al palo tecnologicamente solo per convenienza economica e che, quando cambierà (perchè cambierà), renderà il vostro HW quello che è.... una cosa giurassica.Tu hai sicuramente fumato qualcosa di pesante.
Non c'è altra spiegazione.

Lino P
11-05-2018, 10:09
Ammetterai che è stucchevole sta storia ormai, ai tempi delle 8800 gtx patchavano dx10 pure campo minato :asd:
Eh dopo quantum break in dx12 l'ordine è preciso, #fearthefuture :fagiano:

quoto.
Ricordo il primo crysis in cui con un edit di cnfg di pochi Kb, si abilitavano gli "effetti dx10" anche su win XP :sbonk: :sbonk: :sbonk:
Ho smesso di comprare hardware proprio in quel periodo... peccato per tutti, ero un buon cliente.. Bastava non farmi passare la voglia e ne avrebbe tratto giovamento ancora un bel po' di gente :p

nickname88
11-05-2018, 10:11
ci sono le evidenze e si ragiona su queste.
per darti prove concrete dovrei fartelo io un gioco in AC, visto che non ne esiste uno che sfrutti effettivamente le valenze delle DX12.
hai mai visto ryzen sulla maggior parte dei giochi?
sembra un dislessico: un core a saturazione e 7 a guardarlo.Magari perchè il core saturo di cui parli è quello assegnato al rendering ? Che è il processo principale.

La grande differenza di carico dei vari thread in ambito ludico è il motivo per cui le applicazioni ludiche non si prestano facilmente al MT e più aumentano i cores e più sarà difficile sfruttare la CPU.

Quindi in generale non hai prove. :rolleyes:

bagnino89
11-05-2018, 10:18
continuate a foraggiare chi ci lascia al palo tecnologicamente solo per convenienza economica e che, quando cambierà (perchè cambierà), renderà il vostro HW quello che è.... una cosa giurassica.

Certo, è Nvidia quella al palo tecnologicamente. Invece AMD sta talmente avanti in campo tecnologico che, alla fine, sta dietro ad Nvidia in performance.

ci sono le evidenze e si ragiona su queste.
per darti prove concrete dovrei fartelo io un gioco in AC, visto che non ne esiste uno che sfrutti effettivamente le valenze delle DX12.
hai mai visto ryzen sulla maggior parte dei giochi?
sembra un dislessico: un core a saturazione e 7 a guardarlo.

Ma allora lo vedi che le tue sono solo speculazioni... E' inutile fantasticare su cose che non è possibile provare.

In merito a Ryzen, smentisco categoricamente (ho un 1600X). Come sempre, dipende da gioco a gioco. E nei giochi, parallelizzare su tutti i thread disponibili, non è facile come pensi tu.

io so soltanto che le DX11 ci sono dal 2009, le DX12 dal 2015 e di quest'ultime non si è vista manco l'ombra in 3 anni eppure Win10 è il SO più utilizzato :D

Gombloddo

Vero, ma di è la colpa? Delle DX 12 che sono più difficili da programmare rispetto alle DX 11 - e non sembrano dare vantaggi tangibili rispetto alle DX 11 - o di Nvidia che sta ordendo un complotto internazionale e vuole lasciarci "al palo tecnologicamente"?

nickname88
11-05-2018, 10:23
Vero, ma di è la colpa? Delle DX 12 che sono più difficili da programmare rispetto alle DX 11 - e non sembrano dare vantaggi tangibili rispetto alle DX 11 - o di Nvidia che sta ordendo un complotto internazionale e vuole lasciarci "al palo tecnologicamente"?Per almeno uno in questa discussione è la seconda :asd:

Lino P
11-05-2018, 10:29
facevo questo discorso con un mio collega saranno 8 anni fa... ti facevano cambiare hardware con la scusa del software... adesso manco più quella scusa ci sarebbe dato che le DX12 sono come Godot, le stiamo ancora aspettando , eppure c'è chi si ostina a cambiare hardware anche per un +10~20% :D contenti loro :) https://www.hwupgrade.it/forum/showpost.php?p=45542237&postcount=39651
ps. c'è da dire che sulle cpu c'è chi fa peggio, c'è chi cambia cpu per un 5~10% :sofico:

eh certo.. è il componente + importante e influente per le prestazioni in game :doh:

thresher3253
11-05-2018, 10:31
La verità è una sola: l'architettura Nvidia degli ultimi anni è superiore, fine della storia.

Vabbé non ci vuole molto a capirlo: basta guardare i benchmark e il rapporto street price/performance e i dati parlano da soli.
Lo dico da acquirente AMD che comunque sa di ottenere leggermente meno della concorrenza senza neanche andare a tirare elucubrazioni da ingegnere informatico che all'utente finale fregano meno di un cazzo. Continueró in futuro a comprare AMD per una questione strettamente "morale", se così possiamo dire, ma se volessi pensare esclusivamente alle prestazioni mi sembra chiaro che una 1170 sarà la scelta giusta in futuro.

Gyammy85
11-05-2018, 10:38
ora c'è il meme real time ray tracing, da poter fare solo con una scheda da 3000 euro per 2 effetti in croce!)

Hai colto nel segno :asd:

facevo questo discorso con un mio collega saranno 8 anni fa... ti facevano cambiare hardware con la scusa del software... adesso manco più quella scusa ci sarebbe dato che le DX12 sono come Godot, le stiamo ancora aspettando , eppure c'è chi si ostina a cambiare hardware anche per un +10~20% :D contenti loro :) https://www.hwupgrade.it/forum/showpost.php?p=45542237&postcount=39651
ps. c'è da dire che sulle cpu c'è chi fa peggio, c'è chi cambia cpu per un 5~10% :sofico:

Già mi immagino i "vabbè anche se va solo quanto la 1080ti super oc che ho la cambio dato che è sicuramente più futur pruuf" e giù di pacche sulle spalle :sofico:

bagnino89
11-05-2018, 10:45
Ripeto io non lo so di chi sia la colpa, ma se una delle 2 ha in mano il mercato qualche dubbio ti potrà sorgere?
Perché ci sono quei giochi sporadici dove le amd recuperano parecchio terreno?
Sicuramente nVidia investe nelle software house più di quanto faccia AMD, e a questo tipo di sistema ci siamo abituati, ricordo quando Intel taroccava il compilatore di windows per esempio...

Che Nvidia abbia più potere contrattuale di AMD è palese, però non credo che il fallimento delle DX 12 sia dovuto all'ostracismo di Nvidia. Dubito fortemente che Nvidia stia limitando l'uso delle DX 12 da parte degli sviluppatori perché altrimenti la concorrenza potrebbe avvantaggiarsene, o loro essere penalizzati.

Piuttosto, credo che su PC un po' tutti le snobbino perché sono complicate da usare (premessa: io non sono un programmatore, ma più volte ho letto persone esperte parlare della differenza DX 11/12) e i vantaggi non sembrano essere significativi.

I giochi dove le AMD vanno meglio sono giochi "sponsored by AMD", secondo me non è tanto una questione di librerie ma di ottimizzazioni ad hoc. Prendi FC5: è in DX 11, ma va meglio sulle AMD perché è stato sviluppato ad hoc per AMD.

Gyammy85
11-05-2018, 10:50
Che Nvidia abbia più potere contrattuale di AMD è palese, però non credo che il fallimento delle DX 12 sia dovuto all'ostracismo di Nvidia. Dubito fortemente che Nvidia stia limitando l'uso delle DX 12 da parte degli sviluppatori perché altrimenti la concorrenza potrebbe avvantaggiarsene, o loro essere penalizzati.

Piuttosto, credo che su PC un po' tutti le snobbino perché sono complicate da usare (premessa: io non sono un programmatore, ma più volte ho letto persone esperte parlare della differenza DX 11/12) e i vantaggi non sembrano essere significativi.

I giochi dove le AMD vanno meglio sono giochi "sponsored by AMD", secondo me non è tanto una questione di librerie ma di ottimizzazioni ad hoc. Prendi FC5: è in DX 11, ma va meglio sulle AMD perché è stato sviluppato ad hoc per AMD.

Mi sembra estremamente improbabile che sia così complesso scrivere in dx12, dire "non ci siamo abituati" è una frase fatta come "si stava meglio quando si stava peggio".
Da che mondo è mondo, con le dx nuove puoi come minimo programmare gli stessi effetti delle vecchie ma in minor tempo e con poche righe di codice, se tutti continuano col vecchio ammetterai che uno due domande se le fa.

bagnino89
11-05-2018, 11:05
Mi sembra estremamente improbabile che sia così complesso scrivere in dx12, dire "non ci siamo abituati" è una frase fatta come "si stava meglio quando si stava peggio".

Da quanto ne so io non è complesso, è più difficile. E richiede un cambio di paradigma nella programmazione.

Da che mondo è mondo, con le dx nuove puoi come minimo programmare gli stessi effetti delle vecchie ma in minor tempo e con poche righe di codice, se tutti continuano col vecchio ammetterai che uno due domande se le fa.

Sei un programmatore? Come fai a dire che ci vuole minor tempo e codice? A me non risulta.

Tutti continuano col vecchio perché non trovano vantaggi tecnici/economici per cambiare. C'è giusto Microsoft, che pur di farle usare venderebbe la madre di Gates... E poi ci ritroviamo giochi sul meraviglioso store Windows che pesano, in media, 100 GB (del tutto ingiustificati). Se poi per te Quantum Break è il futuro... E perché non Gears of War 4?

Ma detto questo... Io so cosa pensano alcuni dei fanboy AMD più scatenati (o detrattori Nvidia, in genere le cose si equivalgono). La questione è: AMD è bravissima, guarda al futuro e le sue architetture supportano già le DX 12 al massimo. Invece Nvidia, che non è generosa come AMD ma pensa solo al vile denaro, siccome o non è in grado di sviluppare un'architettura buona come quella AMD con le DX 12 (ipotesi folle, ma sono sicuro che è il sogno proibito di molti qua dentro) oppure non vuole appositamente "ammodernarsi" per continuare a far fruttare le sue architetture esistenti, allora sfrutta tutto il suo potere contrattuale per ostacolare la diffusione delle DX 12. Teorie del complotto praticamente, ma sicuramente affascinanti ed in grado di fare presa sui detrattori più accaniti.

nickname88
11-05-2018, 11:15
Con le dx nuove puoi come minimo programmare gli stessi effetti delle vecchie ma in minor tempo e con poche righe di codice

https://www.tomshw.it/la-scheda-directx-12-i-giochi-sono-pochi-perche-83277

a fronte di maggiori tempi e costi di sviluppo, le DX12 consentono di sfruttare ogni singolo gigaflop di potenza di calcolo della GPU e di ridurre l'overhead sulla CPU.

Tuttavia, se un gioco riesce a fornire prestazioni soddisfacenti senza richiedere troppe risorse, è chiaro che nessuno sviluppatore sia invogliato a investire più tempo e denaro per implementare le DX12 al posto delle DX11

29Leonardo
11-05-2018, 11:15
Io vi ricordo che un gioco come mafia (il primo, quindi dx8 credo) aveva features che manco il successivo aveva con dx 11 + quel fail di physx, quindi dx12 e compagnia bella rimangono solo numeretti per i complessati degli upgrade quando è la sostanza a mancare.

nickname88
11-05-2018, 11:19
Io vi ricordo che un gioco come mafia (il primo, quindi dx8 credo) aveva features che manco il successivo aveva con dx 11 + quel fail di physx, quindi dx12 e compagnia bella rimangono solo numeretti per i complessati degli upgrade quando è la sostanza a mancare.
In realtà la realtà dice solamente che le DX12 non han preso piede per ora e basta.
Detto ciò quì a pochi frega qualcosa delle DX12, chi ha aggiornato la VGA all'ultima serie non è stato di certo per le DirectX :rolleyes:

Io vi ricordo che un gioco come mafia (il primo, quindi dx8 credo) aveva features che manco il successivo aveva con dx 11 + quel fail di physxFeatures del tipo ? :rolleyes:

Gyammy85
11-05-2018, 11:22
https://www.tomshw.it/la-scheda-directx-12-i-giochi-sono-pochi-perche-83277

A sto punto ci fermiamo allora, che ti devo dire...meno male che almeno i vantaggi li riconoscono, conservano un pò di dignità. Quindi ue4 che si vede peggio del 3.5 ma è più pesante e quindi richiede l'hardware più potente che sfrutterà male va bene?

nickname88
11-05-2018, 11:26
A sto punto ci fermiamo allora, che ti devo dire...meno male che almeno i vantaggi li riconoscono, conservano un pò di dignità. Quindi ue4 che si vede peggio del 3.5 ma è più pesante e quindi richiede l'hardware più potente che sfrutterà male va bene?UE4 che si vede male ? :rolleyes:

Il motore grafico mette a disposizione features che vanno sfruttate dagli sviluppatori, e la massima espressione dell'UE4 di certo non l'abbiamo visto nemmeno da vicino.
UE3 è durato anni in cui abbiamo assistito a differenze nette fra titoli che lo usavano e questo UT4 ancora viene usato da pochi e nessuno di questi è un titolo di spessore a livello tecnico.
E l'ottimizzazione del codice dipende ben poco dal motore in sè.

https://www.youtube.com/watch?v=TtIN4_RZwZE
https://www.youtube.com/watch?v=ATnegnw0SyQ
https://www.youtube.com/watch?v=J3ue35ago3Y
https://www.youtube.com/watch?v=-HFnR43ms1k
https://www.youtube.com/watch?v=q1AJkx3X2cM

Le cose si possono fare con l'UT4, che nessun titolo lo abbia ancora sfruttato appieno è un discorso ben diverso dal dire che l'UE3 sia migliore

A sto punto ci fermiamo alloraFermarci ? Verranno presi in considerazione a tempo debito o verranno soppiantate dalle DX13.
Di certo le teorie complottistiche lasciano il tempo che trovano a prescindere.

Gyammy85
11-05-2018, 11:40
UE4 che si vede male ? :rolleyes:

Il motore grafico mette a disposizione features che vanno sfruttate dagli sviluppatori, e la massima espressione dell'UE4 di certo non l'abbiamo visto nemmeno da vicino.
UE3 è durato anni in cui abbiamo assistito a differenze nette fra titoli che lo usavano e questo UT4 ancora viene usato da pochi e nessuno di questi è un titolo di spessore a livello tecnico.
E l'ottimizzazione del codice dipende ben poco dal motore in sè.

https://www.youtube.com/watch?v=TtIN4_RZwZE
https://www.youtube.com/watch?v=ATnegnw0SyQ
https://www.youtube.com/watch?v=J3ue35ago3Y
https://www.youtube.com/watch?v=-HFnR43ms1k
https://www.youtube.com/watch?v=q1AJkx3X2cM

Le cose si possono fare con l'UT4, che nessun titolo lo abbia ancora sfruttato appieno è un discorso ben diverso dal dire che l'UE3 sia migliore

Fermarci ? Verranno presi in considerazione a tempo debito o verranno soppiantate dalle DX13.
Di certo le teorie complottistiche lasciano il tempo che trovano a prescindere.

Si ne ho viste diverse di techdemo conl'unreal 4, ma i giochi che ho visto non sono sto granché, niente che non si possa fare con unity usato per bene (tipo inside che ha l'aa customizzato e zero scalettature).
Per le 13, sei sicuro che siano previste? perché se ms dice che non ci sarà win 11 ma win 10 con i vari aggiornamenti, non capisco perché non possa avvenire lo stesso con le dx.

nickname88
11-05-2018, 11:51
Si ne ho viste diverse di techdemo conl'unreal 4, ma i giochi che ho visto non sono sto granché, niente che non si possa fare con unity usato per bene (tipo inside che ha l'aa customizzato e zero scalettature).
Per le 13, sei sicuro che siano previste? perché se ms dice che non ci sarà win 11 ma win 10 con i vari aggiornamenti, non capisco perché non possa avvenire lo stesso con le dx.
Se non hai ancora visto nulla nei titoli attuali è perchè nessuno di questi sfrutta appieno il motore.
Le 13 che ci siano o meno è indifferente, le DX11 cederanno il passo a tempo debito.

ningen
11-05-2018, 12:03
Sono anni che dico che le dx12 sono fuffa ed un fiasco enorme ma è solo tempo perso.
Ancora aspetto questi famigerati titoli full dx12 senza acrocchi vari o supporti farlocchi.
Ed ancora ricordo i commenti di qualche anno fa: "tra qualche anno vedrai la differenza" e sono passati parecchi anni ed ancora questa sbandierata differenza non la vedo.
L'unico ottimo risultato raggiunto è stato Doom con le Vulkan, grazie ad id, ma le dx12 sono ancora oggi non pervenute.

OttoVon
11-05-2018, 13:07
Comunque...
da Vampyr non mi aspetto i capelli in 4K che si muovono indipendetemente l'uno dall'altro.

29Leonardo
11-05-2018, 13:36
In realtà la realtà dice solamente che le DX12 non han preso piede per ora e basta.
Detto ciò quì a pochi frega qualcosa delle DX12, chi ha aggiornato la VGA all'ultima serie non è stato di certo per le DirectX :rolleyes:

E come no, quando le cose non vanno come dovevano andare improvvisamente a nessuno frega piu nulla :asd:

Features del tipo ? :rolleyes:

Cercateli sul tubo.

nickname88
11-05-2018, 13:40
Cercateli sul tubo.Cercateli tu sul tubo, tu l'hai detto e neppure sai di cosa hai parlato ? :asd:

E come no, quando le cose non vanno come dovevano andare improvvisamente a nessuno frega piu nulla :asd:
Quindi secondo te chi ha comperato una VGA dell'ultima serie lo ha fatto per le DX12 e non per le performance ? :asd: Io passando dalla 980 alla 1080 ho avuto solamente un +70/80% di performance con tutte le DirectX :rolleyes:
Vedi un po' te.

29Leonardo
11-05-2018, 13:47
Vabbè sei un caso perso ho capito, ignore list e via. Buone cose.

bagnino89
11-05-2018, 13:53
Effettivamente anche io - ma penso tutti - sono passato da Maxwell a Pascal senza stare troppo a ragionare su DX 11/12, feature/non-feature, semplicemente ho visto benchmark/test e ho stabilito se l'upgrade valeva la pena dal mio punto di vista prezzo/prestazioni, fine.

Per quanto mi riguarda, il paradigma "prendo la piattaforma che secondo me mi darà più longevità" lascia molto il tempo che trova in informatica, specie per le schede video. Uno deve prenderle per sfruttarle al massimo sin dal day one, non deve campare di false speranze sperando che prima o poi attivino quella feature/supportino meglio i giochi/facciano uscire i driver magici, ecc.

Quando 8/10 giochi saranno in DX 12, allora mi preoccuperò di scegliere una scheda che abbia tutto ciò che serve; ma se l'andazzo è questo, lo sfoggiare feature particolari che - ad oggi - non usa nessuno, è del tutto irrilevante. Ammesso che le DX 12 prenderanno davvero piede in modo massiccio, le schede odierne - sia AMD che GPU - sentiranno comunque l'inevitabile degrado prestazionale nei confronti delle nuove schede.

Non esistono le botti di rovere...

nickname88
11-05-2018, 14:02
Vabbè sei un caso perso ho capito, ignore list e via. Buone cose.
Non sono mica io quello che ha parlato a vanvera :rolleyes:

Hai detto che Mafia 1 aveva molte features grafiche che Mafia 3 non aveva, e poi non sai nemmeno dirci quali ? :asd:

OttoVon
12-05-2018, 05:28
E come no, quando le cose non vanno come dovevano andare improvvisamente a nessuno frega piu nulla

A dire il vero le dx12 hanno fatto proprio il loro dovere, avvantaggiare un'architettura a scapito dell'altra.
Checché se ne dica Maxwell in dx11 non aveva rivali in quanto ad efficienza.
Mentre GCN prima delle 12 e Vulkan era, decisamente, un buco nero riguardo l'efficienza.

Gyammy85
12-05-2018, 08:18
A dire il vero le dx12 hanno fatto proprio il loro dovere, avvantaggiare un'architettura a scapito dell'altra.
Checché se ne dica Maxwell in dx11 non aveva rivali in quanto ad efficienza.
Mentre GCN prima delle 12 e Vulkan era, decisamente, un buco nero riguardo l'efficienza.

A me non sembra che con metro 2033, per dirne uno, una 7970 profondamente inefficiente buco nero fornace andasse male, se la batteva con la 780 dx11 approved e di una serie successiva. Ovvio che se poi in redux ci levi l'illuminazione e metti la tessellation a x987654, gcn diventa profondamente inefficiente buco nero fornace. Estendi la stessa tattica su super gta5 et al, e vedi quanto è super efficiente maxwell, pascwell e voltwell.
La realtà è questa, che piaccia o no.