View Full Version : [Thread Ufficiale] nVidia Turing RTX 2080/2080ti
Thunder-74
26-04-2020, 17:17
Intendo non ha senso il programmino che hai citato prima tu... perché basta dettare le illuminazioni dal app Logitech o razer che sia, visto che per usare le feature dei dispositivi devi OBBLIGATORIAMENTE installarli, quindi due app per me non hanno senso.
A me tutte quelle cazz delle illuminazioni che cambiano in base al gioco non me ne sono mai fregate.. Setto illuminazione fissa o effetti una volta e via..
Poi visto che citavi icue per favore.. se si parlava già di GeForce experience che si mangia 5/100 di risorse, immagina il programma Corsair quanta cpu usa.. basta switchare e lo vedi
diciamo che ha la comodità di sincronizzare tutto con un click. Cosa che avrei io con RGB Fusion per VGA/Ventole/Mobo/Ram...
Poi certo, alcune periferiche come mouse/tastiere/tastierini devono essere gestite con il proprio software, per mappatura tasti/Macro ecc.
Non ricordo se l'ho detto già in questo thraed.... Qualora ci fossero persone che utilizzano RGB Fusion, non usate versioni superiori alla B19.0402.1. Questo perché le successive versioni vanno a, letteralmente, rompere gli HDD. Io ho "perso" un HDD da 2Gb. Ci sono vari post su forum Gigabytet con altrettante testimonianze e da questo ho appreso che l'ultima versione che ho citato, risulta "sicura", ma non esente di difetti... Se si provano le successive versioni, all'avvio di RGB Fusion si potrà udire un rumore proveniente dagli HDD...
raga una domanda stupida, su alcuni giochi riscontro dello stuttering di 1 secondo e poi riparte, e questa cosa succede in continuazione, tipo NFS Heat, AC Odyssey, FH4...anche voi avete questi problemi di Stuttering? questi giochi li ho installati sul disco meccanico WD Blue, possibile che sia questo il problema? magari perchè è un hard disk vecchio di 9 anni e comincia ad essere molto lento nella lettura dei giochi..??? in breve dovrei prendere un SSD M.2... grazie:)
Thunder-74
26-04-2020, 17:31
raga una domanda stupida, su alcuni giochi riscontro dello stuttering di 1 secondo e poi riparte, e questa cosa succede in continuazione, tipo NFS Heat, AC Odyssey, FH4...anche voi avete questi problemi di Stuttering? questi giochi li ho installati sul disco meccanico WD Blue, possibile che sia questo il problema? magari perchè è un hard disk vecchio di 9 anni e comincia ad essere molto lento nella lettura dei giochi..??? in breve dovrei prendere un SSD M.2... grazie:)
monitora il Time Resolution, se troppo alto puoi avere dello stuttering.
Vuoi far prima?, scaricati il programmino da qui:
https://www.filecroco.com/download-timer-resolution/
clicca su Maximum , te lo porta subito a 0,500 millisecondi e riprova il gioco che ti stuttera.
Discordo HDD non credo, perché a meno che faccia streaming continuo dal disco, il gioco risiede in memoria Ram
EDIT: comunque possono essere anche programmi in BG che ti possono causare questo problema. Eventualmente cerca di chiudere le cose che hai aperto, se così risolvi, riavvia il PC e prova a chiuderne una per volta provando il gioco, in modo da isolarla. Per chiudere tutto con un solo click, io uso la funzione Game Boost di ASUS GPU TweakII:
https://i.imgur.com/oG5Vt57.png
razor820
26-04-2020, 17:54
Ma quel programmino funge senza avere danni collaterali?
Perché teoricamente va a chiudere alcuni processi che a volte sono fondamentali per il sistema.
Thunder-74
26-04-2020, 17:59
Ma quel programmino funge senza avere danni collaterali?
Perché teoricamente va a chiudere alcuni processi che a volte sono fondamentali per il sistema.
A quale ti riferisci? A quello Asus?
Io lo uso quando voglio fare dei bench , perché ho veramente il mondo in BG ...
Inviato dal mio iPhone X utilizzando Tapatalk
AceGranger
26-04-2020, 18:00
Intendo non ha senso il programmino che hai citato prima tu... perché basta dettare le illuminazioni dal app Logitech o razer che sia, visto che per usare le feature dei dispositivi devi OBBLIGATORIAMENTE installarli, quindi due app per me non hanno senso.
A me tutte quelle cazz delle illuminazioni che cambiano in base al gioco non me ne sono mai fregate.. Setto illuminazione fissa o effetti una volta e via..
Poi visto che citavi icue per favore.. se si parlava già di GeForce experience che si mangia 5/100 di risorse, immagina il programma Corsair quanta cpu usa.. basta switchare e lo vedi
bho io non devo switchare, ho 2 monitor e task manager sempre aperto, usa lo 0,1/0,2% ridotto a icona e lo 0,6/0,7% se aperto nella schermata il pannello con tutte le temperature di tutti i componenti e giri di tutte le ventole.
i miei valori su un 8 core dovrebbero diventare al massimo 2,8% con pannello aperto.
io ho settato i colori in base alla temperatura della CPU, nei giochi usa di piu ?
razor820
26-04-2020, 18:07
A quale ti riferisci? A quello Asus?
Io lo uso quando voglio fare dei bench , perché ho veramente il mondo in BG ...
Inviato dal mio iPhone X utilizzando Tapatalk
Si al gputweak
monitora il Time Resolution, se troppo alto puoi avere dello stuttering.
Vuoi far prima?, scaricati il programmino da qui:
https://www.filecroco.com/download-timer-resolution/
clicca su Maximum , te lo porta subito a 0,500 millisecondi e riprova il gioco che ti stuttera.
Discordo HDD non credo, perché a meno che faccia streaming continuo dal disco, il gioco risiede in memoria Ram
EDIT: comunque possono essere anche programmi in BG che ti possono causare questo problema. Eventualmente cerca di chiudere le cose che hai aperto, se così risolvi, riavvia il PC e prova a chiuderne una per volta provando il gioco, in modo da isolarla. Per chiudere tutto con un solo click, io uso la funzione Game Boost di ASUS GPU TweakII:
https://i.imgur.com/oG5Vt57.png
ok provo e ti faccio sapere...potrei provare anchio il game boost di Asus? non bisogna avere per forza una gpu Asus?
Thunder-74
26-04-2020, 18:15
ok provo e ti faccio sapere...potrei provare anchio il game boost di Asus? non bisogna avere per forza una gpu Asus?
No assolutamente . Io ho un' Aorus ;)
Potresti usarlo anche per fare oc sulla tua vga, ma molto meglio Afterburner... che poi quest ultimo sarebbe della MSI , ma va bene per tutte le vga :)
Si al gputweak
ma guarda, io tutte le volte che l'ho usato, non ho mai avuto problemi di instabilità
Inviato dal mio iPhone X utilizzando Tapatalk
No assolutamente . Io ho una Aorus ;)
Potresti usarlo anche per fare oc sulla tua vga, ma molto meglio Afterburner... che poi quest ultimo sarebbe della MSI , ma va bene per tutte le vga :)
Inviato dal mio iPhone X utilizzando Tapatalk
si ovviamente Msi Afterburner è il mio programma preferito lo conosco e lo uso sempre:D ho un processo aperto che si chiama WMI Provider Host e mi occupa 1.3% di risorse, ma credo che questo file faccia parte di Windows...lo conosci?
Thunder-74
26-04-2020, 18:41
si ovviamente Msi Afterburner è il mio programma preferito lo conosco e lo uso sempre:D ho un processo aperto che si chiama WMI Provider Host e mi occupa 1.3% di risorse, ma credo che questo file faccia parte di Windows...lo conosci?
si, serve per far in modo che alcune informazioni del sistema siano disponibili ad altri programmi. Si possono avviare anche più di uno.
si, serve per far in modo che alcune informazioni del sistema siano disponibili ad altri programmi. Si possono avviare anche più di uno.
ok provo con il programma Time Resolution e ti faccio sapere come và grazie;)
Thunder ma il programma Time Resolution una volta avviato e cliccando su maximum lo devo lasciare aperto riducendolo ad icona o lo posso anche chiudere? devo aprirlo ogni volta che avvio Windows? o funziona in automatico?
Thunder-74
26-04-2020, 19:37
Thunder ma il programma Time Resolution una volta avviato e cliccando su maximum lo devo lasciare aperto riducendolo ad icona o lo posso anche chiudere? devo aprirlo ogni volta che avvio Windows? o funziona in automatico?
Devi lasciarlo aperto. Non ha una modalità di esecuzione automatica
Se vuoi potresti usare Intelligent standby list cleaner (ISLC)
https://www.wagnardsoft.com/forums/viewtopic.php?f=18&t=1256
lo ha prodotto lo stesso che ha fatto DDU
Oltre a poter impostare il Time Resolution, ti da la possibilità di impostare la memoria da liberare quando si sta per esaurirsi. L'ho usato quando avevo "solo" 16gb e su BFV con RTX attivo, al saturarsi della memoria, incominciavo ad avere stuttering.
Può essere lanciato e in automatico fare entrambe le cose, basta spuntare "Start ISLC minimized and auto-start monitoring" e su "start" per quanto riguarda il time resolution
La successiva volta che viene eseguito partirà automaticamente. Da eseguire come amministratore
https://i.imgur.com/8F5JqXZ.png
TigerTank
27-04-2020, 08:48
Per chi non lo sapesse, è possibile sincronizzare i led di tutto il pc compresa la vostra VGA con un piccolo software terzo: JackNet RGB.
C'è una lista di dispositivi compatibili sul canale Discord.
Lo sto provando ed è fantastico.
Molto bello, grazie. Messo anch'io.
Già ragruppavo un pò le cose grazie al fatto che Aura ed Icue vanno un pò a braccetto ma con questo software, mettendo un led del mouse come primario, basta regolare l'effetto RGB dalla pagina del mouse di ICUE e seguono a ruota anche i led della mobo, della tastiera, delle ram e della striscia ARGB che sta nella staffa di sostegno alla vga.
Peccato per la vga...credo che salvo supporto/plugin specifico delle marche principali(Asus, Evga, ecc...) non resti che provare a vedere se i led del dissipatore della vga si possano in qualche modo collegare alla mobo, magari su connettore RGB 4-pin. Ma pazienza...non voglio fare casini e quelli li tengo spenti da utility proprietaria(tanto c'è la staffa argb) :)
Alekos Panagulis
27-04-2020, 08:56
Molto bello, grazie. Messo anch'io.
Già ragruppavo un pò le cose grazie al fatto che Aura ed Icue vanno un pò a braccetto ma con questo software, mettendo un led del mouse come primario, basta regolare l'effetto RGB dalla pagina del mouse di ICUE e seguono a ruota anche i led della mobo, della tastiera delle ram e della striscia ARGB che sta nella staffa di sostegno alla vga.
Peccato per la vga...credo che salvo supporto/plugin specifico delle marche principali(Asus, Evga, ecc...) non resti che provare a vedere se i led del dissipatore della vga si possano in qualche modo collegare alla mobo, magari su connettore RGB 4-pin. Ma pazienza...non voglio fare casini e quelli li tengo spenti da utility proprietaria(tanto c'è la staffa argb) :)
Esatto, funziona proprio così, impostando una periferica (un led qualsiasi) come primario. La mia EVGA funziona benissimo, a condizione di aver installato Led Sync.
Cmq il software è in continuo sviluppo e non può che migliorare.
illidan2000
27-04-2020, 09:20
Esatto, funziona proprio così, impostando una periferica (un led qualsiasi) come primario. La mia EVGA funziona benissimo, a condizione di aver installato Led Sync.
Cmq il software è in continuo sviluppo e non può che migliorare.
sai se supporta anche Philips Hue?
edit. visto, no, non lo supporta purtroppo
Teamprotein
28-04-2020, 09:58
ragazzi sto tentando di ridimensionare il rumore della mia zotac sotto sforzo ma non riesco a trovare un buon connubbio tra volt mhz e velocità ventole, mi dareste una mano?
mattxx88
28-04-2020, 14:47
Fixa una curva ventola con un massimale che non ti turba le orecchie e da li vedi la massima frequenza che puoi tenere
sbaglio?
aldo87mi
28-04-2020, 19:17
La 1080ti supera la 2080 nel nuovo Gear Tactics. Ma come è possibile? :confused:
Benchmark qui:
https://gamegpu.com/rts-/-стратегии/gears-tactics-test-gpu-cpu
https://i.postimg.cc/SxWYcpd1/Untitleds.jpg
Thunder-74
29-04-2020, 11:18
La 1080ti supera la 2080 nel nuovo Gear Tactics. Ma come è possibile? :confused:
Benchmark qui:
https://gamegpu.com/rts-/-стратегии/gears-tactics-test-gpu-cpu
https://i.postimg.cc/SxWYcpd1/Untitleds.jpg
credo che abbiano fatto qualche errore.. su Computer Base, la 1080ti è allineata alla 2070S, non certo alla 2080S
https://i.imgur.com/fDFFl9e.png
LINK (https://www.computerbase.de/2020-04/gears-tactics-benchmark-test/2/)
th3o|dm4n
29-04-2020, 12:33
Buongiorno,
vi racconto la mia disavventura, così forse spero di capirci qualcosa anche io.
Due mesi fa acquisto una ASUS ROG STRIX 2080 TI tramite Amazon Warehouse. Il prezzo è buono.
La uso per 30 giorni senza alcun problema. Improvvisamente comincia a farmi una cosa strana; in game, crasha tutto, schermo nero e ventole al massimo. Inizialmente ho creduto si trattasse di un caso isolato e ho continuato a giocare e a lavorare. Dopo un paio di giorni, stesso problema. Comincio a preoccuparmi.
Vado giù di stress test con 3D Mark. Il problema a volte si presenta, a volte no, finché, dopo nemmeno una settimana dall'apparizione del problema, crasha definitivamente, senza possibilità di riavvio. All'accensione della macchina ci sono i classici bip che segnalano un problema alla vga. Smonto la 2080 TI e rimonto la 1080. Nessun problema. Faccio richiesta di reso, visto che Amazon ha esteso il tempo utile fino al 31 maggio.
Mi arriva il rimborso, ci riprovo. Forse la vecchia scheda, essendo usata, proveniva da una RMA oppure qualcuno l'avrà spremuta per bene con il mining.
Compro una MSI RTX 2080 Ti Gaming X Trio nuova di pacca.
Arrivata ieri. La monto. Lancio una sessione di RDR2.
Ci gioco per un paio di ore, un'altra oretta l'avrò lasciato in pausa.
Improvvisamente crash, schermo nero, nessun rumore di ventola. Riavvio.
Rilancio RDR2, stesso problema appena finito di caricare la partita. Mi preoccupo, ripulisco i driver, li reinstallo, evito Game Experience. Nel frattempo inserisco la spina dell'alimentatore in un'altra presa, solo per lui, sperando in qualche sbalzo di tensione dovuto alla ciabatta.
Faccio un benchmark con RDR2, nessun problema.
Faccio un paio di test con 3D Mark, nessun problema.
Decido di lanciare 3D Mark in loop. Monitoro lo stress test per un'oretta circa e non noto nessun problema visibile. La scheda lavora bene, le temperature sono perfettamente nella norma (max 53°). Vado a letto e lascio il test in esecuzione. Stamane alle sei mi sveglio, vado in studio e vedo che il pc ha crashato. Schermo nero e basta. Le ventole sono al minimo.
Riavvio, nessun problema. Nel frattempo si è sminchiata la configurazione col doppio monitor, la sistemo. Riavvio.
Schermata di login, clicko col mouse per effettuare il login ed ecco un altro crash, ma stavolta le ventole della vga schizzano al 100%.
Riavvio, nessun problema. Devo comunque lavorare.
Apro Autocad, apro Solidworks, comincio a disegnare. Dopo circa un'ora e mezzo di utilizzo, mentre usavo Autocad, crash e ventole al 100%. A questo punto ho smontato la 2080 TI, ho rimontato la 1080 e sto usando quella.
Avevo una mezza idea di cambiare alimentatore (attualmente ho un Corsair TX850M, ma è del 2013, quindi presumo abbia perso qualcosina in termini di efficienza) nel dubbio che potesse essere quello. Nel frattempo ho sentito il venditore che si dice disposto a cambiarmi la vga, nel caso il problema si verifichi e mi ha invitato a fare altri test e a magari a fare un tentativo con un altro alimentatore.
L'ali dovrebbe arrivare domani. Secondo voi, che probabilità ci sono che sia colpa di questo?
Perché due schede fallate su due, in due mesi, sarebbe veramente il colmo della sfiga.:fagiano:
Scusate la lungaggine, ho cercato di riassumere ma la sintesi evidentemente non è una qualità che mi appartiene...
Thunder-74
29-04-2020, 12:51
Buongiorno,
vi racconto la mia disavventura, così forse spero di capirci qualcosa anche io.
Due mesi fa acquisto una ASUS ROG STRIX 2080 TI tramite Amazon Warehouse. Il prezzo è buono.
La uso per 30 giorni senza alcun problema. Improvvisamente comincia a farmi una cosa strana; in game, crasha tutto, schermo nero e ventole al massimo. Inizialmente ho creduto si trattasse di un caso isolato e ho continuato a giocare e a lavorare. Dopo un paio di giorni, stesso problema. Comincio a preoccuparmi.
Vado giù di stress test con 3D Mark. Il problema a volte si presenta, a volte no, finché, dopo nemmeno una settimana dall'apparizione del problema, crasha definitivamente, senza possibilità di riavvio. All'accensione della macchina ci sono i classici bip che segnalano un problema alla vga. Smonto la 2080 TI e rimonto la 1080. Nessun problema. Faccio richiesta di reso, visto che Amazon ha esteso il tempo utile fino al 31 maggio.
Mi arriva il rimborso, ci riprovo. Forse la vecchia scheda, essendo usata, proveniva da una RMA oppure qualcuno l'avrà spremuta per bene con il mining.
Compro una MSI RTX 2080 Ti Gaming X Trio nuova di pacca.
Arrivata ieri. La monto. Lancio una sessione di RDR2.
Ci gioco per un paio di ore, un'altra oretta l'avrò lasciato in pausa.
Improvvisamente crash, schermo nero, nessun rumore di ventola. Riavvio.
Rilancio RDR2, stesso problema appena finito di caricare la partita. Mi preoccupo, ripulisco i driver, li reinstallo, evito Game Experience. Nel frattempo inserisco la spina dell'alimentatore in un'altra presa, solo per lui, sperando in qualche sbalzo di tensione dovuto alla ciabatta.
Faccio un benchmark con RDR2, nessun problema.
Faccio un paio di test con 3D Mark, nessun problema.
Decido di lanciare 3D Mark in loop. Monitoro lo stress test per un'oretta circa e non noto nessun problema visibile. La scheda lavora bene, le temperature sono perfettamente nella norma (max 53°). Vado a letto e lascio il test in esecuzione. Stamane alle sei mi sveglio, vado in studio e vedo che il pc ha crashato. Schermo nero e basta. Le ventole sono al minimo.
Riavvio, nessun problema. Nel frattempo si è sminchiata la configurazione col doppio monitor, la sistemo. Riavvio.
Schermata di login, clicko col mouse per effettuare il login ed ecco un altro crash, ma stavolta le ventole della vga schizzano al 100%.
Riavvio, nessun problema. Devo comunque lavorare.
Apro Autocad, apro Solidworks, comincio a disegnare. Dopo circa un'ora e mezzo di utilizzo, mentre usavo Autocad, crash e ventole al 100%. A questo punto ho smontato la 2080 TI, ho rimontato la 1080 e sto usando quella.
Avevo una mezza idea di cambiare alimentatore (attualmente ho un Corsair TX850M, ma è del 2013, quindi presumo abbia perso qualcosina in termini di efficienza) nel dubbio che potesse essere quello (ma ne dubito). Nel frattempo ho sentito il venditore che si dice disposto a cambiarmi la vga, nel caso il problema si verifichi e mi ha invitato a fare altri test e a magari a fare un tentativo con un altro alimentatore.
L'ali dovrebbe arrivare domani. Secondo voi, che probabilità ci sono che sia colpa di questo?
Perché due schede fallate su due, in due mesi, sarebbe veramente il colmo della sfiga.:fagiano:
Scusate la lungaggine, ho cercato di riassumere ma la sintesi evidentemente non è una qualità che mi appartiene...
Discorso Ali ci può stare, ma certo è che se la 1080 va bene, mentre la 2080ti no, il problema dovrebbe essere nel momento in cui viene richiesta una potenza eccedete quella necessaria per la 1080... parliamo di meno di 100w... potresti comunque aprire e lasciarlo in BG, HW info e vedere se le linee da 12v subiscono evidenti variazioni sotto stress.
Una cosa che potrebbe essere (io ho avuto questo problema), se hai HUB USB alimentati a correte collegati al PC. Per colpa di questo, avevo dei ritorni di tensione nel pc e le linee dell'ALI scendevano al punto che i led posti sulla VGA utili al check di corretto collegamento dei cavi 8pin, lampeggiavano per insufficienza di corrente. Sti cavolo di Hub sono pericolosi.
Altro che possa causare malfunzionamenti di questo tipo, potrebbe essere la scheda madre, ma dubito che la 1080 avrebbe funzionato senza problemi.
PS. hai seguito scrupolosamente la connessione ALI/pin VGA? io avevo collegato al volo il cavo 8pin per la Scheda madre, utilizzando un altra porta dell'ali e non quella dedicata, il pc neanche si accendeva.
th3o|dm4n
29-04-2020, 13:06
Discorso Ali ci può stare, ma certo è che se la 1080 va bene, mentre la 2080ti no, il problema dovrebbe essere nel momento in cui viene richiesta una potenza eccedete quella necessaria per la 1080... parliamo di meno di 100w... potresti comunque aprire e lasciarlo in BG, HW info e vedere se le linee da 12v subiscono evidenti variazioni sotto stress.
Una cosa che potrebbe essere (io ho avuto questo problema), se hai HUB USB alimentati a correte collegati al PC. Per colpa di questo, avevo dei ritorni di tensione nel pc e le linee dell'ALI scendevano al punto che i led posti sulla VGA utili al check di corretto collegamento dei cavi 8pin, lampeggiavano per insufficienza di corrente. Sti cavolo di Hub sono pericolosi.
Altro che possa causare malfunzionamenti di questo tipo, potrebbe essere la scheda madre, ma dubito che la 1080 avrebbe funzionato senza problemi.
PS. hai seguito scrupolosamente la connessione ALI/pin VGA? io avevo collegato al volo il cavo 8pin per la Scheda madre, utilizzando un altra porta dell'ali e non quella dedicata, il pc neanche si accendeva.
In effetti il problema Hub ci potrebbe stare. Anzi, adesso che mi ci fai pensare, ne avevo montato uno proprio nello stesso periodo in cui la prima 2080 Ti (la STRIX) aveva cominciato a darmi problemi; è un hub che in teoria dovrebbe essere alimentato ma non ho attaccato il trasformatore.
Però ricordo anche di aver scollegato tutto prima di fare i dovuti test.
Per quel che riguarda la MSI 2080 Ti, sono quasi certo di averla montata come da manuale, il problema è che non posso verificare perché ho smontato tutto e preferisco riassemblarla col nuovo ali (ho preso un Corsair HX1000i, 80 Plus Platinum, l'unico decente che consegnavano in tempi rapidi)
La 1080 però necessita di un solo connettore a 8 pin, mentre la MSI 2080 Ti ne richiede 8+8+6... il fatto che comunque con questa non abbia mai dato problemi, nemmeno sotto overclock, esclude eventuali difetti a scheda madre e periferiche varie.
Purtoppo non ho attrezzature per testare l'efficienza del TX850M, posso andare solo per supposizioni.
A 'sto punto, o è la vga o l'alimentatore. L'ali dovevo cambiarlo comunque perché ha i suoi sette anni e mezzo...
Thunder-74
29-04-2020, 14:21
In effetti il problema Hub ci potrebbe stare. Anzi, adesso che mi ci fai pensare, ne avevo montato uno proprio nello stesso periodo in cui la prima 2080 Ti (la STRIX) aveva cominciato a darmi problemi; è un hub che in teoria dovrebbe essere alimentato ma non ho attaccato il trasformatore.
Però ricordo anche di aver scollegato tutto prima di fare i dovuti test.
Per quel che riguarda la MSI 2080 Ti, sono quasi certo di averla montata come da manuale, il problema è che non posso verificare perché ho smontato tutto e preferisco riassemblarla col nuovo ali (ho preso un Corsair HX1000i, 80 Plus Platinum, l'unico decente che consegnavano in tempi rapidi)
La 1080 però necessita di un solo connettore a 8 pin, mentre la MSI 2080 Ti ne richiede 8+8+6... il fatto che comunque con questa non abbia mai dato problemi, nemmeno sotto overclock, esclude eventuali difetti a scheda madre e periferiche varie.
Purtoppo non ho attrezzature per testare l'efficienza del TX850M, posso andare solo per supposizioni.
A 'sto punto, o è la vga o l'alimentatore. L'ali dovevo cambiarlo comunque perché ha i suoi sette anni e mezzo...
HWinfo è un software scaricabile gratuitamente che monitora parecchie cose del pc. Con quello puoi vedere se l’ali eroga costantemente il voltaggio delle linee 3.3 - 5 - 12 V
;)
Inviato dal mio iPhone X utilizzando Tapatalk
th3o|dm4n
29-04-2020, 14:30
HWinfo è un software scaricabile gratuitamente che monitora parecchie cose del pc. Con quello puoi vedere se l’ali eroga costantemente il voltaggio delle linee 3.3 - 5 - 12 V
;)
Inviato dal mio iPhone X utilizzando TapatalkFaccio questo tentativo. Grazie. :mano:
fabietto27
29-04-2020, 14:40
In effetti il problema Hub ci potrebbe stare. Anzi, adesso che mi ci fai pensare, ne avevo montato uno proprio nello stesso periodo in cui la prima 2080 Ti (la STRIX) aveva cominciato a darmi problemi; è un hub che in teoria dovrebbe essere alimentato ma non ho attaccato il trasformatore.
Però ricordo anche di aver scollegato tutto prima di fare i dovuti test.
Per quel che riguarda la MSI 2080 Ti, sono quasi certo di averla montata come da manuale, il problema è che non posso verificare perché ho smontato tutto e preferisco riassemblarla col nuovo ali (ho preso un Corsair HX1000i, 80 Plus Platinum, l'unico decente che consegnavano in tempi rapidi)
La 1080 però necessita di un solo connettore a 8 pin, mentre la MSI 2080 Ti ne richiede 8+8+6... il fatto che comunque con questa non abbia mai dato problemi, nemmeno sotto overclock, esclude eventuali difetti a scheda madre e periferiche varie.
Purtoppo non ho attrezzature per testare l'efficienza del TX850M, posso andare solo per supposizioni.
A 'sto punto, o è la vga o l'alimentatore. L'ali dovevo cambiarlo comunque perché ha i suoi sette anni e mezzo...
E,se non lo fai già,alimentala con due rail separati,non usare un unico cavo 8+8
mattxx88
29-04-2020, 14:45
E,se non lo fai già,alimentala con due rail separati,non usare un unico cavo 8+8
Bravo ottima accortezza
Anche a me a leggerla così sa da alimentatore comunque
th3o|dm4n
29-04-2020, 15:21
E,se non lo fai già,alimentala con due rail separati,non usare un unico cavo 8+8
Questa è l'unica cosa certa, perché il TX850M li ha di serie, i rail separati.
Piuttosto, controllando attentamente, ho notato che l'adattatore che avevo usato per il 6 pin, in realtà è da 5 pin :doh:
https://i.ibb.co/gFr2pCb/Senza-titolo-1.jpg (https://ibb.co/CswcZFp)
Una cosa non mi è chiara: dando per certo che la colpa è dell'alimentazione, avrei dovuto avere una schermata nera e stop, per interruzione di corrente o sbalzo di tensione. Questo come lo collego al fatto che ho avuto lo schermo nero con le ventole vga al massimo? Non è un problema noto avuto con parecchie 2080 TI?
fabietto27
29-04-2020, 15:37
No dai...un adattatore di quelli no....
Inviato dal mio GM1913 utilizzando Tapatalk
th3o|dm4n
29-04-2020, 15:41
No dai...un adattatore di quelli no....
Inviato dal mio GM1913 utilizzando Tapatalk
Eh lo so, ma sta tutto chiuso, quello passava il convento...
Alekos Panagulis
29-04-2020, 15:46
Bhè allora hai trovato il problema.
Thunder-74
29-04-2020, 16:21
Questa è l'unica cosa certa, perché il TX850M li ha di serie, i rail separati.
Piuttosto, controllando attentamente, ho notato che l'adattatore che avevo usato per il 6 pin, in realtà è da 5 pin :doh:
https://i.ibb.co/gFr2pCb/Senza-titolo-1.jpg (https://ibb.co/CswcZFp)
Una cosa non mi è chiara: dando per certo che la colpa è dell'alimentazione, avrei dovuto avere una schermata nera e stop, per interruzione di corrente o sbalzo di tensione. Questo come lo collego al fatto che ho avuto lo schermo nero con le ventole vga al massimo? Non è un problema noto avuto con parecchie 2080 TI?
te lo dico alla Signorini... "Bé Vabbé..." sinceramente ti saresti dovuto stupire se non avevi blocchi o altro.... :D
Tanti dindi per una VGA, meritano cavi e Ali serio ;)
th3o|dm4n
29-04-2020, 17:40
te lo dico alla Signorini... "Bé Vabbé..." sinceramente ti saresti dovuto stupire se non avevi blocchi o altro.... :D
Tanti dindi per una VGA, meritano cavi e Ali serio ;)
Lo so, hai ragione, ho peccato di leggerezza.
Come spiegato nel commento precedente, avevo quello a portata di mano. Purtroppo c'è ancora un lockdown in atto, i negozi sono chiusi e non avevo altra soluzione.
L'ali tutto sommato è buono, se pur datato (è pur sempre una serie GOLD Plus), non mi ha mai dato problemi e davo per scontato fosse ancora usabile; tra l'altro avendo fatto un upgrade da qualche mese, lo avevo fatto controllare prima di assemblare il tutto.
Ad ogni modo, ho trovato finalmente i cavi originali; dopo sette anni, non ricordavo più dove fosse l'imballo dell'alimentatore.
Ho ricablato il tutto, ho tolto la monnezza varia che avevo collegato, tra hub e card-reader.
Ho fatto una serie di benchmark, qualche sessione in-game, monitorando il tutto con HW-info, come mi hai suggerito.
Per il momento nessun problema. Temperature nella norma. :sperem:
Sotto stress, ho un valore minimo di 11.597V e uno massimo di 11.884V; Valore medio 11.699V. Come ti sembrano?
fabietto27
29-04-2020, 18:15
Sotto stress, ho un valore minimo di 11.597V e uno massimo di 11.884V; Valore medio 11.699V. Come ti sembrano?
Un pelo basse...dovresti essere a 12.000 ma ci sta visto gli anni dell'ali.
Lo so, hai ragione, ho peccato di leggerezza.
Come spiegato nel commento precedente, avevo quello a portata di mano. Purtroppo c'è ancora un lockdown in atto, i negozi sono chiusi e non avevo altra soluzione.
L'ali tutto sommato è buono, se pur datato (è pur sempre una serie GOLD Plus), non mi ha mai dato problemi e davo per scontato fosse ancora usabile; tra l'altro avendo fatto un upgrade da qualche mese, lo avevo fatto controllare prima di assemblare il tutto.
Ad ogni modo, ho trovato finalmente i cavi originali; dopo sette anni, non ricordavo più dove fosse l'imballo dell'alimentatore.
Ho ricablato il tutto, ho tolto la monnezza varia che avevo collegato, tra hub e card-reader.
Ho fatto una serie di benchmark, qualche sessione in-game, monitorando il tutto con HW-info, come mi hai suggerito.
Per il momento nessun problema. Temperature nella norma. :sperem:
Sotto stress, ho un valore minimo di 11.597V e uno massimo di 11.884V; Valore medio 11.699V. Come ti sembrano?
L'ideale è mantenersi entro il 5% di tolleranza. Se i valori sono stabili, sei a posto. :)
th3o|dm4n
29-04-2020, 18:34
L'ideale è mantenersi entro il 5% di tolleranza. Se i valori sono stabili, sei a posto. :)Sì, rientro nel 5% di tolleranza (min. 11.400V max 12.600V).
Ma in ogni caso, lo devo cambiare. Non mi fa di tirarlo ancora. Ha fatto il suo, ormai. :stordita:
aldo87mi
29-04-2020, 19:20
ragazzi oggi ho provato un gioco che non provavo più da ormai quasi cinque anni, mi riferisco a Metal Gear Solid V Phantom Pain (2015). La mia curiosità era di rigiocarlo in 8K con la mia nuova scheda e vedere come si comportava....ebbene per puro caso ho scoperto che nel gioco c'è uno "pseudo" ray tracing (ovviamente rasterizzazione) che non ha nulla da invidiare a quello dei giochi rtx "veri" odierni. Ho fatto giusto due screenshots per farvi vedere:
https://i.postimg.cc/BbNqgKtg/mgsvtpp-2020-04-29-02-41-51-034.jpg
https://i.postimg.cc/rsp6qYF1/mgsvtpp-2020-04-29-02-42-12-494.jpg
Ci sono superfici riflettenti dovunque, se ti avvicini ti ci specchi. Se i nemici passano alla tue spalle li vedi riflessi da lontano, le scale riflettono, il marmo, l'illuminazione, il fuoco. E' davvero incredibile quanto sia fatto bene, soprattutto considerando che si tratta di un gioco del 2015. Il Fox Engine si presta veramente bene al ray tracing a mio avviso, spero che in futuro gli sviluppatori possano riprenderlo per una produzione di respiro in tal senso.
E comunque, al di là del ray tracing, è impressionante quanto sia ancora bello da vedere a distanza di quasi cinque anni, offre certi scorci da togliere il respiro:
https://i.postimg.cc/NjLHK10B/mgsvtpp-2020-04-29-03-18-41-424.jpg
https://i.postimg.cc/wBjgqVxQ/mgsvtpp-2020-04-29-03-23-32-676.jpg
Thunder-74
29-04-2020, 19:43
Lo so, hai ragione, ho peccato di leggerezza.
Come spiegato nel commento precedente, avevo quello a portata di mano. Purtroppo c'è ancora un lockdown in atto, i negozi sono chiusi e non avevo altra soluzione.
L'ali tutto sommato è buono, se pur datato (è pur sempre una serie GOLD Plus), non mi ha mai dato problemi e davo per scontato fosse ancora usabile; tra l'altro avendo fatto un upgrade da qualche mese, lo avevo fatto controllare prima di assemblare il tutto.
Ad ogni modo, ho trovato finalmente i cavi originali; dopo sette anni, non ricordavo più dove fosse l'imballo dell'alimentatore.
Ho ricablato il tutto, ho tolto la monnezza varia che avevo collegato, tra hub e card-reader.
Ho fatto una serie di benchmark, qualche sessione in-game, monitorando il tutto con HW-info, come mi hai suggerito.
Per il momento nessun problema. Temperature nella norma. :sperem:
Sotto stress, ho un valore minimo di 11.597V e uno massimo di 11.884V; Valore medio 11.699V. Come ti sembrano?
Non mi piacciono come valori... hai fatto bene a prenderne uno nuovo ;)
Inviato dal mio iPhone X utilizzando Tapatalk
Black"SLI"jack
29-04-2020, 20:13
Assolutamente non vanno bene quei valori. 11,5xx in full e cmq sempre sotto i 12v non mi piacciono assai. Un alimentatore non dovrebbe scendere sotto i 12v in full. Un conto 11,995v, per esempio. Ma 11,5 sono una bella differenza.
Cambialo appena puoi.
Inviato dal mio LYA-L09 utilizzando Tapatalk
mattxx88
29-04-2020, 20:29
ci sono problemi a slimmare gli ultimi driver ho letto?
volevo aggiornare per provare qualche gioco rtx (con dlss 2.0) visto che a ditanza di un anno ormai non ne ho ancora provato uno :stordita:
Crysis76
29-04-2020, 20:31
Lo so, hai ragione, ho peccato di leggerezza.
Come spiegato nel commento precedente, avevo quello a portata di mano. Purtroppo c'è ancora un lockdown in atto, i negozi sono chiusi e non avevo altra soluzione.
L'ali tutto sommato è buono, se pur datato (è pur sempre una serie GOLD Plus), non mi ha mai dato problemi e davo per scontato fosse ancora usabile; tra l'altro avendo fatto un upgrade da qualche mese, lo avevo fatto controllare prima di assemblare il tutto.
Ad ogni modo, ho trovato finalmente i cavi originali; dopo sette anni, non ricordavo più dove fosse l'imballo dell'alimentatore.
Ho ricablato il tutto, ho tolto la monnezza varia che avevo collegato, tra hub e card-reader.
Ho fatto una serie di benchmark, qualche sessione in-game, monitorando il tutto con HW-info, come mi hai suggerito.
Per il momento nessun problema. Temperature nella norma. :sperem:
Sotto stress, ho un valore minimo di 11.597V e uno massimo di 11.884V; Valore medio 11.699V. Come ti sembrano?
il tx850 l'ho avuto anche io e mi ha dato gli stessi problemi che sta dando a te, la conf che ho in firma andava in crash o si spegneva solo facendo un 3dmark. A volte non riusciva ad alimentare tutte le periferiche interne, per esempio sparivano gli harddisk o il masterizzatore , ogni tanto le porte usb3 anteriori non si alimentavano.
Dai però mi è durato 7 anni
Thunder-74
29-04-2020, 20:39
Io continuo a dire che è meglio lasciar perdere gli ali corsair...
Mattxx88, bisognerebbe provare a vedere se dopo slimmati i drivers per il dlss risultano inclusi nel pacchetto base, perché non compaiono tra le voci selezionabili
Inviato dal mio iPad utilizzando Tapatalk
mattxx88
29-04-2020, 20:42
Io continuo a dire che è meglio lasciar perdere gli ali corsair...
Mattxx88, bisognerebbe provare a vedere se dopo slimmati i drivers per il dlss risultano inclusi nel pacchetto base, perché non compare tra le voci selezionabili
Inviato dal mio iPad utilizzando Tapatalk
ok!
ps il mio ax1200i sto anno compie 7 anni e va ancora una favola :cry:
Thunder-74
29-04-2020, 20:43
ok!
ps il mio ax1200i sto anno compie 7 anni e va ancora una favola :cry:
Sgratt, sgratt. :)
Inviato dal mio iPad utilizzando Tapatalk
mattxx88
29-04-2020, 20:45
Sgratt, sgratt. :)
Inviato dal mio iPad utilizzando Tapatalk
dai cavolo :rotfl:
gli ho speso 500€ di set di cavi ormai negli anni, non può crepare proprio ora
MorrisADsl
29-04-2020, 21:06
Io continuo a dire che è meglio lasciar perdere gli ali corsair...
Mattxx88, bisognerebbe provare a vedere se dopo slimmati i drivers per il dlss risultano inclusi nel pacchetto base, perché non compaiono tra le voci selezionabili
Inviato dal mio iPad utilizzando TapatalkIo ho preso mesi fa un hx1000i. mi è sembrato buono come elettronica.
Inviato dal mio SM-N960F utilizzando Tapatalk
th3o|dm4n
29-04-2020, 21:07
il tx850 l'ho avuto anche io e mi ha dato gli stessi problemi che sta dando a te, la conf che ho in firma andava in crash o si spegneva solo facendo un 3dmark. A volte non riusciva ad alimentare tutte le periferiche interne, per esempio sparivano gli harddisk o il masterizzatore , ogni tanto le porte usb3 anteriori non si alimentavano.
Dai però mi è durato 7 anni:mbe: ho avuto gli stessi identici problemi. Credevo fosse la scheda madre, in tutta sincerità, perché appena l'ho cambiata sono spariti anche questi malfunzionamenti.
Comunque, col cablaggio corretto, ho fatto andare 3d Mark per circa 4 ore quest'oggi e non ho avuto nessun crash. Ad ogni modo non voglio rischiare ulteriormente. Appena mi arriva il nuovo, cambio tutto di corsa. Anche a me ha da poco superato i sette anni. Evidentemente la loro durata è questa :D
Thunder-74
29-04-2020, 21:15
lI produttori di GPU Nvidia stanno liberando le scorte per prepararsi alla serie RTX 30
Secondo quanto riferito, i produttori di GPU Nvidia stanno liberando le scorte per prepararsi alla serie RTX 30
Con il GTC Keynote di Nvidia in arrivo il 14 maggio, ora è il momento perfetto per iniziare a parlare di voci sulla prossima generazione di hardware grafico di Nvidia. Molti si aspettano che Nvidia sveli la sua serie Ampere di schede grafiche per giochi il prossimo mese, anche se l' annuncio di Nvidia GTC Keynote non menziona nemmeno i giochi.
La conversazione è diventata stupida, con molti siti che condividono l'immagine qui sotto del China Times che presumibilmente rivela le specifiche delle serie di schede grafiche Ampere RTX 30 di Nvidia. Molti di questi siti non sono riusciti a citare la loro fonte, China Times, e invece si collegano a un Tweet (ora eliminato) di @chiakokhua, un ingegnere in pensione su Twitter. Nota che questo Tweet è stato eliminato perché @chiakokhua ora crede che le specifiche del China Times siano false.
Una cosa importante da notare sull'articolo di China Times è che non si tratta delle specifiche della serie di schede grafiche RTX 30 di Nvidia. Usano solo un'immagine che dettaglia le specifiche delle voci. L'articolo in sé riguarda i partner della scheda Add-in di Nvidia, come ASUS, Gigabyte e MSI, hanno iniziato a ridurre le loro spedizioni di schede grafiche della serie RTX 20 per prepararsi al rilascio dell'hardware grafico di prossima generazione nella seconda metà del 2020.
China Times prevede che Nvidia rilasci le schede grafiche della serie RTX 30 alla fine del terzo trimestre del 2020, con ulteriori rilasci hardware nel quarto trimestre 2020 e nel primo trimestre 2021.
Thunder-74
29-04-2020, 21:17
https://uploads.tapatalk-cdn.com/20200429/2c00d855dfb23b8f492224a0ace4e2d2.jpg
Inviato dal mio iPad utilizzando Tapatalk
TigerTank
29-04-2020, 21:20
Non mi piacciono come valori... hai fatto bene a prenderne uno nuovo ;)
Inviato dal mio iPhone X utilizzando Tapatalk
Assolutamente non vanno bene quei valori. 11,5xx in full e cmq sempre sotto i 12v non mi piacciono assai. Un alimentatore non dovrebbe scendere sotto i 12v in full. Un conto 11,995v, per esempio. Ma 11,5 sono una bella differenza.
Cambialo appena puoi.
Inviato dal mio LYA-L09 utilizzando Tapatalk
Valori un pò degradati(7 anni di servizio non sono comunque pochi) + cavi discutibili = frittatona di cipolle! :D
Comunque successe anche a me con un AX860 e lo SLi di 1070...alla faccia del livello dell'alimentatore e dei pochissimi anni di servizio. Crash e riavvii sotto stress. Cambiato con l'attuale EVGA, mai più avuto problemi.
@Thunder: hai letto QUI (https://www.hwupgrade.it/forum/showthread.php?t=2457431&page=2350) inclusa la risposta di Mike?
Thunder-74
29-04-2020, 21:27
Valori un pò degradati(7 anni di servizio non sono comunque pochi) + cavi discutibili = frittatona di cipolle! :D
Comunque successe anche a me con un AX860 e lo SLi di 1070...alla faccia del livello dell'alimentatore e dei pochissimi anni di servizio. Crash e riavvii sotto stress. Cambiato con l'attuale EVGA, mai più avuto problemi.
@Thunder: hai letto QUI (https://www.hwupgrade.it/forum/showthread.php?t=2457431&page=2350) inclusa la risposta di Mike?
No , non avevo letto. Quindi Fake sicura... Fra 15gg vediamo cosa annunceranno...
Inviato dal mio iPad utilizzando Tapatalk
TigerTank
29-04-2020, 21:33
No , non avevo letto. Quindi Fake sicura... Fra 15gg vediamo cosa annunceranno...
Secondo me quando sarà arriverà subito la Ti, la situazione mi sembra troppo ghiotta per non lanciarla subito per quella fascia di enthusiast benestanti mai sazi di prestazioni. Non solo circa i monitor 4K da gaming per i quali anche la 2080Ti è limitata ma per il fatto che stanno uscendo/usciranno monitor 1440p Freesync Premium/gsync compatibili oltre la soglia dei 144Hz(es. 170Hz). Per cui diciamo che i contesti da fanatici per sfruttare nuove schede a livello di risoluzione/refresh alto sono già maturi. E di sicuro è implicita la domanda di maggiori prestazioni in RT.
Ovviamente il tutto nei limiti del casino globale che stiamo vivendo.
Thunder-74
29-04-2020, 21:47
Secondo me quando sarà arriverà subito la Ti, la situazione mi sembra troppo ghiotta per non lanciarla subito per quella fascia di enthusiast benestanti mai sazi di prestazioni. Non solo circa i monitor 4K da gaming per i quali anche la 2080Ti è limitata ma per il fatto che stanno uscendo/usciranno monitor 1440p Freesync Premium/gsync compatibili oltre la soglia dei 144Hz(es. 170Hz). Per cui diciamo che i contesti da fanatici per sfruttare nuove schede a livello di risoluzione/refresh alto sono già maturi. E di sicuro è implicita la domanda di maggiori prestazioni in RT.
Ovviamente il tutto nei limiti del casino globale che stiamo vivendo.
Comunque, a mio avviso, con le nuove console si alzerà l asticella di botto. Quindi potremmo fare un passo in dietro in termini di frames al secondo nelle rispettive risoluzioni , a seguito, ovviamente, di un comparto grafico migliore
Inviato dal mio iPhone X utilizzando Tapatalk
razor820
29-04-2020, 22:27
https://uploads.tapatalk-cdn.com/20200429/2c00d855dfb23b8f492224a0ace4e2d2.jpg
Inviato dal mio iPad utilizzando Tapatalk
Se i valori sono questi, possiamo dire che la serie 20xx è stata la peggiore di tutti.
Soprattutto per il rapporto qualità/prezzo..
Diciamo che chi ha la 1080ti ha fatto un affare a non venderla per passare alla 2080 o 2080ti
Non mi piacciono come valori... hai fatto bene a prenderne uno nuovo ;)
Inviato dal mio iPhone X utilizzando Tapatalk
Assolutamente non vanno bene quei valori. 11,5xx in full e cmq sempre sotto i 12v non mi piacciono assai. Un alimentatore non dovrebbe scendere sotto i 12v in full. Un conto 11,995v, per esempio. Ma 11,5 sono una bella differenza.
Cambialo appena puoi.
Inviato dal mio LYA-L09 utilizzando Tapatalk
Scusate, ma perchè tutta sta voglia di cambiare componenti? 11.6V sono comunque una tensione buona nel range di funzionamento dei componenti PC.
Se non ha ripple ed è abbastanza stabile, non è affatto nociva. E non lo dico io, The_SaN, ingegnere e progettista elettrico. Lo dice lo standard ATX. Il calo è fisiologico data l'età della PSU, ma non è affatto in fin di vita.
:mbe: ho avuto gli stessi identici problemi. Credevo fosse la scheda madre, in tutta sincerità, perché appena l'ho cambiata sono spariti anche questi malfunzionamenti.
Comunque, col cablaggio corretto, ho fatto andare 3d Mark per circa 4 ore quest'oggi e non ho avuto nessun crash. Ad ogni modo non voglio rischiare ulteriormente. Appena mi arriva il nuovo, cambio tutto di corsa. Anche a me ha da poco superato i sette anni. Evidentemente la loro durata è questa :D
Per carità, se ti senti più sicuro hai fatto bene a comprare l'alimentatore nuovo...ma quello che hai funziona ancora bene e mi sembra palese che il problema fosse l'adattatore.
Thunder-74
30-04-2020, 06:54
Scusate, ma perchè tutta sta voglia di cambiare componenti? 11.6V sono comunque una tensione buona nel range di funzionamento dei componenti PC.
Se non ha ripple ed è abbastanza stabile, non è affatto nociva. E non lo dico io, The_SaN, ingegnere e progettista elettrico. Lo dice lo standard ATX. Il calo è fisiologico data l'età della PSU, ma non è affatto in fin di vita.
Per carità, se ti senti più sicuro hai fatto bene a comprare l'alimentatore nuovo...ma quello che hai funziona ancora bene e mi sembra palese che il problema fosse l'adattatore.
Lo trovo un calo vistoso rispetto al funzionamento normale, anche se si trova ancora nei margini di tolleranza. Affidargli hardware costoso come una 2080ti, non lo trovo sensato se si vuole star tranquilli e non avere il tarlo che possa perdere ulteriormente efficienza.
Se spendo più di 1000 euro di vga e altrettanto tra cpu e Mobo, non posso lesinare sul componente più importante . La penso così :)
Il mio EVGA che tra un po' farà 6 anni....
https://i.imgur.com/js99Lq4.png
Inviato dal mio iPhone X utilizzando Tapatalk
th3o|dm4n
30-04-2020, 07:19
Lo trovo un calo vistoso rispetto al funzionamento normale, anche se si trova ancora nei margini di tolleranza. Affidargli hardware costoso come una 2080ti, non lo trovo sensato se si vuole star tranquilli e non avere il tarlo che possa perdere ulteriormente efficienza.
Se spendo più di 1000 euro di vga e altrettanto tra cpu e Mobo, non posso lesinare sul componente più importante . La penso così :)
Il mio EVGA che tra un po' farà 6 anni....
https://i.imgur.com/js99Lq4.png
Inviato dal mio iPhone X utilizzando TapatalkPer carità, tu hai ragionissima, semplicemente credevo stesse messo meglio. Appena constatata l'amara realtà, ho messo mano al portafogli. :cry:
ps: dove trovo il valore +3.3V? Non sono riuscito a trovarlo da nessuna parte...
demonangel
30-04-2020, 07:52
Per carità, tu hai ragionissima, semplicemente credevo stesse messo meglio. Appena constatata l'amara realtà, ho messo mano al portafogli. :cry:
ps: dove trovo il valore +3.3V? Non sono riuscito a trovarlo da nessuna parte...
Con Aida64
Black"SLI"jack
30-04-2020, 07:52
Scusate, ma perchè tutta sta voglia di cambiare componenti? 11.6V sono comunque una tensione buona nel range di funzionamento dei componenti PC.
Se non ha ripple ed è abbastanza stabile, non è affatto nociva. E non lo dico io, The_SaN, ingegnere e progettista elettrico. Lo dice lo standard ATX. Il calo è fisiologico data l'età della PSU, ma non è affatto in fin di vita.
Per carità, se ti senti più sicuro hai fatto bene a comprare l'alimentatore nuovo...ma quello che hai funziona ancora bene e mi sembra palese che il problema fosse l'adattatore.
so perfettamente cosa dice lo standard atx sulle tensione. però sono anche 20 anni che lavoro, prima come tecnico di laboratorio e poi come sistemista, in questo mondo. però ho imparato nel corso del tempo che gli standard sulla carta sono una cosa, la realtà è ben diversa. ho visto fin troppi pc con alimentatori che in full portavano le tensioni ben al di sotto dei 12v, per poi dare problemi di ogni sorta.
ci sono passato non tanto tempo fa pure io, che da un momento all'altro un evga platinum da 1200w, con la 2080ti, schermo nero, ventole a palla e riavvio della macchina. messo per test un vecchio cooler master silent pro da 1000w, 0 problemi. ecco l'evga sotto sforzo portava il 12v troppo basso e via crash. sostituito. e considera che aveva metà degli anni del c.m.
non era la 2080ti, perché perfettamente funzionante, all'epoca a default, e adesso in oc 2085/15000 @ 1v, bios mod da 380w e sotto liquido.
@Thunder
ho capito qual' era il problerma del forte stuttering...era l'hard disk WD meccanico...mi è arrivato ieri il Sabrent M.2 l'ho installato ed ho messo gli stessi giochi che mi davano lo stuttering...sul Sabrent non presenta nessuno scatto o stuttering i giochi vanno lisci, meno male ho risolto almeno;) lo so è fuori OT ma volevo avviasare a Thunder visto che mi voleva aiutare:)
mattxx88
30-04-2020, 09:37
@Thunder
ho capito qual' era il problerma del forte stuttering...era l'hard disk WD meccanico...mi è arrivato ieri il Sabrent M.2 l'ho installato ed ho messo gli stessi giochi che mi davano lo stuttering...sul Sabrent non presenta nessuno scatto o stuttering i giochi vanno lisci, meno male ho risolto almeno;) lo so è fuori OT ma volevo avviasare a Thunder visto che mi voleva aiutare:)
davvero su quel popò di hardware stavi ancora con un meccanico??? :stordita: :stordita:
personalmente ritengo gli ssd la più grande rivoluzione tecnologica degli ultimi 15 anni, una cosa di cui ormai non ne farei proprio più a meno
davvero su quel popò di hardware stavi ancora con un meccanico??? :stordita: :stordita:
si onestamente hai ragione...ma si dice meglio tardi che mai;) :D prima di acquistare M.2 avevo comunque un SSD ma da 120GB molto piccolo era giusto per tenerci solo windows e driver...Hard disk meccanico lo usavo per i giochi ed il resto dei programmi...
mattxx88
30-04-2020, 09:41
si onestamente hai ragione...ma si dice meglio tardi che mai;) :D
assolutamente, benvenuto nel futuro! :D
FrancoBit
30-04-2020, 09:42
davvero su quel popò di hardware stavi ancora con un meccanico??? :stordita: :stordita:
personalmente ritengo gli ssd la più grande rivoluzione tecnologica degli ultimi 15 anni, una cosa di cui ormai non ne farei proprio più a meno
Io ormai i mecca non li uso più, anche quelli che avevo da meno di 1 anno li ho smazzati tutti. Altro mondo proprio
Thunder-74
30-04-2020, 09:42
@Thunder
ho capito qual' era il problerma del forte stuttering...era l'hard disk WD meccanico...mi è arrivato ieri il Sabrent M.2 l'ho installato ed ho messo gli stessi giochi che mi davano lo stuttering...sul Sabrent non presenta nessuno scatto o stuttering i giochi vanno lisci, meno male ho risolto almeno;) lo so è fuori OT ma volevo avviasare a Thunder visto che mi voleva aiutare:)
Ottimo, allora vuol dire che una sorta di streaming lo facevano ;)
Ottimo il Sabrent. Lo avevo preso quando stava a 119 euro, se si abbassa ne prendo un altro :)
Intendo quello blu TLC
Inviato dal mio iPhone X utilizzando Tapatalk
mattxx88
30-04-2020, 09:51
Io ormai i mecca non li uso più, anche quelli che avevo da meno di 1 anno li ho smazzati tutti. Altro mondo proprio
ricordo ancora appena montai il 950 pro (2€ al giga, un salasso) e venivo da un raid di raptor, restai basito :eek:
razor820
30-04-2020, 09:52
Io ormai i mecca non li uso più, anche quelli che avevo da meno di 1 anno li ho smazzati tutti. Altro mondo proprio
Io ho 3 ssd. Di 500 e 1tb... ti posso dire che ancora L hd è d’obbligo... Visto che 2tb o 4tb costano una cifra. Ma a parte questo a parte i vari programmi di Windows, video editing ecc, il 90% dei giochi in circolazione gira identicamente come ssd che hdd. Anche i giochi più recenti a volte li sposto nel hdd se vedo che anche il caricamento è uguale.
Ssd preferisco usarli per compressione, editing e tutto quello che riguarda i file e sowtfare ambiente windows
mattxx88
30-04-2020, 09:56
Io ho 3 ssd. Di 500 e 1tb... ti posso dire che ancora L hd è d’obbligo... Visto che 2tb o 4tb costano una cifra. Ma a parte questo a parte i vari programmi di Windows, video editing ecc, il 90% dei giochi in circolazione gira identicamente come ssd che hdd. Anche i giochi più recenti a volte li sposto nel hdd se vedo che anche il caricamento è uguale.
Ssd preferisco usarli per compressione, editing e tutto quello che riguarda i file e sowtfare ambiente windows
se ho bisogno di spazio preferisco comunque un ssd sata a un hdd meccanico
FrancoBit
30-04-2020, 09:59
Io ho 3 ssd. Di 500 e 1tb... ti posso dire che ancora L hd è d’obbligo... Visto che 2tb o 4tb costano una cifra. Ma a parte questo a parte i vari programmi di Windows, video editing ecc, il 90% dei giochi in circolazione gira identicamente come ssd che hdd. Anche i giochi più recenti a volte li sposto nel hdd se vedo che anche il caricamento è uguale.
Ssd preferisco usarli per compressione, editing e tutto quello che riguarda i file e sowtfare ambiente windows
Be' chiaro qualche compromesso va fatto in merito all'archiviazione. Ho avuto la fortuna di prendere il Sabrent 2t in sconto, comunque pagato una fucilata, mi sembra sui 270€ a natale scorso. Negli ultimi anni comunque con netflix e le varie piattaforme mi trovo a dover archiviare meno dati rispetto al passato. Per i giochi non installo tanta roba, solo quelli che sfrutto, ovviamente lo sbattimento è compensato dalla linea fibra da 1Giga che mi permette di scaricare "al volo" qualsiasi titolo.
fabietto27
30-04-2020, 11:17
ricordo ancora appena montai il 950 pro (2€ al giga, un salasso) e venivo da un raid di raptor, restai basito :eek:
Allora non ero l'unico pirla ad avere fatto il raid coi Raptor :sofico:
mattxx88
30-04-2020, 11:22
Allora non ero l'unico pirla ad avere fatto il raid coi Raptor :sofico:
c'era poco, allora, di più performante :D
anche con 3 dischi l'ho fatto il raid 0
usando solo il pc per giocare non mi sono mai preoccupato troppo della perdita dati
demonangel
30-04-2020, 11:45
se ho bisogno di spazio preferisco comunque un ssd sata a un hdd meccanico
Quotone
assolutamente, benvenuto nel futuro! :D
Addirittura:D :D grazie:D
Ottimo, allora vuol dire che una sorta di streaming lo facevano ;)
Ottimo il Sabrent. Lo avevo preso quando stava a 119 euro, se si abbassa ne prendo un altro :)
Intendo quello blu TLC
Inviato dal mio iPhone X utilizzando Tapatalk
si ho preso il Sbrent quello Blu, ma da 500GB;)
https://static.mydealz.de/live/threads/thread_full_screen/default/1383593_1.jpg
aldo87mi
30-04-2020, 16:41
Ragazzi volevo segnalarvi che oggi è uscito un gioco Indie sviluppato da soli italiani
https://store.steampowered.com/app/434190/Follia__Dear_father/
Si chiama Follia Dear Father e pare che supporta anche la VR
Lo trovo un calo vistoso rispetto al funzionamento normale, anche se si trova ancora nei margini di tolleranza. Affidargli hardware costoso come una 2080ti, non lo trovo sensato se si vuole star tranquilli e non avere il tarlo che possa perdere ulteriormente efficienza.
Se spendo più di 1000 euro di vga e altrettanto tra cpu e Mobo, non posso lesinare sul componente più importante . La penso così :)
Il mio EVGA che tra un po' farà 6 anni....
https://i.imgur.com/js99Lq4.png
Inviato dal mio iPhone X utilizzando Tapatalk
Anche la tolleranza positiva non è buona, anzi, è potenzialmente più dannosa rispetto a quella negativa. Se avere ad esempio 11.4V ti porta ad avere una corrente leggermente maggiorata, averne 12.6 sollecita i componenti sensilbili. Ma quando siamo entro il 5% siamo nel range di funzionamento dei componenti interni, quindi non ci sono problemi, soprattutto senza sbalzi.
so perfettamente cosa dice lo standard atx sulle tensione. però sono anche 20 anni che lavoro, prima come tecnico di laboratorio e poi come sistemista, in questo mondo. però ho imparato nel corso del tempo che gli standard sulla carta sono una cosa, la realtà è ben diversa. ho visto fin troppi pc con alimentatori che in full portavano le tensioni ben al di sotto dei 12v, per poi dare problemi di ogni sorta.
ci sono passato non tanto tempo fa pure io, che da un momento all'altro un evga platinum da 1200w, con la 2080ti, schermo nero, ventole a palla e riavvio della macchina. messo per test un vecchio cooler master silent pro da 1000w, 0 problemi. ecco l'evga sotto sforzo portava il 12v troppo basso e via crash. sostituito. e considera che aveva metà degli anni del c.m.
non era la 2080ti, perché perfettamente funzionante, all'epoca a default, e adesso in oc 2085/15000 @ 1v, bios mod da 380w e sotto liquido.
Che la scheda vada in crash con tensioni troppo basse è normale, ma che valori avevi? Con l'alimentatore regolabile da laboratorio ho fatto dei test con alcune schede video e crashavano a 11.2V (quindi oltre la tolleranza), e diventavano leggermente più schizzinose in OC. Ma mai avuto crash a 11.6V con nessuna scheda.
Edit: mi sa che siamo OT, chiedo scusa
Thunder-74
01-05-2020, 12:07
Piccolo consiglio per chi usa il Lumasharpen di Reshade .
Ho notato che si perde circa il 10% delle prestazioni con questo filtro.
Per avere una perdita del 5% e una resa molto simile, io uso FilmicAnamorphSharpen.fx
Inoltre ho provato a paragonare questi filtri con lo sharpen del pannello nVidia. Se da un lato le prestazioni siano migliori, non si ha la stessa resa visiva.
Iceman69
01-05-2020, 14:16
si ho preso il Sbrent quello Blu, ma da 500GB;)
https://static.mydealz.de/live/threads/thread_full_screen/default/1383593_1.jpg
Io presi quello da 2TB durante il black friday di novembre su Amazon, buone le prestazioni, ma attento che scalda, io ci ho messo un dissipatore.
Thunder-74
01-05-2020, 14:50
Io presi quello da 2GB durante il black friday di novembre su Amazon, buone le prestazioni, ma attento che scalda, io ci ho messo un dissipatore.
Il mio sta tra i 30 e i 45 gradi , ho su il dissi della mobo.
Inviato dal mio iPad utilizzando Tapatalk
TigerTank
01-05-2020, 15:51
Piccolo consiglio per chi usa il Lumasharpen di Reshade .
Ho notato che si perde circa il 10% delle prestazioni con questo filtro.
Per avere una perdita del 5% e una resa molto simile, io uso FilmicAnamorphSharpen.fx
Inoltre ho provato a paragonare questi filtri con lo sharpen del pannello nVidia. Se da un lato le prestazioni siano migliori, non si ha la stessa resa visiva.
Grazie del consiglio, lo proverò :)
P.S. Quindi reputi migliore lo sharpen nvidia?
th3o|dm4n
01-05-2020, 15:52
Buongiorno ragazzi, questa cosa che mi sta accadendo non ha alcun senso.
Ho cambiato alimentatore, ho sistemato tutto a dovere.
Ho fatto svariate ore di test con 3D Mark e qualche benchmark con Red Dead Redemption II e nessun problema.
Lancio Ghost Recon Breackpoint e le ventole della vga non vanno oltre il 15%. Me ne sono accorto perché le temperature erano salite a 61°. Il bello è che se chiudo il gioco, non mi fa aumentare la velocità nemmeno in manuale, devo riavviare. È una cosa apparentemente senza senso. :mbe:
aldo87mi
01-05-2020, 16:06
Ragazzi l'Image sharpening di Nvidia può fare miracoli se usato bene. In certi giochi fa davvero la differenza. Molti giochi degli ultimi anni hanno il vizio di usare in gran quantità la TAA antialiasing, la quale se da un lato riesce a ridurre bene le seghettature, dall'altro lato rende i colori acquosi, pastellosi, cartoonellosi, non so come renderlo in italiano, noi in UK diciamo "washed out" o "blurred". Tanti, tantissimi giochi degli ultimi anni hanno questo difetto. Su Red Dead Redempion 2 ad esempio l'Image sharpening di Nvidia funziona a meraviglia: basterà lasciare il film grain a 0.17 di default e mettere lo Sharpen a 0.60 (o max 0.70) e magicamente viene asciugato tutto l'effetto acquosità dei colori, rendendo tutti gli oggetti più definiti, i capelli di Arthur realistici e bellissimi, il paesaggio, le montagne, l'erba, persino le ombre sono migliori. E la cosa interessante di Red Dead Redemption 2 ad esempio è che attivando l'Image sharpening si può anche un pò abbassare la risoluzione del gioco perché visivamente l'impatto sarà comunque notevole. Ad esempio io ho provato il gioco in 1440p e senza Image Sharpening ma fa ancora abbastanza schifo. Se invece metto 1440p (o anche leggermente di meno, diciamo tra 1440p < x < 1080p) più l'Image Sharpening si vede una meraviglia, stupendo. Non c'è bisogno di metterlo in 4k (che tra l'altro è pesantissimo, uccide qualunque sk vid in commercio).
Potrei fare altri esempi, stessa cosa in Wolfenstein Youngblood, in MGS 5: PP, The Outer Worlds (quest'ultimo senza sharpening bisogna metterlo per forza in 4k per avere una resa grafica "accettabile", giacchè a risoluzioni inferiori l'acquosità dei colori è davvero fastidiosa ma se si attiva lo sharpening dal pannello di controllo Nvidia magicamente si vede benissimo anche a 1080p).
Insomma ragazzi giocate coi valori dell'Image sharpening, usatelo sapientemente e vi cambierà notevolmente la resa grafica nei giochi, migliorandola anche a risoluzioni inferiori di 4k: ne beneficia il framerate e ne beneficia la qualità grafica. Il problema è questa maledetta antialiasing di scarsa qualità che usano negli ultimi anni gli sviluppatori.
Per un certo periodo alcuni anni fa i giochi usavano la SMAA (2x o 4x) che era veramente ottima anche a 1080p, elmininava tutte le seghettature, rendeva gli oggetti bellissimi, i colori restavano vivi (ad es. il vecchio Hitman e il vecchio Tomb Raider nel 2012-2013), non era una AA eccessivamente pesante. Poi hanno deciso di non usarla più ultimamente o di usarla molto meno (l'avrò vista in 2-3 giochi massimo negli ultimi due anni, per lo più giochi Indie). Vabè, comunque, usate l'Image sharpening di Nvidia, fa veramente miracoli in più occasioni.
Thunder-74
01-05-2020, 16:07
Buongiorno ragazzi, questa cosa che mi sta accadendo non ha alcun senso.
Ho cambiato alimentatore, ho sistemato tutto a dovere.
Ho fatto svariate ore di test con 3D Mark e qualche benchmark con Red Dead Redemption II e nessun problema.
Lancio Ghost Recon Breackpoint e le ventole della vga non vanno oltre il 15%. Me ne sono accorto perché le temperature erano salite a 61°. Il bello è che se chiudo il gioco, non mi fa aumentare la velocità nemmeno in manuale, devo riavviare. È una cosa apparentemente senza senso. :mbe:
Domanda... lo hai lanciato sotto dx12 o Vulkan?
Grazie del consiglio, lo proverò :)
P.S. Quindi reputi migliore lo sharpen nvidia?
Quello nVidia è meno esoso in risorse , ma graficamente preferisco reshade
Inviato dal mio iPhone X utilizzando Tapatalk
th3o|dm4n
01-05-2020, 16:09
Domanda... lo hai lanciato sotto dx12 o Vulkan?
A quale dei due ti riferisci? RDR2 IN Dx12. Breakpoint onestamente non ricordo... dici che influenza il comportamento delle ventole?
Thunder-74
01-05-2020, 16:17
A quale dei due ti riferisci? RDR2 IN Dx12. Breakpoint onestamente non ricordo... dici che influenza il comportamento delle ventole?
No magari di Afterburner o il programma che usi per la gestione ventole... prova Ghost Recon in dx12 e vedi se va. Poi riprova a in vulkan ... tentativi per capire ...
Inviato dal mio iPhone X utilizzando Tapatalk
Per chi già gioca RDR2 quali sono i settaggi grafici da non attivare per evitare di ritrovarsi un mattone osceno ingiustificabile? Per caso sono gli stessi settaggi disattivati sulla versione della One X?
TigerTank
01-05-2020, 18:13
Quello nVidia è meno esoso in risorse , ma graficamente preferisco reshade
Stessa mia impressione ;)
Per chi già gioca RDR2 quali sono i settaggi grafici da non attivare per evitare di ritrovarsi un mattone osceno ingiustificabile? Per caso sono gli stessi settaggi disattivati sulla versione della One X?
Prova a vedere se questa (https://www.youtube.com/watch?v=385eG1IEZMU) guida ti può aiutare. E' divisa in 2 parti.
th3o|dm4n
01-05-2020, 18:13
No magari di Afterburner o il programma che usi per la gestione ventole... prova Ghost Recon in dx12 e vedi se va. Poi riprova a in vulkan ... tentativi per capire ...
Inviato dal mio iPhone X utilizzando Tapatalk
Uso MSI Afterburner.
Ho provato ad avviare Ghost Recon - Breakpoint con le Vulkan e il problema non si verifica. :mbe:
Mi è sorto un dubbio e ho provato altri titoli Uplay.
Con Steep nessun problema (ma qui siamo in ambito Dx11).
Con The Division 2 si verifica lo stesso problema, con Dx12 atttive e non.
Più che altro ho notato, monitorando anche con HW-Info, che per un secondo o due le ventole cercano di andare a regime, ma poi ritornano di nuovo al minimo.
Uso MSI Afterburner.
Ho provato ad avviare Ghost Recon - Breakpoint con le Vulkan e il problema non si verifica. :mbe:
Mi è sorto un dubbio e ho provato altri titoli Uplay.
Con Steep nessun problema (ma qui siamo in ambito Dx11).
Con The Division 2 si verifica lo stesso problema, con Dx12 atttive e non.
Più che altro ho notato, monitorando anche con HW-Info, che per un secondo o due le ventole cercano di andare a regime, ma poi ritornano di nuovo al minimo.
Prova a disabilitare Afterburner e lasciare la scheda a default, monitorandola con HWinfo. Per vedere se è un problema specifico del software in questione.
Thunder-74
01-05-2020, 18:28
Uso MSI Afterburner.
Ho provato ad avviare Ghost Recon - Breakpoint con le Vulkan e il problema non si verifica. :mbe:
Mi è sorto un dubbio e ho provato altri titoli Uplay.
Con Steep nessun problema (ma qui siamo in ambito Dx11).
Con The Division 2 si verifica lo stesso problema, con Dx12 atttive e non.
Più che altro ho notato, monitorando anche con HW-Info, che per un secondo o due le ventole cercano di andare a regime, ma poi ritornano di nuovo al minimo.
Fai come dice The_SaN . Eventualmente disinstalla AB e reinstallalo, magari con l'ultima versione disponibile, qualora non fosse quella che già hai.
Attualmente l'ultima è la 4.6.2 Stabile LINK Diretto (https://www.guru3d.com/files-get/msi-afterburner-beta-download,36.html)
th3o|dm4n
01-05-2020, 19:14
Prova a disabilitare Afterburner e lasciare la scheda a default, monitorandola con HWinfo. Per vedere se è un problema specifico del software in questione.
Fai come dice The_SaN . Eventualmente disinstalla AB e reinstallalo, magari con l'ultima versione disponibile, qualora non fosse quella che già hai.
Attualmente l'ultima è la 4.6.2 Stabile LINK Diretto (https://www.guru3d.com/files-get/msi-afterburner-beta-download,36.html)
Ho disabilitato Afterburner e, avendo le MSI la tecnologia Zero Frozr, finché la temperatura non tocca i 50°, le ventole stanno allo 0%. Toccati i 50%, c'è un incremento del 15%. Sui 60°, siamo al 23%. A 64° le ventole funzionano al 27%. Diciamo che è tutto normale. Solo non capisco per quale motivo The Division 2 e Ghost Recon Breakpoint (tranne che con le Vulkan) fanno prevalere i settaggi di default rispetto a quelli di Afterburner, dove ho impostato la curva in modo da far partire le ventole prima; con tutti gli altri giochi e con un paio di software di disegno 3D, invece, prevalgono i settaggi di AB.
Io presi quello da 2GB durante il black friday di novembre su Amazon, buone le prestazioni, ma attento che scalda, io ci ho messo un dissipatore.
2GB?? forse intendevi da 250GB...:D non ho ancora visto le temperature...
Iceman69
01-05-2020, 23:57
2GB?? forse intendevi da 250GB...:D non ho ancora visto le temperature...
Sorry, 2TB
aldo87mi
02-05-2020, 00:29
Per chi già gioca RDR2 quali sono i settaggi grafici da non attivare per evitare di ritrovarsi un mattone osceno ingiustificabile? Per caso sono gli stessi settaggi disattivati sulla versione della One X?
in sintesi, porta tutto su Alto eccetto la qualità delle textures che puoi tenerla su Ultra.
Più in dettaglio, negli screenshots qui sotto ti ho cerchiato in rosso le opzioni che dovresti mettere su Alto per non appesantire troppo il gioco:
https://i.postimg.cc/8Pc6dwfd/RDR2-2020-05-02-01-10-51-742.jpg
https://i.postimg.cc/brC2cSW2/RDR2-2020-05-02-01-11-05-247.jpg
https://i.postimg.cc/tR26V8JC/RDR2-2020-05-02-01-11-28-750.jpg
https://i.postimg.cc/VLkjGmpC/RDR2-2020-05-02-01-11-37-152.jpg
L'illuminazione andrebbe tenuta su Alto (ad Ultra è davvero pesante se giochi in 4k), anche l'acqua, le ombre e i riflessi ti consiglio su Alto (e non Ultra).
Poi, una cosa che "uccide" letteralmente le prestazioni è la Risoluzione volumetrica: anche qui ti consiglio su Alto. Stessa cosa la qualità dell'illuminazione volumetrica.
Ti consiglio anche di disattivare il Raymarch volumetrico se vuoi allegerire un pò il framerate.
Illuminazione particellare metti su Alto.
MSAA: tieni su Off. Piuttosto attiva la TAA (anche se rende acquosi i colori ma come ho scritto sopra c'è il rimedio dell'Image sharpening dal pannello di controllo Nvidia)
MSAA sui riflessi: disattiva totalmente (attivarla riduce di molto le prestazioni)
E' tutto :)
P.S. se hai un monitor 4k e vuoi "evitare" di giocare in 4k (perchè diciamocelo per RDR 2 è come uccidersi per quanto è pesante) potresti giocare a una risoluzione inferiore e poi attivare Image sharpening + GPU scaling. Io ad esempio gioco a 1080p e nel gioco ho attivato Risoluzione dinamica 3/2 x 1,500 (praticamente è come se giocassi a 1620p). In più uso Image sharpening a 0.65 (film grain untouched su 0.17). in RDR 2 ti consiglio di non usare i DSR factors perché la resa non è ottimale come la Risoluzione dinamica (quest'ultima funziona davvero bene ed è attivabile facilmente nelle opzioni del gioco).
Con la RTX 2080 tenendo su Alto le opzioni sopra dovrebbe andarti molto bene
Io non uso lo sharpening nvidia, uso quello del reshade, tra l'altro ce ne stanno di tanti tipi diversi e tutti ampiamente modificabili, uno che uso molto è il QUINT_sharp, adoro Reshade, rende tutto migliore e più realistico, non c'è gioco in cui non ne faccia uso, a partire dallo shader Ray Tracing
Io non uso lo sharpening nvidia, uso quello del reshade, tra l'altro ce ne stanno di tanti tipi diversi e tutti ampiamente modificabili, uno che uso molto è il QUINT_sharp, adoro Reshade, rende tutto migliore e più realistico, non c'è gioco in cui non ne faccia uso, a partire dallo shader Ray Tracing
ankio uso il Reshade... uso molto il Lumasharpen.fx e il Colorfulness.fx...mi daresti le tue impostazioni del QUINT?? usi l'ultimo Reshade?
Piccolo consiglio per chi usa il Lumasharpen di Reshade .
Ho notato che si perde circa il 10% delle prestazioni con questo filtro.
Per avere una perdita del 5% e una resa molto simile, io uso FilmicAnamorphSharpen.fx
Inoltre ho provato a paragonare questi filtri con lo sharpen del pannello nVidia. Se da un lato le prestazioni siano migliori, non si ha la stessa resa visiva.
ti dico la verità Thunder io uso molto il Lumasharpen e la differenza di prezizioni è di 1-2 max fps...sicuro sia del 10%??
Thunder-74
02-05-2020, 09:54
ti dico la verità Thunder io uso molto il Lumasharpen e la differenza di prezizioni è di 1-2 max fps...sicuro sia del 10%??
Hai ragione, mi sono reso conto proprio adesso che il filtro che stavo usando era l'AdaptiveSharpen.fx che si ciuccia il 10% di prestazioni , scusate a forza di fare prove mi sono rimbambito :doh: . Alla fine meglio il Lumasharpen :cool:
Hai ragione, mi sono reso conto proprio adesso che il filtro che stavo usando era l'AdaptiveSharpen.fx che si ciuccia il 10% di prestazioni , scusate a forza di fare prove mi sono rimbambito :doh: . Alla fine meglio il Lumasharpen :cool:
hahhaha tranquillo;) si il Lumasharpen è il migliore per qualità e prestazioni:) dal Reshade cos'altro usi?? mi daresti alcuni settaggi? ad esempio se usi il Quint o altro?
Kingdemon
02-05-2020, 10:02
Ragazzi qualcuno ha avuto problemi con il framerate bloccato a 60 con gli ultimi driver?
Mi spiego meglio in alcuni giochi (pubg, pubg lite, csgo, squad) mi blocca i frame a 60 e per risolvere o metto in finestra senza bordi, ma non funziona con tutti, o disattivo il vsync da pannello nvidia.
In altri funziona senza problemi over 60.
Le impostazioni sono quelle che uso da sempre:
pannello nvidia
gsync: abilitito schermo intero
vsync: attivo
velocità di aggiornamento preferita: la piu' elevata disponbile
ingame
vsync: disattivato
limite framerate: 141
:help:
Ragazzi qualcuno ha avuto problemi con il framerate bloccato a 60 con gli ultimi driver?
Mi spiego meglio in alcuni giochi (pubg, pubg lite, csgo, squad) mi blocca i frame a 60 e per risolvere o metto in finestra senza bordi, ma non funziona con tutti, o disattivo il vsync da pannello nvidia.
In altri funziona senza problemi over 60.
Le impostazioni sono quelle che uso da sempre:
pannello nvidia
gsync: abilitito schermo intero
vsync: attivo
velocità di aggiornamento preferita: la piu' elevata disponbile
ingame
vsync: disattivato
limite framerate: 141
:help:
molto strano...in caso ritorna sui driver precedenti;) o se vuoi per forza gli ultimi reinstallali...e provi
Thunder-74
02-05-2020, 10:50
hahhaha tranquillo;) si il Lumasharpen è il migliore per qualità e prestazioni:) dal Reshade cos'altro usi?? mi daresti alcuni settaggi? ad esempio se usi il Quint o altro?
in verità uso molto poco. Giusto Lumasharpen (a questo punto :) ) e qUINT_lightroom.fx. Rende i colori più accesi rendendo la scena più fredda/reale. Ovviamente poi va a gusti personali
razor820
02-05-2020, 10:55
Ragazzi qualcuno ha avuto problemi con il framerate bloccato a 60 con gli ultimi driver?
Mi spiego meglio in alcuni giochi (pubg, pubg lite, csgo, squad) mi blocca i frame a 60 e per risolvere o metto in finestra senza bordi, ma non funziona con tutti, o disattivo il vsync da pannello nvidia.
In altri funziona senza problemi over 60.
Le impostazioni sono quelle che uso da sempre:
pannello nvidia
gsync: abilitito schermo intero
vsync: attivo
velocità di aggiornamento preferita: la piu' elevata disponbile
ingame
vsync: disattivato
limite framerate: 141
:help:
Mmm non ha tanto senso tenere V sync attivo dal pannello nvidia e poi dal gioco limiti il frame rate a 141..
Disabilità tutto, vsync in gioco e in pannello, lascia il g sync attivato e limita direttamente dal pannello nvidia il frame a 143..
Io mi sto trovando benone ultimamente con questa nuova feature del pannello di controllo nvidia. Prima usavo riva tuner, adesso sto usando solo quello di nvidia e nel mio caso limito a 164.. e non hai nemmeno bisogno di attivare la latenza su on o ultra, di conseguenza nemmeno quell input lag che ti da il V sync..
Ho provato oggi stesso alien isolation cappandolo a 164 prima con il vsync dal pannello di controllo e poi disattivandolo e sempre dal pannello di controllo limitando solo fps..
La differenza era abissale... solo con V sync attivo sembrava essere tornati alla PS4.. la situazione migliorava se selezionavo ultra come latenza, ma riscontravo qualche bug visivo
Kingdemon
02-05-2020, 11:15
molto strano...in caso ritorna sui driver precedenti;) o se vuoi per forza gli ultimi reinstallali...e provi
E' strano.. all'inizio pensavo fosse un problema di pubg che non è proprio ottimizzato bene anzi. Poi però ho visto che lo fa anche con altri giochi.
Mmm non ha tanto senso tenere V sync attivo dal pannello nvidia e poi dal gioco limiti il frame rate a 141..
Disabilità tutto, vsync in gioco e in pannello, lascia il g sync attivato e limita direttamente dal pannello nvidia il frame a 143..
Io mi sto trovando benone ultimamente con questa nuova feature del pannello di controllo nvidia. Prima usavo riva tuner, adesso sto usando solo quello di nvidia e nel mio caso limito a 164.. e non hai nemmeno bisogno di attivare la latenza su on o ultra, di conseguenza nemmeno quell input lag che ti da il V sync..
Ho provato oggi stesso alien isolation cappandolo a 164 prima con il vsync dal pannello di controllo e poi disattivandolo e sempre dal pannello di controllo limitando solo fps..
La differenza era abissale... solo con V sync attivo sembrava essere tornati alla PS4.. la situazione migliorava se selezionavo ultra come latenza, ma riscontravo qualche bug visivo
Ho sempre tenuto, senza avere problemi, le impostazioni consigliate tempo fa dal buon Tiger e presenti in questa guida: G-SYNC 101: Optimal G-SYNC Settings & Conclusion (https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/14/)
non sapevo del limitatore del pannello nvida grazie per avermelo segnalato lo proverò! Se non c'è nel gioco fin'ora ho usato rivatuner.
razor820
02-05-2020, 12:05
Si ho letto L articolo, ma se avessi dovuto mai attivare il vsync e il gsync contemporaneamente avrei preso un monitor da 200 euro. Il vsync se non attivi La latenza in modalità ultra ti porta ad input lag..
Le domanda è sempre la stessa perché attivare contemporaneamente gsync e vsync? Cosa ti da il vsync in più?
Alla prima ti rispondo che con alcuni monitor potresti ottenere tearing superando determinati fps ma risolvibile facilmente con il frame limiter..
Alla seconda più che vantaggio ottieni input lag
Solo il pensare mi fa rabbrividire. 5 anni fa passai ad un fhd 144hz gsync solo per poter disattivare quell odiosa sincronizzazione
TigerTank
02-05-2020, 13:41
Hai ragione, mi sono reso conto proprio adesso che il filtro che stavo usando era l'AdaptiveSharpen.fx che si ciuccia il 10% di prestazioni , scusate a forza di fare prove mi sono rimbambito :doh: . Alla fine meglio il Lumasharpen :cool:
Ahahahah ecco, sembrava strano! :)
Infatti nemmeno io ho notato un peso così eccessivo, a differenza dell'SMAA che se maxato su scene complesse arriva ad avere un suo bel carico :)
Quindi il lumasharpen resta il top. Io uso praticamente quello e appunto l'SMAA.
in verità uso molto poco. Giusto Lumasharpen (a questo punto :) ) e qUINT_lightroom.fx. Rende i colori più accesi rendendo la scena più fredda/reale. Ovviamente poi va a gusti personali
si dovrei smanettare un po...
Kingdemon
02-05-2020, 17:11
Si ho letto L articolo, ma se avessi dovuto mai attivare il vsync e il gsync contemporaneamente avrei preso un monitor da 200 euro. Il vsync se non attivi La latenza in modalità ultra ti porta ad input lag..
Le domanda è sempre la stessa perché attivare contemporaneamente gsync e vsync? Cosa ti da il vsync in più?
Alla prima ti rispondo che con alcuni monitor potresti ottenere tearing superando determinati fps ma risolvibile facilmente con il frame limiter..
Alla seconda più che vantaggio ottieni input lag
Solo il pensare mi fa rabbrividire. 5 anni fa passai ad un fhd 144hz gsync solo per poter disattivare quell odiosa sincronizzazione
Inizierò a tenere vsync off e limitare i frame da pannello nvidia ;)
Si ho letto L articolo, ma se avessi dovuto mai attivare il vsync e il gsync contemporaneamente avrei preso un monitor da 200 euro. Il vsync se non attivi La latenza in modalità ultra ti porta ad input lag..
Le domanda è sempre la stessa perché attivare contemporaneamente gsync e vsync? Cosa ti da il vsync in più?
Alla prima ti rispondo che con alcuni monitor potresti ottenere tearing superando determinati fps ma risolvibile facilmente con il frame limiter..
Alla seconda più che vantaggio ottieni input lag
Solo il pensare mi fa rabbrividire. 5 anni fa passai ad un fhd 144hz gsync solo per poter disattivare quell odiosa sincronizzazione
Ci sono siti che hanno fatto delle prove misurando imput lag etc ,beh quei test dimostrano che la scelta migliore e' gsync+vsync+cap inferiore del rr del monitor.Io utilizzo questa configurazione,non ho imput lag e se c'e' io non lo noto,ma per niente proprio,comunque una prova la faro' anche io cappando da driver e disabilitando il vsync.
Thunder-74
02-05-2020, 18:38
Ci sono siti che hanno fatto delle prove misurando imput lag etc ,beh quei test dimostrano che la scelta migliore e' gsync+vsync+cap inferiore del rr del monitor.Io utilizzo questa configurazione,non ho imput lag e se c'e' io non lo noto,ma per niente proprio,comunque una prova la faro' anche io cappando da driver e disabilitando il vsync.
Con il gsync attivo, il vsync entra in gioco al raggiungimento dei massimi frames visibili dal pannello del monitor. Se attivi il limite dei frames , non ha senso attivare il vsync.
Inviato dal mio iPad utilizzando Tapatalk
aldo87mi
03-05-2020, 19:38
ragazzi, in questi giorni mi sto buttando a capofitto su Red Dead Redemption 2. E' immenso, sterminato, impegnativo, stupendo. Dopo 27 ore di gioco sono ancora al 19% di completamento al capitolo due pur avendo fatto tantissime missioni. Le missioni sono bellissime, veramente variegate, mai banali né dei meri riempitivi ma sempre sorprendenti. C'è veramente di tutto, cacciare orsi, sabotare treni, liberare criminali di prigione, rubare cavalli, duelli a colpi di pistola, ex amanti, risse al saloon. E' davvero incredibile quanto sia curato, nei minimi particolari, posso affermare con certezza che è il miglior gioco a cui abbia giocato in anni, lo metto nell'olimpo vicino ai miei due idoli Ocarina of Time e TES Skyrim che da sempre considero capolavori inarrivabili. Mi ha veramente sopreso questo RDR 2, quello a cui penso è quanto lavoro ci sia dietro per fare un gioco così, quanti sacrifici si siano chiesti ai dipendenti della Rockstar giacché il loro lavoro è veramente sovraumano, io sono pignolo di natura ma qui veramente si sfiora la perfezione e mi viene difficile trovare un difetto. I soldi spesi li vale veramente tutti e anzi per quanto sono impressionanti i contenuti del gioco direi che sono pochi e che un gioco così io lo venderei almeno a 200 rose :D per non parlare della componente online RDO veramente bellissima.
Vi lascio due screenshots che ho fatto, sembra quasi ray tracing, è rasterizzazione ma fatta veramente bene, segno che i programmatori del gioco sono veramente in gamba :)
https://i.postimg.cc/Znvdk7Sn/RDR2-2020-05-03-20-03-58-461.jpg
https://i.postimg.cc/prjJQXys/RDR2-2020-05-03-20-04-44-462.jpg
Alekos Panagulis
03-05-2020, 20:07
Questa volta sono d'accordo con te. Rdr2 è stupendo.
Inviato dal mio Redmi K20 utilizzando Tapatalk
Alekos Panagulis
04-05-2020, 15:55
Ciao, a proposito di qualche utente in questo thread :D
mi ha fatto ridere questo meme
https://i.ibb.co/0ftpCyk/2080ti.png (https://ibb.co/tbXwqpS)
in sintesi, porta tutto su Alto eccetto la qualità delle textures che puoi tenerla su Ultra.
Più in dettaglio, negli screenshots qui sotto ti ho cerchiato in rosso le opzioni che dovresti mettere su Alto per non appesantire troppo il gioco:
https://i.postimg.cc/8Pc6dwfd/RDR2-2020-05-02-01-10-51-742.jpg
https://i.postimg.cc/brC2cSW2/RDR2-2020-05-02-01-11-05-247.jpg
https://i.postimg.cc/tR26V8JC/RDR2-2020-05-02-01-11-28-750.jpg
https://i.postimg.cc/VLkjGmpC/RDR2-2020-05-02-01-11-37-152.jpg
L'illuminazione andrebbe tenuta su Alto (ad Ultra è davvero pesante se giochi in 4k), anche l'acqua, le ombre e i riflessi ti consiglio su Alto (e non Ultra).
Poi, una cosa che "uccide" letteralmente le prestazioni è la Risoluzione volumetrica: anche qui ti consiglio su Alto. Stessa cosa la qualità dell'illuminazione volumetrica.
Ti consiglio anche di disattivare il Raymarch volumetrico se vuoi allegerire un pò il framerate.
Illuminazione particellare metti su Alto.
MSAA: tieni su Off. Piuttosto attiva la TAA (anche se rende acquosi i colori ma come ho scritto sopra c'è il rimedio dell'Image sharpening dal pannello di controllo Nvidia)
MSAA sui riflessi: disattiva totalmente (attivarla riduce di molto le prestazioni)
E' tutto :)
P.S. se hai un monitor 4k e vuoi "evitare" di giocare in 4k (perchè diciamocelo per RDR 2 è come uccidersi per quanto è pesante) potresti giocare a una risoluzione inferiore e poi attivare Image sharpening + GPU scaling. Io ad esempio gioco a 1080p e nel gioco ho attivato Risoluzione dinamica 3/2 x 1,500 (praticamente è come se giocassi a 1620p). In più uso Image sharpening a 0.65 (film grain untouched su 0.17). in RDR 2 ti consiglio di non usare i DSR factors perché la resa non è ottimale come la Risoluzione dinamica (quest'ultima funziona davvero bene ed è attivabile facilmente nelle opzioni del gioco).
Con la RTX 2080 tenendo su Alto le opzioni sopra dovrebbe andarti molto bene
Grazie mille davvero gentilissimo, seguirò la tua guida. Vedo se conviene tenere il 4K o salire a 1600p come hai fatto te, che peraltro credo risulti un'ottima via di mezzo.
demonangel
04-05-2020, 17:10
[QUOTE=aldo87mi;46757902]ragazzi, in questi giorni mi sto buttando a capofitto su Red Dead Redemption 2. E' immenso, sterminato, impegnativo, stupendo. Dopo 27 ore di gioco sono ancora al 19% di completamento al capitolo due pur avendo fatto tantissime missioni. Le missioni sono bellissime, veramente variegate, mai banali né dei meri riempitivi ma sempre sorprendenti. C'è veramente di tutto, cacciare orsi, sabotare treni, liberare criminali di prigione, rubare cavalli, duelli a colpi di pistola, ex amanti, risse al saloon. E' davvero incredibile quanto sia curato, nei minimi particolari, posso affermare con certezza che è il miglior gioco a cui abbia giocato in anni, lo metto nell'olimpo vicino ai miei due idoli Ocarina of Time e TES Skyrim che da sempre considero capolavori inarrivabili. Mi ha veramente sopreso questo RDR 2, quello a cui penso è quanto lavoro ci sia dietro per fare un gioco così, quanti sacrifici si siano chiesti ai dipendenti della Rockstar giacché il loro lavoro è veramente sovraumano, io sono pignolo di natura ma qui veramente si sfiora la perfezione e mi viene difficile trovare un difetto. I soldi spesi li vale veramente tutti e anzi per quanto sono impressionanti i contenuti del gioco direi che sono pochi e che un gioco così io lo venderei almeno a 200 rose :D per non parlare della componente online RDO veramente bellissima.
Vi lascio due screenshots che ho fatto, sembra quasi ray tracing, è rasterizzazione ma fatta veramente bene, segno che i programmatori del gioco sono veramente in gamba :)
Capolavoro ineguagliabile.
Mi raccomando ora che sei ancora al secondo capitolo...fatti tutte le missioni secondarie, perchè più avanti non potrai più tornare indietro per farle.
Questo è stato il mio unico rammarico :cry:
frankjr1
05-05-2020, 10:02
Capolavoro ineguagliabile.
Mi raccomando ora che sei ancora al secondo capitolo...fatti tutte le missioni secondarie, perchè più avanti non potrai più tornare indietro per farle.
Questo è stato il mio unico rammarico :cry:
come si fa a capire quale sono le secondarie e quale le primarie?
mi trovo al secondo capitolo :D
vorrei evitare di fare il tuo stesso errore :D
th3o|dm4n
05-05-2020, 10:52
come si fa a capire quale sono le secondarie e quale le primarie?
mi trovo al secondo capitolo :D
vorrei evitare di fare il tuo stesso errore :DLe secondarie sono di colore bianco. Sono disponibili per un breve lasso di tempo, di solito legato al capitolo (termini il capitolo, non hai più accesso ad alcune secondarie). Inoltre ci sono anche alcuni eventi casuali dalla durata limitata (tipo il tizio che sta costruendo casa a sud di Valentine oppure la squadra che sta lavorando ai binari della ferrovia, a ovest di Van Horn) coi quali puoi interagire e sbloccare piccole side quest.
frankjr1
05-05-2020, 12:55
Le secondarie sono di colore bianco. Sono disponibili per un breve lasso di tempo, di solito legato al capitolo (termini il capitolo, non hai più accesso ad alcune secondarie). Inoltre ci sono anche alcuni eventi casuali dalla durata limitata (tipo il tizio che sta costruendo casa a sud di Valentine oppure la squadra che sta lavorando ai binari della ferrovia, a ovest di Van Horn) coi quali puoi interagire e sbloccare piccole side quest.
grazie
gentilissimo
Thunder-74
05-05-2020, 16:27
Sognamo un pochino...
È questo il futuro di Unreal Engine 4?
alcuni render Unreal Engine 4 con Ray Tracing...
http://i.imgur.com/A65bZPJl.jpg (https://imgur.com/A65bZPJ)
http://i.imgur.com/CiP9wOzl.jpg (https://imgur.com/CiP9wOz)
VIDEO (https://youtu.be/nLkeNbu6hxo)
FONTE (https://www.techpowerup.com/266622/is-this-the-future-of-unreal-engine-4)
razor820
05-05-2020, 16:44
Magari.. anche se fosse senza i vari effetti rtx non sfigurerebbe..
Però sono abbastanza scettico, non è che fino ad ora i giochi con unreal engine abbiamo gridato al miracolo :D
Thunder-74
05-05-2020, 16:55
Magari.. anche se fosse senza i vari effetti rtx non sfigurerebbe..
Però sono abbastanza scettico, non è che fino ad ora i giochi con unreal engine abbiamo gridato al miracolo :D
beh certo, non si può sfruttare tutta la potenzialità di questo motore grafico per far girare un gioco... avremmo uno slideshow di immagini :D
Inutili queste demo se poi i giochi non si avvicinano lontanamente a questi risultati
Thunder-74
06-05-2020, 09:40
NEWS DEL GIORNO:
A voi invasati di RDR2... (che poi senza un M16 o un AK47, che gusto ci sarà... :fagiano: )
Nuovo aggiornamento per PC Migliora il rendering delle texture, aumenta la gamma massima di impostazioni di nitidezza TAA e altro
L'aggiornamento 1.19 introduce un rendering della trama migliorato con impostazioni medie e alte, mostrando un livello più elevato di dettagli della trama senza influire sulla frequenza dei fotogrammi e una gamma massima aumentata delle impostazioni grafiche di Sharpening TAA.
aggiornate aggiornate...
Si dice che NVIDIA Ampere ottenga quattro volte più performances in Ray-Tracing
Secondo una nuova indiscrezione proveniente da PCGamer, con l'arrivo della nuova generazione di grafiche Ampere questo problema sarà eliminato grazie al fatto che avranno una capacità di calcolo del Ray-Tracing quattro volte maggiore, migliorando significativamente le prestazioni. Secondo la stessa voce, la serie GeForce RTX 3060 in sospeso avrebbe la stessa capacità di elaborazione Ray-Tracing di un RTX 2080 Ti, anche se sembra un po 'inverosimile.
Una seconda voce è che NVIDIA avrebbe fatto tutto RTX su tutte le sue schede grafiche a partire dalla serie 3000. Ampere supporterà Ray-Tracing su tutta la linea di prodotti dalla gamma bassa a quella alta. Ciò significa che potremmo vedere un "RTX 3050" per giocare a 1080p con Ray-Tracing attivato a un prezzo accessibile, qualcosa che rafforzerebbe ulteriormente la quota di mercato di Nvidia.
Sarà interessante vedere se queste voci sono vere o no, anche se c'è ancora abbastanza da sapere. Mentre veniamo a conoscenza del primo prodotto Ampere (pro-impresa) la prossima settimana, la grafica GeForce RTX 3000 dovrebbe essere rilasciata tra pochi mesi. Ancora una volta, per favore prendi sempre delle voci con un po 'di cautela e buon senso.
Windows 10: la modalità di gioco può influire negativamente su FPS con balbuzie e blocchi
Progettato per dare priorità ai giochi e per renderli più veloci, come spesso accade che non sia vero. La modalità di gioco Microsoft sta causando una serie di problemi, riducendo il tuo FPS.
Sin dall'aggiornamento dei creatori di Windows 10 da (sì, era la primavera del 2017), è stata introdotta la modalità di gioco. Normalmente è un'opzione e un modus operandus che devi abilitare. Una volta abilitata, le prestazioni durante il gioco dovrebbero migliorare dando la priorità al gioco e mantenendo i processi in background a cui sono destinati, in background inattivi. Recentemente, molti utenti su Reddit segnalano che la modalità di gioco attivata porta a balbuzie e schermate congelate segnalano PCgameshardware.
Questi problemi si verificano con diversi titoli di gioco come Call of Duty: Warzone o League of Legends. Secondo i rapporti degli utenti attuali, il problema riguarda sia le schede grafiche AMD che Nvidia. In particolare, sono stati identificati i problemi di prestazioni con Radeon RX 5700 XT, RX 570, RX 480 e R9 290. Sul lato, gli utenti Nvidia con Geforce GTX 980 e Geforce GTX 1080 Ti sono colpiti da balbuzie e schermi congelati.
Al fine di poter godere di nuovo senza problemi dei giochi per PC, si consiglia pertanto di disattivare la modalità di gioco in caso di problemi. Per fare ciò, apri l'app Impostazioni in Windows 10 e fai clic sulla voce Riproduci nel menu. La modalità di gioco ora può essere disattivata in questa finestra. Come riportato dagli utenti, ciò avrebbe dovuto risolvere i problemi di prestazioni.
Inutili queste demo se poi i giochi non si avvicinano lontanamente a questi risultati
Non le ritengo inutili perché, se oggi non sono avvicinabili rese del genere, puoi capire quale sarebbe il potenziale e quale direzione si prendere con il progredire della potenza computazionale delle future VGA.
razor820
06-05-2020, 10:45
Ottimo son curioso di riprendere red2..
Vediamo proverò a disabilitare anche la game mode Di Windows...
A proposito qualcuno ha installato L ultimo aggiornamento facoltativo 1909? Crea problemi?
Thunder-74
06-05-2020, 11:25
Ottimo son curioso di riprendere red2..
Vediamo proverò a disabilitare anche la game mode Di Windows...
A proposito qualcuno ha installato L ultimo aggiornamento facoltativo 1909? Crea problemi?
io, nessun problema..
mikael84
06-05-2020, 11:42
NEWS DEL GIORNO:
A voi invasati di RDR2... (che poi senza un M16 o un AK47, che gusto ci sarà... :fagiano: )
Nuovo aggiornamento per PC Migliora il rendering delle texture, aumenta la gamma massima di impostazioni di nitidezza TAA e altro
L'aggiornamento 1.19 introduce un rendering della trama migliorato con impostazioni medie e alte, mostrando un livello più elevato di dettagli della trama senza influire sulla frequenza dei fotogrammi e una gamma massima aumentata delle impostazioni grafiche di Sharpening TAA.
aggiornate aggiornate...
Si dice che NVIDIA Ampere ottenga quattro volte più performances in Ray-Tracing
[I]Secondo una nuova indiscrezione proveniente da PCGamer, con l'arrivo della nuova generazione di grafiche Ampere questo problema sarà eliminato grazie al fatto che avranno una capacità di calcolo del Ray-Tracing quattro volte maggiore, migliorando significativamente le prestazioni. Secondo la stessa voce, la serie GeForce RTX 3060 in sospeso avrebbe la stessa capacità di elaborazione Ray-Tracing di un RTX 2080 Ti, anche se sembra un po 'inverosimile.
Naturale, anzi...:)
Ampere da come è descritto sarà molto votato al RT (doppia FP-probabile doppio tensor o doppio RT).
Considerando una 3070 al livello di una 2080 ti in raster, dovrebbe mangiarsela in RT.
Di conseguenza per arrivare alla potenza della 2080ti in RT, devi scendere di fascia.:)
La 3060 potrebbe essere una 2080, ciò significherebbe un aumento RT del 20/30% rispetto a turing, e di conseguenza la 3080ti andrebbe un 70% la 2080ti.
amon.akira
06-05-2020, 12:57
Naturale, anzi...:)
Ampere da come è descritto sarà molto votato al RT (doppia FP-probabile doppio tensor o doppio RT).
Considerando una 3070 al livello di una 2080 ti in raster, dovrebbe mangiarsela in RT.
Di conseguenza per arrivare alla potenza della 2080ti in RT, devi scendere di fascia.:)
La 3060 potrebbe essere una 2080, ciò significherebbe un aumento RT del 20/30% rispetto a turing, e di conseguenza la 3080ti andrebbe un 70% la 2080ti.
è la giusta via, lo auspicai già dall esordio di turing che avrebbero raddoppiato le unità rt, e nonostante ciò sarà ancora insufficiente e il dlss obbligatorio, non che mi dispiaccia dato il livello raggiunto ultimamente dal dlss2.0.
Thunder-74
06-05-2020, 13:18
Naturale, anzi...:)
Ampere da come è descritto sarà molto votato al RT (doppia FP-probabile doppio tensor o doppio RT).
Considerando una 3070 al livello di una 2080 ti in raster, dovrebbe mangiarsela in RT.
Di conseguenza per arrivare alla potenza della 2080ti in RT, devi scendere di fascia.:)
La 3060 potrebbe essere una 2080, ciò significherebbe un aumento RT del 20/30% rispetto a turing, e di conseguenza la 3080ti andrebbe un 70% la 2080ti.
sono d'accordo anch'io, gli scettici sono quelli di Guru3D dal quale ho preso il trafiletto :)
Si è capito ormai che Ampere dominerà in RT, cosa anche normale visto che siamo agli albori di una tecnologia che ha tutto il potenziale per vedersi migliorare ad ogni nuova serie di GPU, non mi stupirei infatti se la serie 4000 nel 2022 porterà circa lo stesso stacco in performance RT che ci sarà ora da Turing ad Ampere.
Thunder-74
06-05-2020, 14:21
Si è capito ormai che Ampere dominerà in RT, cosa anche normale visto che siamo agli albori di una tecnologia che ha tutto il potenziale per vedersi migliorare ad ogni nuova serie di GPU, non mi stupirei infatti se la serie 4000 nel 2022 porterà circa lo stesso stacco in performance RT che ci sarà ora da Turing ad Ampere.
:)
https://cdn.wccftech.com/wp-content/uploads/2019/11/nvidia-hopper-featured-image-740x417.jpg
sembra su nodo 5nm..
mikael84
06-05-2020, 14:29
è la giusta via, lo auspicai già dall esordio di turing che avrebbero raddoppiato le unità rt, e nonostante ciò sarà ancora insufficiente e il dlss obbligatorio, non che mi dispiaccia dato il livello raggiunto ultimamente dal dlss2.0.
Le unità RT non si sa ancora se saranno raddoppiate, ma si parla di RT maggiorati, magari con un 2x g/rays, che sarebbero esattamente lo stesso, senza sprecare scaling sul frame.
Le speculazioni parlano di un 2x tensor, ovvero 32 per TPC + una doppa FP32 schedulata differentemente dalle ALU classiche.:)
sono d'accordo anch'io, gli scettici sono quelli di Guru3D dal quale ho preso il trafiletto :)
Da quello che ho visto io, nelle prime speculazioni, Ampere sarà altamente specializzato per RT, tanto che via raster a sto giro non dovremmo aspettarci veri miracoli.
Ovviamente parliamo di rumors, ancora non si è sicuro del PP, se non quello tesla.:)
A metà mese, come presentano le Tesla, possiamo farci qualche speculazione più veritiera.
Cmq, per te che sei con una 2080, passando ad una 3080ti, rischi di fare un 2x in RT. In più se aggiungi il doppio tensor, via DLSS, tanta roba.:)
:)
sembra su nodo 5nm..
Dovrebbe rappresentare la prox. archi. Dove finalmente si dovrebbe passare allo standard MCM.
Questo standard a dire il vero è da tempo che viene studiato da nvidia, solo che le latenze da 100ns, si sono rivelate un incubo per nvidia, che studiava una l1,5 per limitare le latenze. Ed una l2 non unificata.
Thunder-74
06-05-2020, 14:35
Ok puntare sul RT, ma anche lato raster mi auguro qualcosa di più rispetto a quanto abbiamo avuto da Pascal a Turing. Non dico come da Maxwell a Pascal, ma una via di mezzo si.. Spero minimo un 40 % tra stesso modello.
cut..
Dovrebbe rappresentare la prox. archi. Dove finalmente si dovrebbe passare allo standard MCM.
Questo standard a dire il vero è da tempo che viene studiato da nvidia, solo che le latenze da 100ns, si sono rivelate un incubo per nvidia, che studiava una l1,5 per limitare le latenze. Ed una l2 non unificata.
Si, approccio stile Ryzen ... oltretutto dovrebbero ottenere miglior rese e anche a costi più bassi per tutti... spero...
TigerTank
06-05-2020, 14:40
:)
https://cdn.wccftech.com/wp-content/uploads/2019/11/nvidia-hopper-featured-image-740x417.jpg
sembra su nodo 5nm..
Non QUESTO (https://images.everyeye.it/img-notizie/stranger-things-reazioni-web-teaser-quarta-stagione-v6-427674-1280x720.jpg) Hopper? :sofico:
NEWS DEL GIORNO:
A voi invasati di RDR2... (che poi senza un M16 o un AK47, che gusto ci sarà... :fagiano: )
Nuovo aggiornamento per PC Migliora il rendering delle texture, aumenta la gamma massima di impostazioni di nitidezza TAA e altro
L'aggiornamento 1.19 introduce un rendering della trama migliorato con impostazioni medie e alte, mostrando un livello più elevato di dettagli della trama senza influire sulla frequenza dei fotogrammi e una gamma massima aumentata delle impostazioni grafiche di Sharpening TAA.
aggiornate aggiornate...
Si dice che NVIDIA Ampere ottenga quattro volte più performances in Ray-Tracing
Secondo una nuova indiscrezione proveniente da PCGamer, con l'arrivo della nuova generazione di grafiche Ampere questo problema sarà eliminato grazie al fatto che avranno una capacità di calcolo del Ray-Tracing quattro volte maggiore, migliorando significativamente le prestazioni. Secondo la stessa voce, la serie GeForce RTX 3060 in sospeso avrebbe la stessa capacità di elaborazione Ray-Tracing di un RTX 2080 Ti, anche se sembra un po 'inverosimile.
Una seconda voce è che NVIDIA avrebbe fatto tutto RTX su tutte le sue schede grafiche a partire dalla serie 3000. Ampere supporterà Ray-Tracing su tutta la linea di prodotti dalla gamma bassa a quella alta. Ciò significa che potremmo vedere un "RTX 3050" per giocare a 1080p con Ray-Tracing attivato a un prezzo accessibile, qualcosa che rafforzerebbe ulteriormente la quota di mercato di Nvidia.
Sarà interessante vedere se queste voci sono vere o no, anche se c'è ancora abbastanza da sapere. Mentre veniamo a conoscenza del primo prodotto Ampere (pro-impresa) la prossima settimana, la grafica GeForce RTX 3000 dovrebbe essere rilasciata tra pochi mesi. Ancora una volta, per favore prendi sempre delle voci con un po 'di cautela e buon senso.
Windows 10: la modalità di gioco può influire negativamente su FPS con balbuzie e blocchi
Progettato per dare priorità ai giochi e per renderli più veloci, come spesso accade che non sia vero. La modalità di gioco Microsoft sta causando una serie di problemi, riducendo il tuo FPS.
Sin dall'aggiornamento dei creatori di Windows 10 da (sì, era la primavera del 2017), è stata introdotta la modalità di gioco. Normalmente è un'opzione e un modus operandus che devi abilitare. Una volta abilitata, le prestazioni durante il gioco dovrebbero migliorare dando la priorità al gioco e mantenendo i processi in background a cui sono destinati, in background inattivi. Recentemente, molti utenti su Reddit segnalano che la modalità di gioco attivata porta a balbuzie e schermate congelate segnalano PCgameshardware.
Questi problemi si verificano con diversi titoli di gioco come Call of Duty: Warzone o League of Legends. Secondo i rapporti degli utenti attuali, il problema riguarda sia le schede grafiche AMD che Nvidia. In particolare, sono stati identificati i problemi di prestazioni con Radeon RX 5700 XT, RX 570, RX 480 e R9 290. Sul lato, gli utenti Nvidia con Geforce GTX 980 e Geforce GTX 1080 Ti sono colpiti da balbuzie e schermi congelati.
Al fine di poter godere di nuovo senza problemi dei giochi per PC, si consiglia pertanto di disattivare la modalità di gioco in caso di problemi. Per fare ciò, apri l'app Impostazioni in Windows 10 e fai clic sulla voce Riproduci nel menu. La modalità di gioco ora può essere disattivata in questa finestra. Come riportato dagli utenti, ciò avrebbe dovuto risolvere i problemi di prestazioni.
Circa RDR2...devo ancora iniziarlo :D
Circa l'RT....speriamo!
Circa la game mode...sinceramente non l'ho mai usata...
Ok puntare sul RT, ma anche lato raster mi auguro qualcosa di più rispetto a quanto abbiamo avuto da Pascal a Turing. Non dico come da Maxwell a Pascal, ma una via di mezzo si.. Spero minimo un 40 % tra stesso modello.
Secondo me lì le distanze saranno sempre le stesse...tra laserate e cuttate devastanti come dice Mike :D
mikael84
06-05-2020, 14:40
Ok puntare sul RT, ma anche lato raster mi auguro qualcosa di più rispetto a quanto abbiamo avuto da Pascal a Turing. Non dico come da Maxwell a Pascal, ma una via di mezzo si.. Spero minimo un 40 % tra stesso modello.
Per ora, lato raster sembra un mezzo flop.
Si parla di una 3070 clockata a 2,2 con lo stesso chip della 2080.
Di una 3080 con 3840cc e bus da 320bit.
E di una full con 5376cc (che laserata sarà 4990/5120cc).
Insomma 30/40% sulle fasce.
Mi aspettavo di più sinceramente. La speranza è che almeno si riesca a salire con il clock.:)
Thunder-74
06-05-2020, 14:42
Mitico HOPPERONE !!! hahahha
Per ora, lato raster sembra un mezzo flop.
Si parla di una 3070 clockata a 2,2 con lo stesso chip della 2080.
Di una 3080 con 3840cc e bus da 320bit.
E di una full con 5376cc (che laserata sarà 4990/5120cc).
Insomma 30/40% sulle fasce.
Mi aspettavo di più sinceramente. La speranza è che almeno si riesca a salire con il clock.:)
mmm... certo che avremo una situazione dove per la prima volta il margine potenza console e PC non è così distante...
Si parla di una X box Series X che equipaggia praticamente l'equivalente di una 2080. Mettiamoci ottimizzazione sulle "scatolette" , o l'altra faccia della medaglia, porting su PC fatti con i piedi , alla fine avremo delle prestazioni analoghe ad un PC "pompato"..
mikael84
06-05-2020, 14:46
Si, approccio stile Ryzen ... oltretutto dovrebbero ottenere miglior rese e anche a costi più bassi per tutti... spero...
Esatto.:)
Secondo me lì le distanze saranno sempre le stesse...tra laserate e cuttate devastanti come dice Mike :D
:p
Mitico HOPPERONE !!! hahahha
mmm... certo che avremo una situazione dove per la prima volta il margine potenza console e PC non è così distante...
Si parla di una X box Series X che equipaggia praticamente l'equivalente di una 2080. Mettiamoci ottimizzazione sulle "scatolette" , o l'altra faccia della medaglia, porting su PC fatti con i piedi , alla fine avremo delle prestazioni analoghe ad un PC "pompato"..
Ampere darà il meglio su RT ma in performance reali sarà come dice Mikael, un 30% per fascia al massimo, mesi fa si era più ottimisti ma non si è mai gridato a possibili miracoli tranne appunto a performance in RT notevoli. Dici bene, le console andranno quanto un PC con una 2080 nel primo periodo, per poi andare meglio in un secondo momento, ma a quel punto ci saranno le 4000 e si tornerà a staccare di nuovo le console.
mikael84
06-05-2020, 15:28
Mitico HOPPERONE !!! hahahha
mmm... certo che avremo una situazione dove per la prima volta il margine potenza console e PC non è così distante...
Si parla di una X box Series X che equipaggia praticamente l'equivalente di una 2080. Mettiamoci ottimizzazione sulle "scatolette" , o l'altra faccia della medaglia, porting su PC fatti con i piedi , alla fine avremo delle prestazioni analoghe ad un PC "pompato"..
Anzi, ora come ora, se volessero spremere le console sarebbero i PC a rincorrere, a meno di non avere GPU dalla 2070s in su, ed a bassi FPS.:) :sofico:
Cmq, la situazione si normalizzerà con Ampere, dove l'hardware console, si allineerà alla fascia medio bassa (3060), per poi scomparire con Hooper.
Nel 2022, con i primi titoli veramente next gen, l'hardware sarà passato di nuovo.
Ovviamente, per noi PCisti il balzo sarà enorme, niente più popup, dettagli imbarazzanti dopo tot metri, molti più PNG, simulazioni di tornado terremoti.
Potenza poligonale decisamente superiore. Pensa che una GTX 570 in questo senso è 1,5 volte superiore.:)
Ci vorrà proprio il 2022 per vedere la vera next gen, è il tempo richiesto perché spuntino fuori i primi titoli programmati esclusivamente su nuovo hardware, a quel punto però i PC con le Hopper saranno ben equipaggiati :D
FrancoBit
06-05-2020, 18:17
Sin dall'aggiornamento dei creatori di Windows 10 da (sì, era la primavera del 2017), è stata introdotta la modalità di gioco. Normalmente è un'opzione e un modus operandus che devi abilitare. Una volta abilitata, le prestazioni durante il gioco dovrebbero migliorare dando la priorità al gioco e mantenendo i processi in background a cui sono destinati, in background inattivi. Recentemente, molti utenti su Reddit segnalano che la modalità di gioco attivata porta a balbuzie e schermate congelate segnalano PCgameshardware.
Questi problemi si verificano con diversi titoli di gioco come Call of Duty: Warzone o League of Legends. Secondo i rapporti degli utenti attuali, il problema riguarda sia le schede grafiche AMD che Nvidia. In particolare, sono stati identificati i problemi di prestazioni con Radeon RX 5700 XT, RX 570, RX 480 e R9 290. Sul lato, gli utenti Nvidia con Geforce GTX 980 e Geforce GTX 1080 Ti sono colpiti da balbuzie e schermi congelati.
Al fine di poter godere di nuovo senza problemi dei giochi per PC, si consiglia pertanto di disattivare la modalità di gioco in caso di problemi. Per fare ciò, apri l'app Impostazioni in Windows 10 e fai clic sulla voce Riproduci nel menu. La modalità di gioco ora può essere disattivata in questa finestra. Come riportato dagli utenti, ciò avrebbe dovuto risolvere i problemi di prestazioni.[/I]
Non le ritengo inutili perché, se oggi non sono avvicinabili rese del genere, puoi capire quale sarebbe il potenziale e quale direzione si prendere con il progredire della potenza computazionale delle future VGA.
Ho disabilitato la game mode, a me con 3d mark non cambia purtroppo, non gudagno niente. Nel dubbio comunque la tengo spenta..
aldo87mi
06-05-2020, 19:11
Le Pascal erano schede potentissime. Già la "misera" GTX 1060 faceva più fps in tutti i giochi della ex top gamma GTX 980. La GTX 1080 era veramente un mostro, arrivando a fare anche 50-60 fps in più della GTX 980. La RTX 2070 fa tuttora "fatica" a primeggiare contro una GTX 1080, uscita ben 4 anni fa. La GTX 1080 Ti è ancora una Regina scheda video top gamma.
Se è vero che le Turing sono state il tick e che le Ampere saranno il tock, c'è da aspettarsi un exploit di prestazioni in stile Pascal e quindi le RTX 3060 dovrebbero essere più performanti delle RTX 2080, e le RTX 3070 più delle RTX 2080Ti. Il punto è quanto costerà una RTX 3060? Perché non avrebbe senso metterla a meno di 600 eur, altrimenti la quota di mercato delle RTX 2070/super/2080 sarebbe completamente erosa. Non penso che Nvidia lo permetterebbe, sarebbe un errore troppo grossolano
amon.akira
06-05-2020, 19:40
Le Pascal erano schede potentissime. Già la "misera" GTX 1060 faceva più fps in tutti i giochi della ex top gamma GTX 980. La GTX 1080 era veramente un mostro, arrivando a fare anche 50-60 fps in più della GTX 980. La RTX 2070 fa tuttora "fatica" a primeggiare contro una GTX 1080, uscita ben 4 anni fa. La GTX 1080 Ti è ancora una Regina scheda video top gamma.
Se è vero che le Turing sono state il tick e che le Ampere saranno il tock, c'è da aspettarsi un exploit di prestazioni in stile Pascal e quindi le RTX 3060 dovrebbero essere più performanti delle RTX 2080, e le RTX 3070 più delle RTX 2080Ti. Il punto è quanto costerà una RTX 3060? Perché non avrebbe senso metterla a meno di 600 eur, altrimenti la quota di mercato delle RTX 2070/super/2080 sarebbe completamente erosa. Non penso che Nvidia lo permetterebbe, sarebbe un errore troppo grossolano
giustamente non avrebbe avuto senso mettere la 1060 a meno di 550euro sennò la quota di mercato della 980 sarebbe stata erosa :asd:
TigerTank
06-05-2020, 20:28
Ma la vera regina delle maxwell era la gtx980Ti :D
Bei tempi quelli...ti portavi a casa una Ti a meno di quello che ora tocca sborsare per una X80 scrausa.
FrancoBit
06-05-2020, 20:44
Io la 980ti Extreme edition la pagai 700€. Tipo 6-7 mesi prima dell'uscita delle pascal. Gran scheda
Inviato dal mio Mi 9 SE utilizzando Tapatalk
aldo87mi
07-05-2020, 15:17
Provato Red Dead Redemption 2 con la nuova patch 1.19, il gioco sembra meno pesante e più bello visivamente anche con una risoluzione dinamica inferiore: ho provato x 1.25 (anziché x 1.5 che usavo) e con la nitidezza TAA impostata su circa due terzi visivamente è molto valido e più fluido. Hanno ascoltato le mie preghiere alla Rockstar sul rendere i colori meno washed out e meno acquerellosi (la vera rovina della TAA in ogni gioco). Ora con una 2080ti il gioco dovrebbe volare, già a me va molto bene :)
Soltanto che ora non riesco neanche a concentrarmi a giocare perché mi sono innamorato mannaggia a me e lei è anche sposata. Sono inguaiato raga e non riesco nemmeno a concentrarmi nel lavoro da remoto. Avete presente quando incontrate una donna e sentite dentro che è quella giusta?...ah se questi problemi si potessero risolvere con Reshade o con una patch come di solito facciamo noi qui ragazzi :cry:
razor820
07-05-2020, 17:23
Aldo te lo dico con tutto il bene che ti voglio.. stai veramente inguaiato.. e non solo per L innamoramento.. :D
Alekos Panagulis
07-05-2020, 17:56
Ma si è innamorato di Mary Linton?
Inviato dal mio Redmi K20 utilizzando Tapatalk
Thunder-74
07-05-2020, 18:48
Aia Aldo, la quarantena fa male...
Ma si è innamorato di Mary Linton?
Inviato dal mio Redmi K20 utilizzando Tapatalk
Ma di chi, di Laura ingols della Casa nella Prateria? hahhaha
https://i.imgur.com/gyfvH37l.jpg
Comunque non so se avete visto il video di presentazione del gamplay della nuova Xbox Series X...
Mi ha un po' deluso graficamente.
VIDEO (https://youtu.be/REwzQraW7K4?t=1715)
Anche a me graficamente non pare granchè.
Thunder-74
07-05-2020, 19:03
Anche a me graficamente non pare granchè.
e non mi sembrano neanche 60 fps, ma dai video potrebbe essere difficile capire...
Però ho trovato molto interessante il nuovo Assassins...
mikael84
07-05-2020, 19:07
e non mi sembrano neanche 60 fps, ma dai video potrebbe essere difficile capire...
Però ho trovato molto interessante il nuovo Assassins...
Per aumentare il livello tecnico, devono sparire le altre scatolette.:)
Cmq riporto pure qua:
https://www.hwupgrade.it/forum/showpost.php?p=46765411&postcount=46865
insomma ci sono tutti i presupposti per il salto corposo di ram, già dalla prox gen.
Ale55andr0
07-05-2020, 19:35
Anzi, ora come ora, se volessero spremere le console sarebbero i PC a rincorrere, a meno di non avere GPU dalla 2070s in su, ed a bassi FPS.:) :sofico:
quel roito di pezzentstation 5 è al massimo una 5700XT con meno banda effettiva, aka 2070 lissia (che con il powerbudget è più un "vorrei ma non terafloppo" :asd: )
Ovviamente non considero la mia vga, imho ormai un fermacarte che butterei dalla finestra, ma lo so già di mio :asd:
FrancoBit
07-05-2020, 19:58
Vero va però considerato che tutto è stato trasmesso con bandwith segata, max 1080 30 fps. In ogni caso a noi pcisti conviene sperare che facciano dei bei lavori, siamo nelle mani delle consolle x quanto riguarda i giochi, quello è il bacino da cui traggono la maggior parte dei profitti
Inviato dal mio Mi 9 SE utilizzando Tapatalk
mikael84
07-05-2020, 23:05
quel roito di pezzentstation 5 è al massimo una 5700XT con meno banda effettiva, aka 2070 lissia (che con il powerbudget è più un "vorrei ma non terafloppo" :asd: )
Ovviamente non considero la mia vga, imho ormai un fermacarte che butterei dalla finestra, ma lo so già di mio :asd:
Si la PS5 è davvero un aborto di chip, inquietanti le difese a suo favore. La xbox oltre ad essere ben più potente, è pure molto ben bilanciata. Il chip PS5 in 4k soffrirà non poco se non ben ottimizzata, mentre la xbox gli leva proprio il collo di bottiglia.:rolleyes:
Cmq io intendevo altro. Se la console di base monca fosse realmente sfruttata, per un 4k 30fps, ti servirebbe almeno una 2070s per aggrapparsi ai 60fps sui 1440p.
Tantissimi PC non ne sarebbero in grado, diventando loro i colli di bottiglia.:D
Con l'uscita di Ampere, sarà già passata, senza neppure debuttare.
Alekos Panagulis
08-05-2020, 06:08
La ps5 sarà pure un aborto, ma le console non si comprano per il chip. Si comprano per le esclusive. E per quanto la xbox sarà potente, per me rimane dov'è.
Inviato dal mio Redmi K20 utilizzando Tapatalk
La ps5 sarà pure un aborto, ma le console non si comprano per il chip. Si comprano per le esclusive. E per quanto la xbox sarà potente, per me rimane dov'è.
Inviato dal mio Redmi K20 utilizzando Tapatalk
Purtroppo è vero.
Io penso la prenderò solo per i giochi esclusivi, tanto quelli dell'X arrivano tutti su PC.
Microsoft si è tagliata una buona fetta di vendite per questo motivo...boh avranno fatto i loro conti.
Alla fine non credo siano tanti i PC Top in grado di eguagliare il nuovo X.
mattxx88
08-05-2020, 07:12
Alla fine non credo siano tanti i PC Top in grado di eguagliare il nuovo X.
:O
blasfemia!1!!!111!
demonangel
08-05-2020, 07:53
Io ormai ho abbandonato le console!
Detto questo, esclusa la piccola cerchia di Pcisti... il conoscente medio se vuole farsi na partita, salta sul divano...piedi sul Puf...telecomando e Gamepad. Le console regnano sovrane nel gaming.
Il futuro di Ps5 e Xbox?
PlayStation vanta uno storico dominante imbarazzante! Ma questo può essere ribaltato dal potere del Marketing.
L'acquirente console è manipolato dalla moda più che dal contenuto..come per i cellulari tra gli adolescenti.
C'è veramente molta differenza tra un Pcista e Consolariano... 2 Bacini d'utenza agli antipodi.
mattxx88
08-05-2020, 08:17
Io ormai ho abbandonato le console!
Detto questo, esclusa la piccola cerchia di Pcisti... il conoscente medio se vuole farsi na partita, salta sul divano...piedi sul Puf...telecomando e Gamepad. Le console regnano sovrane nel gaming.
Il futuro di Ps5 e Xbox?
PlayStation vanta uno storico dominante imbarazzante! Ma questo può essere ribaltato dal potere del Marketing.
L'acquirente console è manipolato dalla moda più che dal contenuto..come per i cellulari tra gli adolescenti.
C'è veramente molta differenza tra un Pcista e Consolariano... 2 Bacini d'utenza agli antipodi.
quoto
giusto per info, ho notato su modernwarfare (titolo crossplay PC/console) che generalmente nel matchmaking sono più le PS4 delle X
Black"SLI"jack
08-05-2020, 08:43
Io ormai ho abbandonato le console!
Detto questo, esclusa la piccola cerchia di Pcisti... il conoscente medio se vuole farsi na partita, salta sul divano...piedi sul Puf...telecomando e Gamepad. Le console regnano sovrane nel gaming.
Il futuro di Ps5 e Xbox?
PlayStation vanta uno storico dominante imbarazzante! Ma questo può essere ribaltato dal potere del Marketing.
L'acquirente console è manipolato dalla moda più che dal contenuto..come per i cellulari tra gli adolescenti.
C'è veramente molta differenza tra un Pcista e Consolariano... 2 Bacini d'utenza agli antipodi.
concordo con te, e considera che sono pure collezionista di console. però ormai sono anni che gioco principalmente su pc. le console sono relegate solo a determinate esclusive. a ben vedere anche le console ormai hanno perso il loro essere semplici da usare, accendo e gioco. fw da aggioranre, giochi da installare, patch d1, ecc.
sicuramente il marchio playstation, è qualcosa che l'utente medio identifica nella console da gioco. ricordo ancora tra fine anni 90 e inizio 2000, ero uno dei pochi ad avere un sega dreamcast (console che amo alla follia), tra l'altro in versione jappo. mi ricordo ancora chi lo vedeva, mi diceva ah ma è la playstation… :nono: :muro:
il marketing ha fatto tanto. che poi ci siano giochi validi non lo metto in dubbio, ma anche lì ci sono i gusti personali, ho stroncato giochi tripla A e sono stato attaccato dagli amici consolari.
resto il fatto che pc e console sono due mondi distinti, come hai detto giustamente. io personalmente giocare con i compromessi delle console non ci riesco più. quelle poche volte che gioco su ps4pro, per esempio, noto tutti i limiti della piattaforma, mentre i consolari assuefatti a quegli standard non notano. e dubito che la prossima generazioni cambi in meglio.
:O
blasfemia!1!!!111!
Intendevo che i PC top da almeno 2000 euro non sono così diffusi...:p
mattxx88
08-05-2020, 08:57
Intendevo che i PC top da almeno 2000 euro non sono così diffusi...:p
ahhh, avevo inteso che i pc top di oggi non eguaglieranno X :fagiano: :fagiano:
ahhh, avevo inteso che i pc top di oggi non eguaglieranno X :fagiano: :fagiano:
Seeee.....all'X gli andrà di Chiulo se riuscirà lui a eguagliare i PC top di oggi.
Quando i consolari vedranno almeno i 60 fps fissi (se li vedranno) capiranno cosa hanno perso fino a ora.
amon.akira
08-05-2020, 09:10
Seeee.....all'X gli andrà di Chiulo se riuscirà lui a eguagliare i PC top di oggi.
Quando i consolari vedranno almeno i 60 fps fissi (se li vedranno) capiranno cosa hanno perso fino a ora.
tenere i 60rock solid vorrebbe dire farne almeno 90 di picco :asd:
Thunder-74
08-05-2020, 09:17
C'è da dire che le console assomigliano sempre più a dei PC in fatto di HW... un bene per noi.. e comunque , se pur è vero che una console alla lunga non potrà eguagliare un PC in fatto di potenza, è pur vero che la Xbox Series X, alla sua uscita uguaglierà un pc con su una 2070S/2080 al costo di quanto, 500/600 euro? parliamo di circa un terzo del prezzo dell'equivalente PC. E' anche qui la scelta degli utenti console...
Discorso esclusive, di fatti fanno la parte da leone. Xbox poco appetibile se si ha un buon PC, PS5 più allettante, anche se abbiamo visto alcune esclusive entrare nel modo PC:
Metal Gear Solid
Final Fantasy
Death Stranding
Horizon: Zero Dawn
Days Gone (forse, non è chiaro)
Gran Turismo è stato annunciato
Si vocifera anche di The Last of Us 2
e altri che sto dimenticando
razor820
08-05-2020, 09:22
Da quei pochi minuti che ho visto del trailer della Xbox alla fine non mi è sembrata male. Finalmente i giochi erano ricchi di dettagli e giochi di luce... il problema che come accennato prima, sembrava un 1080 a 30fps..
Poi più che gameplay di alcuni titoli mi sembravano intermezzi video non giocabili
Come qualità grafica ci sarà un salto e evidente, e finalmente questo si sapeva, il problema rimane sempre lo stesso, con quali prestazioni riesce a sfornare un hardware da 500-600$????
arkantos91
08-05-2020, 09:25
TLoU 2 la vedo difficile, Naughty Dog è un developer di Sony, non avrebbe senso privarsi di uno dei cavalli migliori della scuderia che da solo porta milioni.
mikael84
08-05-2020, 11:35
La ps5 sarà pure un aborto, ma le console non si comprano per il chip. Si comprano per le esclusive. E per quanto la xbox sarà potente, per me rimane dov'è.
Inviato dal mio Redmi K20 utilizzando Tapatalk
Questo senza ombra di dubbio. Tuttavia se fosse stata allineata alla xbox, sarebbe stato meglio per noi pcisti nel lungo periodo.
Se già ad oggi è mediamente una 2070 liscia circa, con la differenza che il chip radeon ha un rapporto rop's/banda pessimo ad alte risoluzioni, al contrario di nvidia, con Ampere sarà l'equivalente di una post 1660 forse o poco più.
Ad oggi sembrano chip mediamente buoni, perchè si paragonano a GPU non della loro fascia.
Se poi consideriamo che debutterà prima Ampere...
C'è da dire che le console assomigliano sempre più a dei PC in fatto di HW... un bene per noi.. e comunque , se pur è vero che una console alla lunga non potrà eguagliare un PC in fatto di potenza, è pur vero che la Xbox Series X, alla sua uscita uguaglierà un pc con su una 2070S/2080 al costo di quanto, 500/600 euro? parliamo di circa un terzo del prezzo dell'equivalente PC. E' anche qui la scelta degli utenti console...
Vero Thunder, però è un'errore che fanno molti, le console saranno equipaggiate con i prossimi chip, e di conseguenza anche i prezzi delle GPU scenderanno drasticamente, considerando che il chip PS5 potrebbe costare 250/300 euro (post 1660 forse).
Chiaro ovviamente che il PCista di base, almeno inizialmente spenderà di più a pari macchina.:)
Un equilibrio si troverà, al meno in parte con Hopper nel 2022.:)
Chiudo OT console.
Thunder-74
08-05-2020, 12:06
TLoU 2 la vedo difficile, Naughty Dog è un developer di Sony, non avrebbe senso privarsi di uno dei cavalli migliori della scuderia che da solo porta milioni.
Speriamo, difficile però come dici tu. Comunque è un titolo che merita. Presi una PS4 usata proprio per questo titolo e per uncharted, datoche avvevo giocato tutta la seria sulle vecchie PS.
Chiudo anch'io OT.
Queste console saranno in linea con i tempi ma non genereranno alcun caos nel mondo PC gaming, un neofita che vuole ora un PC da gaming, si farà una 3070 con un Ryzen 3700X, e avrà già una macchina con prestazioni superiori alle nuove console che potrà sfruttare per il gaming in 4K/60Hz. Certo, al momento al picista toccherà spendere di più rispetto al consolaro next gen, una situazione di maggior equilibrio nei costi la si potrà avere solamente con Hopper, dato che già lì una 4060 andrà ben oltre rispetto una 2080/3060, garantendo prestazioni top in 4K stando sotto i 500 euro per una GPU. Per il momento, se vuoi stare pari alle nuove console devi avere almeno una 2070, se ci vuoi stare nettamente sopra non meno di una Ti o futura 3070 o 3080, ma i costi già iniziano a lievitare non di poco.
TLoU 2 la vedo difficile, Naughty Dog è un developer di Sony, non avrebbe senso privarsi di uno dei cavalli migliori della scuderia che da solo porta milioni.
Se TLOU2 è quello dei leak, dovranno farlo pure per Switch :asd:
Queste console saranno in linea con i tempi ma non genereranno alcun caos nel mondo PC gaming, un neofita che vuole ora un PC da gaming, si farà una 3070 con un Ryzen 3700X, e avrà già una macchina con prestazioni superiori alle nuove console che potrà sfruttare per il gaming in 4K/60Hz. Certo, al momento al picista toccherà spendere di più rispetto al consolaro next gen, una situazione di maggior equilibrio nei costi la si potrà avere solamente con Hopper, dato che già lì una 4060 andrà ben oltre rispetto una 2080/3060, garantendo prestazioni top in 4K stando sotto i 500 euro per una GPU. Per il momento, se vuoi stare pari alle nuove console devi avere almeno una 2070, se ci vuoi stare nettamente sopra non meno di una Ti o futura 3070 o 3080, ma i costi già iniziano a lievitare non di poco.
Infatti è una situazione che si ripete in modo ciclico ad ogni release, nulla di che...è che si fanno comparazioni su "linee temporali" diverse.
Dobbiamo più che altro essere contenti di vedere finalmente una nuova base hardware su cui programmare i nostri amati titoli.
Thunder-74
09-05-2020, 08:51
Se intendete in linea come potenza , vi sbagliate. Sarebbe la prima volta che tra console e pc di fascia alta ci sia così poco margine al momento dell uscita della console. Un articolo di Tom s Hadware, riporta che PS5 e Xbox Series X sono più potenti del 95% dei PC utilizzati su Steam. All uscita di ps4 o Xbox one, la potenza di calcolo tra queste ed un pc di fascia alta , era ben più ampia.
Alla fine sono dei pc, cpu Ryzen e gpu rdna2 , condizione stra ideale per tutti noi. Fare un porting in queste condizioni dovrebbe essere facile.
Inviato dal mio iPhone X utilizzando Tapatalk
razor820
09-05-2020, 09:29
Che poi a parità di hardware tra consolle e pc, gli sviluppatori tendono ad ottimizzare principalmente sempre la versione per consolle visto i ricavi dalle vendite e dopo quelle per pc..
Testimone sono stati sempre questi anni in cui scatolette con hardware obsoleto facevano miracoli
mikael84
09-05-2020, 11:27
Se intendete in linea come potenza , vi sbagliate. Sarebbe la prima volta che tra console e pc di fascia alta ci sia così poco margine al momento dell uscita della console. Un articolo di Tom s Hadware, riporta che PS5 e Xbox Series X sono più potenti del 95% dei PC utilizzati su Steam. All uscita di ps4 o Xbox one, la potenza di calcolo tra queste ed un pc di fascia alta , era ben più ampia.
Alla fine sono dei pc, cpu Ryzen e gpu rdna2 , condizione stra ideale per tutti noi. Fare un porting in queste condizioni dovrebbe essere facile.
Inviato dal mio iPhone X utilizzando Tapatalk
No thunder, lo avevo detto proprio qua
https://www.hwupgrade.it/forum/showpost.php?p=46763536&postcount=25458
Sfruttare appieno una console ora, non è roba per la media dei PC, che cmq, potrebbero scendere di risoluzione come avviene ora.
E' la base di sviluppo a cambiare finalmente. Niente più popup etc.
Quello che si fa notare, è che la base di partenza, oggi è buona, ma oggi questi chip non ci sono. Quando debutteranno ci saranno le Ampere, e quella GPU console, potrebbe allinearsi ad una post 1660.
E' la stessa cosa accaduta la scorsa gen, in quanto la ps4 era basata su lo stesso chip di provenienza di questa., che è evoluto. Solo che tale chip è venduto come mid, in quanto è un PP avanti.;)
aldo87mi
09-05-2020, 12:00
Ragazzi dopo aver visto questo video di gameplay di Cyberpunk 2077 sono rimasto molto scettico sull'effettiva qualità del titolo. Mi sembra aria fritta, altro che gioco da AAA. Onestamente, la grafica del gioco è indietro di almeno 7-8 anni: le espressioni facciali non sono affatto al passo coi tempi, le textures fanno ridere, il dettaglio dei mondi è basso per gli standards attuali. Hanno anche messo il video in 8K per farci gridare al miracolo, ma qui c'è poco da gridare, c'è piuttosto da piangere se lo stato di sviluppo attuale del gioco è ancora a questo stadio rudimentale :(
Cioè, ragazzi, e questo dovrebbe essere il titolo di punta delle RTX di cui da anni tanto si parla? Stiamo freschi! :mbe:
Come farà il gioco ad uscire a settembre se adesso è in queste condizioni?
https://youtu.be/rfLl49HAJwM
Thunder-74
09-05-2020, 12:05
No thunder, lo avevo detto proprio qua
https://www.hwupgrade.it/forum/showpost.php?p=46763536&postcount=25458
Sfruttare appieno una console ora, non è roba per la media dei PC, che cmq, potrebbero scendere di risoluzione come avviene ora.
E' la base di sviluppo a cambiare finalmente. Niente più popup etc.
Quello che si fa notare, è che la base di partenza, oggi è buona, ma oggi questi chip non ci sono. Quando debutteranno ci saranno le Ampere, e quella GPU console, potrebbe allinearsi ad una post 1660.
E' la stessa cosa accaduta la scorsa gen, in quanto la ps4 era basata su lo stesso chip di provenienza di questa., che è evoluto. Solo che tale chip è venduto come mid, in quanto è un PP avanti.;)
Aspetta mi sono guardanto un po' wikipidia :)... La XBOX ONE uscì nel 2014 con una GPU AMD Radeo Durango a 853mhz. Praticamente una AMD serie HD7000 uscita nel 2012 per PC.
potenza di elaborazione di 1.31 TeraFlops/sec
Fillrate in pixel da 13.6 gigasample al secondo
Fillrate in texel da 40.9 gigatexel al secondo
ESRAM banda 204Gb/s
Praticamente un Chip vecchio con delle memorie veloci , dato che nel 2012 avevamo la Radeon HD 7770 GHz Edition con tali performances (Fillrate in pixel 16, Fillrate in texel 40). Per dire che la console nel 2014 partiva già con una GPU vecchia; la prossima generazione addirittura presenterà un chip che ad oggi è solo sulla carta e che anche i fans PCisti AMD aspettano.
Non mi pare che sia la solita condizione che ad ogni generazione di console assistiamo, ovvero scatoletta con gpu vecchia già vista.
comunque lasciamo perdere che siamo troppo OT :)
Ragazzi dopo aver visto questo video di gameplay di Cyberpunk 2077 sono rimasto molto scettico sull'effettiva qualità del titolo. Mi sembra aria fritta, altro che gioco da AAA. Onestamente, la grafica del gioco è indietro di almeno 7-8 anni: le espressioni facciali non sono affatto al passo coi tempi, le textures fanno ridere, il dettaglio dei mondi è basso per gli standards attuali. Hanno anche messo il video in 8K per farci gridare al miracolo, ma qui c'è poco da gridare, c'è piuttosto da piangere se lo stato di sviluppo attuale del gioco è ancora a questo stadio rudimentale :(
Cioè, ragazzi, e questo dovrebbe essere il titolo di punta delle RTX di cui da anni tanto si parla? Stiamo freschi! :mbe:
Come farà il gioco ad uscire a settembre se adesso è in queste condizioni?
https://youtu.be/rfLl49HAJwM
Si vedrà a settembre, però la possibilità che potrebbe rivelarsi una gigantesca delusione esiste.
amon.akira
09-05-2020, 13:30
Aspetta mi sono guardanto un po' wikipidia :)... La XBOX ONE uscì nel 2014 con una GPU AMD Radeo Durango a 853mhz. Praticamente una AMD serie HD7000 uscita nel 2012 per PC.
potenza di elaborazione di 1.31 TeraFlops/sec
Fillrate in pixel da 13.6 gigasample al secondo
Fillrate in texel da 40.9 gigatexel al secondo
ESRAM banda 204Gb/s
Praticamente un Chip vecchio con delle memorie veloci , dato che nel 2012 avevamo la Radeon HD 7770 GHz Edition con tali performances (Fillrate in pixel 16, Fillrate in texel 40). Per dire che la console nel 2014 partiva già con una GPU vecchia; la prossima generazione addirittura presenterà un chip che ad oggi è solo sulla carta e che anche i fans PCisti AMD aspettano.
Non mi pare che sia la solita condizione che ad ogni generazione di console assistiamo, ovvero scatoletta con gpu vecchia già vista.
comunque lasciamo perdere che siamo troppo OT :)
memorie veloci no, a parte l esram che era un tramite, quella era ps4, cmq la scorsa gen e in parte anche questa sono/erano pensate con le midgen in mente e upgrade dopo 3anni anzichè i soliti 7.
la 360 a novembre 2005 era tanta roba invece per il parallelismo pc console dove anticipava gli shader unificati dell r600, già la ps3 ben 1anno dopo era ridimensionata.
mikael84
09-05-2020, 14:21
Aspetta mi sono guardanto un po' wikipidia :)... La XBOX ONE uscì nel 2014 con una GPU AMD Radeo Durango a 853mhz. Praticamente una AMD serie HD7000 uscita nel 2012 per PC.
potenza di elaborazione di 1.31 TeraFlops/sec
Fillrate in pixel da 13.6 gigasample al secondo
Fillrate in texel da 40.9 gigatexel al secondo
ESRAM banda 204Gb/s
Praticamente un Chip vecchio con delle memorie veloci , dato che nel 2012 avevamo la Radeon HD 7770 GHz Edition con tali performances (Fillrate in pixel 16, Fillrate in texel 40). Per dire che la console nel 2014 partiva già con una GPU vecchia; la prossima generazione addirittura presenterà un chip che ad oggi è solo sulla carta e che anche i fans PCisti AMD aspettano.
Non mi pare che sia la solita condizione che ad ogni generazione di console assistiamo, ovvero scatoletta con gpu vecchia già vista.
Parlo di PS4, ovvero la base. Nella one, i titoli venivano eseguiti a res più basse.
Uscita in europa settembre 2013, quando sul mercato il PC offriva già la 780/ti e 290/x, appena uscite.
Stessa cosa succederà ora, visto che tale hardware avrà come riferimento le ampere e rdna2 big.
Una 3080ti potrebbe uscire prima e doppiarla, così come la 780ti doppiava la GPU ps4.:)
Con la differenza che PS4 poteva andare già a basso livello, il PC no, ora questo lo fai benissimo anche su PC.
Quindi i rapporti non sono così diversi.
Dai chiudo definitivamente OT.:)
aldo87mi
10-05-2020, 01:10
ragazzi, volevo segnalarvi che è uscito il demo di un nuovo gioco in ray tracing. Si chiama Ghostrunner (è scaricabile gratis su Steam https://store.steampowered.com/app/1139900/Ghostrunner).
Graficamente in 4k è molto bello, soprattutto la qualità volumetrica degli oggetti e delle geometrie. Come gioco è molto difficile, si salta tanto, è molto platform (la doometernalizzazione fa proseliti), basato sulla prontezza ed è anche difficile (i nemici sono molto veloci nel farti secco).
Vi dico subito: scordatevi di giocare in 4k con il ray tracing attivo perché riuscirete a fare a malapena 20 fps e il gioco ancora non prevede nessuna forma di DLSS per cui bisognerà per il momento godersi la demo a 1440p o 1080p. Speriamo in una futura introduzione del DLSS prima che il gioco esca sul mercato.
Il ray tracing è carino, non siamo ai livelli di Control o di Wolfenstein Youngblood, non è esagerato ma godibile. E' incentrato soprattutto sulle superfici riflettenti.
Ho fatto alcuni screenshots qui sotto sia a 1080p sia a 4k
https://i.postimg.cc/G9BKT22G/Ghostrunner-Win64-Shipping-2020-05-10-00-52-20-293.jpg (https://postimg.cc/G9BKT22G)
https://i.postimg.cc/87bmgfKQ/Ghostrunner-Win64-Shipping-2020-05-10-00-57-02-242.jpg (https://postimg.cc/87bmgfKQ)
https://i.postimg.cc/Kk1PTqZx/Ghostrunner-Win64-Shipping-2020-05-10-00-58-24-782.jpg (https://postimg.cc/Kk1PTqZx)
https://i.postimg.cc/nM6k4Jj5/Ghostrunner-Win64-Shipping-2020-05-10-01-00-17-770.jpg (https://postimg.cc/nM6k4Jj5)
https://i.postimg.cc/Y4qfr2Z4/Ghostrunner-Win64-Shipping-2020-05-10-01-00-45-541.jpg (https://postimg.cc/Y4qfr2Z4)
https://i.postimg.cc/zLtwVZYx/Ghostrunner-Win64-Shipping-2020-05-10-01-00-54-239.jpg (https://postimg.cc/zLtwVZYx)
https://i.postimg.cc/QH1qSycM/Ghostrunner-Win64-Shipping-2020-05-10-01-01-53-890.jpg (https://postimg.cc/QH1qSycM)
https://i.postimg.cc/G86kxF2Y/Ghostrunner-Win64-Shipping-2020-05-10-01-05-58-347.jpg (https://postimg.cc/G86kxF2Y)
https://i.postimg.cc/ctYf9vgz/Ghostrunner-Win64-Shipping-2020-05-10-01-17-05-887.jpg (https://postimg.cc/ctYf9vgz)
https://i.postimg.cc/JDHX0sqh/Ghostrunner-Win64-Shipping-2020-05-10-01-21-16-982.jpg (https://postimg.cc/JDHX0sqh)
https://i.postimg.cc/FfR3tWk3/Ghostrunner-Win64-Shipping-2020-05-10-01-21-51-829.jpg (https://postimg.cc/FfR3tWk3)
https://i.postimg.cc/4mk6KQjR/Ghostrunner-Win64-Shipping-2020-05-10-01-23-04-434.jpg (https://postimg.cc/4mk6KQjR)
https://i.postimg.cc/B8VDJT2y/Ghostrunner-Win64-Shipping-2020-05-10-01-27-09-690.jpg (https://postimg.cc/B8VDJT2y)
https://i.postimg.cc/mPVC5fkT/Ghostrunner-Win64-Shipping-2020-05-10-01-34-12-320.jpg (https://postimg.cc/mPVC5fkT)
https://i.postimg.cc/m1xHHTXy/Ghostrunner-Win64-Shipping-2020-05-10-01-37-35-172.jpg (https://postimg.cc/m1xHHTXy)
https://i.postimg.cc/LhffMZ5C/Ghostrunner-Win64-Shipping-2020-05-10-01-37-45-111.jpg (https://postimg.cc/LhffMZ5C)
https://i.postimg.cc/Czg8MLfF/Ghostrunner-Win64-Shipping-2020-05-10-01-41-02-437.jpg (https://postimg.cc/Czg8MLfF)
https://i.postimg.cc/PL9Lgtjn/Ghostrunner-Win64-Shipping-2020-05-10-01-41-06-070.jpg (https://postimg.cc/PL9Lgtjn)
https://i.postimg.cc/tYNxsQhF/Ghostrunner-Win64-Shipping-2020-05-10-01-45-50-046.jpg (https://postimg.cc/tYNxsQhF)
https://i.postimg.cc/VJsbMGRp/Ghostrunner-Win64-Shipping-2020-05-10-01-49-44-425.jpg (https://postimg.cc/VJsbMGRp)
sertopica
10-05-2020, 09:54
Ragazzi dopo aver visto questo video di gameplay di Cyberpunk 2077 sono rimasto molto scettico sull'effettiva qualità del titolo. Mi sembra aria fritta, altro che gioco da AAA. Onestamente, la grafica del gioco è indietro di almeno 7-8 anni: le espressioni facciali non sono affatto al passo coi tempi, le textures fanno ridere, il dettaglio dei mondi è basso per gli standards attuali. Hanno anche messo il video in 8K per farci gridare al miracolo, ma qui c'è poco da gridare, c'è piuttosto da piangere se lo stato di sviluppo attuale del gioco è ancora a questo stadio rudimentale :(
Cioè, ragazzi, e questo dovrebbe essere il titolo di punta delle RTX di cui da anni tanto si parla? Stiamo freschi! :mbe:
Come farà il gioco ad uscire a settembre se adesso è in queste condizioni?
https://youtu.be/rfLl49HAJwM
Ma hai letto la descrizione o posti solo per fare? :mbe:
Non c'e' nessun 8k in quel video, a parte la risoluzione finale che e' upscalata tramite una machine learning AI. Sta pure scritto nel titolo. Quello che ne viene fuori e' un'immagine che forse si vedrebbe bene su un televisore 8k ma non sui nostri monitor dove le magagne vengono fuori subito.
Il video originale e' qualitativamente superiore, soprattutto se scarichi la versione lossless da qualche sito. E peraltro si tratta di una demo mostrata mesi fa.
Per quanto mi riguarda il gioco puo' anche avere la grafica di Baldur's Gate, basta che abbia contenuti e non solo apparenza. :asd:
Ora per te RTX e' diventato il metro di giudizio per decidere se un gioco vada promosso o buttato nella monnezza. Vabbe'. Fortuna che c'e' ghostrunner cosi' ti puoi specchiare!
Alekos Panagulis
10-05-2020, 10:04
LOL
Inviato dal mio Redmi K20 utilizzando Tapatalk
aldo87mi
10-05-2020, 11:39
ragazzi, volevo segnalarvi che è uscito il demo di un nuovo gioco in ray tracing. Si chiama Ghostrunner (è scaricabile gratis su Steam https://store.steampowered.com/app/1139900/Ghostrunner).
Graficamente in 4k è molto bello, soprattutto la qualità volumetrica degli oggetti e delle geometrie. Come gioco è molto difficile, si salta tanto, è molto platform (la doometernalizzazione fa proseliti), basato sulla prontezza ed è anche difficile (i nemici sono molto veloci nel farti secco).
Vi dico subito: scordatevi di giocare in 4k con il ray tracing attivo perché riuscirete a fare a malapena 20 fps e il gioco ancora non prevede nessuna forma di DLSS per cui bisognerà per il momento godersi la demo a 1440p o 1080p. Speriamo in una futura introduzione del DLSS prima che il gioco esca sul mercato.
Il ray tracing è carino, non siamo ai livelli di Control o di Wolfenstein Youngblood, non è esagerato ma godibile. E' incentrato soprattutto sulle superfici riflettenti.
Ho fatto alcuni screenshots qui sotto sia a 1080p sia a 4k
https://i.postimg.cc/G9BKT22G/Ghostrunner-Win64-Shipping-2020-05-10-00-52-20-293.jpg (https://postimg.cc/G9BKT22G)
https://i.postimg.cc/87bmgfKQ/Ghostrunner-Win64-Shipping-2020-05-10-00-57-02-242.jpg (https://postimg.cc/87bmgfKQ)
https://i.postimg.cc/Kk1PTqZx/Ghostrunner-Win64-Shipping-2020-05-10-00-58-24-782.jpg (https://postimg.cc/Kk1PTqZx)
https://i.postimg.cc/nM6k4Jj5/Ghostrunner-Win64-Shipping-2020-05-10-01-00-17-770.jpg (https://postimg.cc/nM6k4Jj5)
https://i.postimg.cc/Y4qfr2Z4/Ghostrunner-Win64-Shipping-2020-05-10-01-00-45-541.jpg (https://postimg.cc/Y4qfr2Z4)
https://i.postimg.cc/VJsbMGRp/Ghostrunner-Win64-Shipping-2020-05-10-01-49-44-425.jpg (https://postimg.cc/VJsbMGRp)
ah aggiungo che il title theme è davvero intrigante, in stile Blade Runner anni 80 con delle variazioni progressive. Un soundtrack davvero ben fatto, tra le musiche più ben fatte e azzeccate per un menu iniziale di gioco :)
P.S. si può scaricare gratuitamente la demo soltanto fino al 13 maggio
razor820
10-05-2020, 11:52
Quel gioco comunque è sotto osservazione di steam... generalmente questi giochi, come alcuni stile Putin President, China life, o imitazioni di altri giochi dopo un po’ vengono rimossi..
Potrebbe essere anche che faccia parte di questa categoria.
Che poi i requisiti minimi di questo gioco non fanno pensare che sia un giocone graficamente o che possa supportare rtx...
mikael84
10-05-2020, 11:57
Review del gioco
https://gamegpu.com/action-/-fps-/-tps/ghostrunner-demo-test-gpu-cpu
TigerTank
10-05-2020, 12:38
Per quanto mi riguarda il gioco puo' anche avere la grafica di Baldur's Gate, basta che abbia contenuti e non solo apparenza. :asd:
:O :D
LINK (https://store.steampowered.com/app/1086940/Baldurs_Gate_3/).
sertopica
10-05-2020, 12:39
:O :D
LINK (https://store.steampowered.com/app/1086940/Baldurs_Gate_3/).
Esatto! :D
(non vedo l'ora che esca :O )
razor820
10-05-2020, 12:47
:O :D
LINK (https://store.steampowered.com/app/1086940/Baldurs_Gate_3/).
Spettacolare
Review del gioco
https://gamegpu.com/action-/-fps-/-tps/ghostrunner-demo-test-gpu-cpu
Ma è in cirillico :D
Thunder-74
10-05-2020, 13:44
Ho voluto buttare 5 minuti della mia vita su questo titolo demo in RT...
Fa pena e misericordia: grafica stile PS3 , i riflessi in RT lo sono solo per la loro pesantezza, perché si può far meglio, senza scomodare il RT. Il gioco di per se, lasciamo perdere :doh:
Aldo non ci siamo... era meglio che i 5 minuti li avessi usati per vedere una puntata di Domenica 5 di Barbara D'Urso...
Alekos Panagulis
10-05-2020, 13:58
Ho voluto buttare 5 minuti della mia vita su questo titolo demo in RT...
Fa pena e misericordia: grafica stile PS3 , i riflessi in RT lo sono solo per la loro pesantezza, perché si può far meglio, senza scomodare il RT. Il gioco di per se, lasciamo perdere :doh:
Aldo non ci siamo... era meglio che i 5 minuti li avessi usati per vedere una puntata di Domenica 5 di Barbara D'Urso...
Ma cosa dici è meglio di Cyberpunk 2077 che sarà una cagata :doh:
mikael84
10-05-2020, 14:14
Ma è in cirillico :D
Serbo croato.:)
E' uno dei siti che utilizziamo più spesso, in quanto testa ogni game.
Sotto trovi tutte le prove.
MorrisADsl
10-05-2020, 15:28
Gamegpu c'è anche come app per telefoni.
Inviato dal mio SM-N960F utilizzando Tapatalk
Ciao a tutti, settimana prossima mi arriva la nuovba SVGA MSI PCIe RTX2080Ti Gaming X Trio 11GB DDR6 che andrá a sostituire la "vecchiotta" GTX980....
Alla nuova scheda video sará collegato il monitor Acer Monitor Predator 43" CG437KP 144hz.
Mi permettete alcune domande, leggere tutto il thread é impossibile.
Ho visto che la nuova scheda video va alimentata con due pin da 8 e uno da 6. Il mio alimentatore Coolermaster 1000w, certificato 80plus, ha due uscite di cavi pci-e che si sdoppiano entrambi con due connettori da 6 e 8 pin...... Posso usare i due separati da 8 ed uno in comune da 6??
Qualcuno consigliava di usare cavi distinti, ma non ne ho tre distinti........
Per il momento collegherei la scheda al monitor con cavo display-port ed andrei ad utilizzare i 120hz di refresh, consigliate di collegare anche il secondo cavo per avere i 144hz?
Con la configurazione attuale (GTX980+Acer43") non riesco a trovare il giusto compromesso (e non ho capito se la colpa é della GTX980)....
In windows la definizione ECCELLENTE dei caratteri (sembra di guardare tutto al microscopio) la si ottiene impostando in "Modifica la dimensione di testo, app e altri elementi" a 300% ma in questo modo é praticamente impossibile lavorare (tutto troppo grande)........
Impostando a 100% la situazione migliora (per me é ancora tutto troppo grande) ma i caratteri e tutto il resto perde tantissimo in definizione...........
Con la nuova scheda, e con il maggior refresh (ora sono a 90hz), pensate che la situazione possa migliorare?
Alekos Panagulis
10-05-2020, 17:19
Ciao a tutti, settimana prossima mi arriva la nuovba SVGA MSI PCIe RTX2080Ti Gaming X Trio 11GB DDR6 che andrá a sostituire la "vecchiotta" GTX980....
Alla nuova scheda video sará collegato il monitor Acer Monitor Predator 43" CG437KP 144hz.
Mi permettete alcune domande, leggere tutto il thread é impossibile.
Ho visto che la nuova scheda video va alimentata con due pin da 8 e uno da 6. Il mio alimentatore Coolermaster 1000w, certificato 80plus, ha due uscite di cavi pci-e che si sdoppiano entrambi con due connettori da 6 e 8 pin...... Posso usare i due separati da 8 ed uno in comune da 6??
Qualcuno consigliava di usare cavi distinti, ma non ne ho tre distinti........
Per il momento collegherei la scheda al monitor con cavo display-port ed andrei ad utilizzare i 120hz di refresh, consigliate di collegare anche il secondo cavo per avere i 144hz?
Con la configurazione attuale (GTX980+Acer43") non riesco a trovare il giusto compromesso (e non ho capito se la colpa é della GTX980)....
In windows la definizione ECCELLENTE dei caratteri (sembra di guardare tutto al microscopio) la si ottiene impostando in "Modifica la dimensione di testo, app e altri elementi" a 300% ma in questo modo é praticamente impossibile lavorare (tutto troppo grande)........
Impostando a 100% la situazione migliora (per me é ancora tutto troppo grande) ma i caratteri e tutto il resto perde tantissimo in definizione...........
Con la nuova scheda, e con il maggior refresh (ora sono a 90hz), pensate che la situazione possa migliorare?
Ciao.
1) E' vivamente raccomandato usare due cavi distinti, nessuno in comune. Ovviamente puoi anche far andare la VGA con un cavo solo o con uno e mezzo, ma rischi di logorare un po' l'alimentatore (dipende da quanti rail ha) e di non avere tutta la potenza per saturare il power limit.
2) Non lo so o non ho capito la domanda. A che servirebbe un secondo cavo?
3) Purtroppo Windows gestisce il 4k in maniera oscena e non c'è soluzione. Quando ingrandisci gli elementi viene tutto sgranato. La 2080ti e il maggior refresh rate non faranno differenza.
Ciao.
1) E' vivamente raccomandato usare due cavi distinti, nessuno in comune. Ovviamente puoi anche far andare la VGA con un cavo solo o con uno e mezzo, ma rischi di logorare un po' l'alimentatore (dipende da quanti rail ha) e di non avere tutta la potenza per saturare il power limit.
2) Non lo so o non ho capito la domanda. A che servirebbe un secondo cavo?
3) Purtroppo Windows gestisce il 4k in maniera oscena e non c'è soluzione. Quando ingrandisci gli elementi viene tutto sgranato. La 2080ti e il maggior refresh rate non faranno differenza.
1)- Forse non mi sono spiegato bene.... Io andrei ad utilizzare due cavi distinti e separati...... Solo che da uno di questi cavi, devo prendere, oltre all'8pin anche il 6pin........
https://images-na.ssl-images-amazon.com/images/I/81M1aDAr5fL._AC_SL1040_.jpg
Uso entrambi i cavi di cui uno sdoppiato per prendere sia l'8pin che il 6..
2)- Il secondo cavo display-port servirebbe per abilitare il refresh rate del monitor a 144hz;
3)- Sono distrutto :cry: :cry: :cry: :cry:
amon.akira
10-05-2020, 18:29
1 - si nessun problema
2 - so che perderesti l hdr e il gsync con il doppio cavo in tal caso meglio rimanere con uno solo
3 - ho anche io un 43" e con 200% mi trovo benissimo
guant4namo
11-05-2020, 08:15
Buongiorno a tutti voi,
qualcuno possiede questa scheda video: https://images-na.ssl-images-amazon.com/images/I/61%2BgaKZyVFL._AC_SL1200_.jpg mod. ZT-T20820B-10P ?
Se si, come va in gioco?
Utilizzarla con il monitor Gigabyte AD27QD va bene?
ROBHANAMICI
11-05-2020, 09:32
Ho voluto buttare 5 minuti della mia vita su questo titolo demo in RT...
Fa pena e misericordia: grafica stile PS3 , i riflessi in RT lo sono solo per la loro pesantezza, perché si può far meglio, senza scomodare il RT. Il gioco di per se, lasciamo perdere :doh:
Aldo non ci siamo... era meglio che i 5 minuti li avessi usati per vedere una puntata di Domenica 5 di Barbara D'Urso...
Bruttino l'ho provato anch'io ma a parte la minima euforia iniziale per una leggera aria di innovazione rispetto ai soliti brand, la stessa euforia poi è subito scemata, vuoi per la grafica, che se da un certo punto di vista può risultare piacevole, sotto altri risulta spartana, minimale. Il gioco sotto RTX è di una pesantezza incredibile scendendo anche sotto i 50-40 fps in alcuni frangenti in 2k, cosa che mostra anche che risulta poco ottimizzato.
Thunder-74
11-05-2020, 12:25
Bruttino l'ho provato anch'io ma a parte la minima euforia iniziale per una leggera aria di innovazione rispetto ai soliti brand, la stessa euforia poi è subito scemata, vuoi per la grafica, che se da un certo punto di vista può risultare piacevole, sotto altri risulta spartana, minimale. Il gioco sotto RTX è di una pesantezza incredibile scendendo anche sotto i 50-40 fps in alcuni frangenti in 2k, cosa che mostra anche che risulta poco ottimizzato.
Della serie , quando è meglio non proporre una demo....
Inviato dal mio iPad utilizzando Tapatalk
ROBHANAMICI
11-05-2020, 12:37
già :muro: :muro: :rolleyes:
Thunder-74
11-05-2020, 15:26
Nvidia Ampere: aumento della velocità RTX, NVCache e altro
Indiscrezioni trapelate su AMPERE...
L'architettura Ampere di Nvidia è destinata a succedere ai progetti Volta e Turing dell'azienda entro la fine dell'anno, presumibilmente come un'architettura che abbraccia sia le sezioni consumer che enterprise del mercato GPU.
Secondo il canale YouTube, Moore's Law is Dead, La serie di schede grafiche Ampere di Nvidia avrà una litografia 8 / 7nm e presenterà un significativo spostamento architettonico rispetto alle attuali schede grafiche alimentate da Turing. Con queste modifiche, si prevede un aumento del 10-20% dell'IPC grafico, prestazioni per clock, rispetto a Turing.
Con il continuo focus di Nvidia sull'intelligenza artificiale, ha senso che uno dei miglioramenti dell'architettura di Ampere si trovi all'interno dei suoi core Tensor. Secondo quanto riferito, Nvidia ha raddoppiato il numero di core Tensor presenti in ogni SM delle sue schede grafiche della serie Ampere, offrendo un significativo aumento delle prestazioni dell'IA rispetto a Turing. Inoltre, secondo quanto riferito, Nvidia ha anche prodotto un aumento di 4x delle prestazioni del raytracing, anche se al momento non è chiaro cosa si intende con questo.
Se Nvidia offrisse un aumento di 4x delle prestazioni del raytracing rispetto al suo RTX 2060, allora il RTX 3060 di prossima generazione di Nvidia sarebbe più potente del RTX 2080 Ti di Nvidia in termini di prestazioni del raytracing. Detto questo, le prestazioni del raytracing si basano su conteggi più che semplici di raggi al secondo. Se Nvidia è in grado di emettere quattro volte più raggi di prima, hanno bisogno delle prestazioni computazionali per rendere utili questi conteggi di raggi folli. Con Ampere, il successo prestazionale associato al raytracing dovrebbe diminuire, anche se resta da vedere come questo avrà un impatto sui giochi di oggi.
Un'altra caratteristica che sta arrivando ad Ampere è NVCache, una nuova tecnologia progettata per consentire alle schede grafiche Ampere di utilizzare meglio i dati nella memoria di sistema e nell'archiviazione per accelerare i carichi di lavoro con vincoli di memoria. In effetti, Nvidia ha creato un'alternativa all'HBCC (High Bandwidth Cache Controller) di AMD, che consente ad AMD di utilizzare la memoria di sistema di archiviazione veloce per superare i limiti delle dimensioni del frame buffer. In effetti, HBCC consente ad AMD di utilizzare la memoria di sistema e l'archiviazione come più VRAM, che è qualcosa che Nvidia spera di replicare con Turing.
Per quanto riguarda la memoria, Nvidia sembra concentrarsi sui miglioramenti nella compressione della memoria per offrire una maggiore larghezza di banda di memoria effettiva con Ampere. Ciò consente a Nvidia di aumentare le prestazioni della memoria senza aumentare le capacità VRAM e di aumentare notevolmente i costi delle schede grafiche di prossima generazione. Una nuova tecnologia chiamata Tensor Accelerated VRAM Compression è anche in lavorazione.
Se queste voci da More's Law is Dead sono vere, gli utenti di Nvidia possono aspettarsi significativi aggiornamenti delle prestazioni dalle schede grafiche Ampere di prossima generazione di Nvidia, nonché un notevole aumento delle prestazioni per watt. Detto questo, un aumento dell'IPC della GPU e un aumento delle metriche delle prestazioni complessive dovrebbero essere previsti da tutte le nuove architetture grafiche, soprattutto quando sono combinate con un grande cambiamento nella tecnologia della litografia.
Si dice che Nvidia abbia anche in programma di creare una tecnologia chiamata DLSS 3.0, progettata per essere utilizzabile su qualsiasi gioco che utilizza TAA. Il TAA può essere implementato in diversi modi, quindi al momento non è chiaro esattamente come verrà implementata questa tecnologia o quale livello di qualità grafica ci si possa aspettare dai giocatori da DLSS 3.0.
VIDEO (https://youtu.be/uqillUSZvMM)
Arrow0309
11-05-2020, 22:03
Ho voluto buttare 5 minuti della mia vita su questo titolo demo in RT...
Fa pena e misericordia: grafica stile PS3 , i riflessi in RT lo sono solo per la loro pesantezza, perché si può far meglio, senza scomodare il RT. Il gioco di per se, lasciamo perdere :doh:
Aldo non ci siamo... era meglio che i 5 minuti li avessi usati per vedere una puntata di Domenica 5 di Barbara D'Urso...
Giocatevi Deliver Us The Moon v1.4.2
Figata maxato in RTX + DLSS (Quality) :cool:
aldo87mi
11-05-2020, 23:39
A mio avviso con la serie di schede Ampere, il DLSS si renderà sempre meno interessante. Ad es. Una 3080ti si vocifera dovrebbe avere 256 RT cores e 1024 Tensor cores mentre una 2080ti ha attualmente 68 RT cores e 544 Tensor cores. Persino la rtx 3060 avrà si dice 80 RT cores (che sono più dei 68 RT cores della 2080ti) fonte
https://tech.everyeye.it/articoli/speciale-la-rtx-3080-ti-mostro-potenza-rtx-3070-non-scherza-48471.html
Questo significa che persino una entry level rtx 3060 sarà in grado di gestire i giochi in ray tracing ad un framerate più elevato di una attuale 2080ti. Lo scopo del DLSS era proprio quello di accompagnare le prime schede ray tracing Nvidia Turing e alleggerire il framerate grazie all'intelligenza artificiale + downsampling di qualità. Questo scopo si renderà sempre meno necessario con le schede Ampere che hanno a disposizione un numero di RT cores mostruoso, a mio avviso capace di gestire bene persino il 4k rtx con minimo impatto prestazionale. Io credo che il DLSS 3.0 sarà più incentratato sulla qualità e non sarà più questione di vita o di morte come con le attuali schede Turing. Sicuramente con una 3080ti da ben 256 RT cores potremo settare Control e Minecraft in 4k rtx senza attivare alcun DLSS. Man mano che le architetture Nvidia di prossime generazioni disporranno di un numero di RT cores sempre più elevato, il DLSS sarà sempre più relegato a un ruolo marginale e accessorio
A mio avviso con la serie di schede Ampere, il DLSS si renderà sempre meno interessante. Ad es. Una 3080ti si vocifera dovrebbe avere 256 RT cores e 1024 Tensor cores mentre una 2080ti ha attualmente 68 RT cores e 544 Tensor cores. Persino la rtx 3060 avrà si dice 80 RT cores (che sono più dei 68 RT cores della 2080ti) fonte
https://tech.everyeye.it/articoli/speciale-la-rtx-3080-ti-mostro-potenza-rtx-3070-non-scherza-48471.html
Questo significa che persino una entry level rtx 3060 sarà in grado di gestire i giochi in ray tracing ad un framerate più elevato di una attuale 2080ti. Lo scopo del DLSS era proprio quello di accompagnare le prime schede ray tracing Nvidia Turing e alleggerire il framerate grazie all'intelligenza artificiale + downsampling di qualità. Questo scopo si renderà sempre meno necessario con le schede Ampere che hanno a disposizione un numero di RT cores mostruoso, a mio avviso capace di gestire bene persino il 4k rtx con minimo impatto prestazionale. Io credo che il DLSS 3.0 sarà più incentratato sulla qualità e non sarà più questione di vita o di morte come con le attuali schede Turing. Sicuramente con una 3080ti da ben 256 RT cores potremo settare Control e Minecraft in 4k rtx senza attivare alcun DLSS. Man mano che le architetture Nvidia di prossime generazioni disporranno di un numero di RT cores sempre più elevato, il DLSS sarà sempre più relegato a un ruolo marginale e accessorio
Invece secondo me accadrà proprio l'opposto. DLSS 2.0 apre le porte a giochi graficamente molto più complessi permettendo fluidità anche ad alte risoluzioni.
Non possiamo usare come metro di paragone i giochi attuali, bisogna guardare avanti...fino ad ora il RT è usato davvero poco rispetto alle potenzialità :)
L'unico difetto è che AMD non ha una contropartita, ma potrebbe farlo usando lo shader core (con un guadagno minore di performance)
amon.akira
12-05-2020, 00:08
A mio avviso con la serie di schede Ampere, il DLSS si renderà sempre meno interessante. Ad es. Una 3080ti si vocifera dovrebbe avere 256 RT cores e 1024 Tensor cores mentre una 2080ti ha attualmente 68 RT cores e 544 Tensor cores. Persino la rtx 3060 avrà si dice 80 RT cores (che sono più dei 68 RT cores della 2080ti) fonte
https://tech.everyeye.it/articoli/speciale-la-rtx-3080-ti-mostro-potenza-rtx-3070-non-scherza-48471.html
Questo significa che persino una entry level rtx 3060 sarà in grado di gestire i giochi in ray tracing ad un framerate più elevato di una attuale 2080ti. Lo scopo del DLSS era proprio quello di accompagnare le prime schede ray tracing Nvidia Turing e alleggerire il framerate grazie all'intelligenza artificiale + downsampling di qualità. Questo scopo si renderà sempre meno necessario con le schede Ampere che hanno a disposizione un numero di RT cores mostruoso, a mio avviso capace di gestire bene persino il 4k rtx con minimo impatto prestazionale. Io credo che il DLSS 3.0 sarà più incentratato sulla qualità e non sarà più questione di vita o di morte come con le attuali schede Turing. Sicuramente con una 3080ti da ben 256 RT cores potremo settare Control e Minecraft in 4k rtx senza attivare alcun DLSS. Man mano che le architetture Nvidia di prossime generazioni disporranno di un numero di RT cores sempre più elevato, il DLSS sarà sempre più relegato a un ruolo marginale e accessorio
come se il raytracing fosse arrivato, per ora abbiamo giochi con singoli effetti rt e al minimo sindacale di precisione, single pass e nella maggior parte dei casi solo per il 30-50% dei pixel, ecco perchè il denoising è fondamentale, quindi il dlss servirà sempre, almeno che il software non freni.
per un vero path tracing nvidia stessa aveva pronosticato un ottimistico 2035 mi sembra :)
mikael84
12-05-2020, 00:39
A mio avviso con la serie di schede Ampere, il DLSS si renderà sempre meno interessante. Ad es. Una 3080ti si vocifera dovrebbe avere 256 RT cores e 1024 Tensor cores mentre una 2080ti ha attualmente 68 RT cores e 544 Tensor cores. Persino la rtx 3060 avrà si dice 80 RT cores (che sono più dei 68 RT cores della 2080ti) fonte
https://tech.everyeye.it/articoli/speciale-la-rtx-3080-ti-mostro-potenza-rtx-3070-non-scherza-48471.html
Questo significa che persino una entry level rtx 3060 sarà in grado di gestire i giochi in ray tracing ad un framerate più elevato di una attuale 2080ti. Lo scopo del DLSS era proprio quello di accompagnare le prime schede ray tracing Nvidia Turing e alleggerire il framerate grazie all'intelligenza artificiale + downsampling di qualità. Questo scopo si renderà sempre meno necessario con le schede Ampere che hanno a disposizione un numero di RT cores mostruoso, a mio avviso capace di gestire bene persino il 4k rtx con minimo impatto prestazionale. Io credo che il DLSS 3.0 sarà più incentratato sulla qualità e non sarà più questione di vita o di morte come con le attuali schede Turing. Sicuramente con una 3080ti da ben 256 RT cores potremo settare Control e Minecraft in 4k rtx senza attivare alcun DLSS. Man mano che le architetture Nvidia di prossime generazioni disporranno di un numero di RT cores sempre più elevato, il DLSS sarà sempre più relegato a un ruolo marginale e accessorio
Quei rumors sono fake, l'unico probabile è il doppio tensor. Inoltre non si tratta neppure di RT core totali, visto che non viene utilizzata minimamente tutta quella potenza.
La 3080ti che vedi li, è la tesla HPC non la 3080ti.
Predator_1982
12-05-2020, 07:53
Invece secondo me accadrà proprio l'opposto. DLSS 2.0 apre le porte a giochi graficamente molto più complessi permettendo fluidità anche ad alte risoluzioni.
Non possiamo usare come metro di paragone i giochi attuali, bisogna guardare avanti...fino ad ora il RT è usato davvero poco rispetto alle potenzialità :)
concordo, per un ray tracing serio tecnologie come questa serviranno come non mai e la potenza della GPU nel computer domestico non sarà mai abbastanza elevata per gestirlo senza compromessi.
Inoltre, a mio parere, è solo l'inizio di un cambiamento radicale nel modo in cui si inizierà ad approcciare alcuni ambiti (es. l'elaborazione decentralizzata tramite servizi simil cloud anche in ambito gaming).
Thunder-74
12-05-2020, 09:10
Devo dire che le premesse per il Ray Tracing sono ottime: di certo non mi aspettavo un boost così prepotente con la serie 3000... ovviamente se il tutto viene confermato....
Arrow0309
12-05-2020, 09:51
come se il raytracing fosse arrivato, per ora abbiamo giochi con singoli effetti rt e al minimo sindacale di precisione, single pass e nella maggior parte dei casi solo per il 30-50% dei pixel, ecco perchè il denoising è fondamentale, quindi il dlss servirà sempre, almeno che il software non freni.
per un vero path tracing nvidia stessa aveva pronosticato un ottimistico 2035 mi sembra :)
Lol :p
Devo dire che le premesse per il Ray Tracing sono ottime: di certo non mi aspettavo un boost così prepotente con la serie 3000... ovviamente se il tutto viene confermato....
Ecco, esatto
Temo che i nostri numeri (per le gpu da gaming) saranno ben inferiori.
Tanto la potenza sara superiore quindi faranno quello che vorranno.
Cosi, con la 3080ti da subito o no, lasceranno spazio per la Titan dopo oppure insomma faranno come con le Pascal, 3080 e Titan subito, 3080ti dopo un po e se rimane ancora tanto dal maiale una seconda Titan potentissima
Come la vedete? :p
PS:
Io speriamo che riesco fare come l'altra volta, con le Pascal, la 3080 subito e più in la' la Titan :asd:
sertopica
12-05-2020, 10:01
DLSS restera' eccome, esattamente come tante altre tecniche che aiutano a snellire i calcoli in scene sempre piu' complesse, tipo variable rate shading e risoluzione dinamica. Ci vorranno ancora anni prima che il ray tracing vero diventi facilmente gestibile, il periodo di transizione non finisce con Turing.
Arrow0309
12-05-2020, 10:53
@mikael84
https://www.techpowerup.com/266959/nvidia-rtx-3080-ti-and-ga102-ampere-specs-other-juicy-bits-revealed
https://www.techpowerup.com/img/HmC33G0yB89yf9W7.jpg
Thunder-74
12-05-2020, 10:56
Lol :p
Ecco, esatto
Temo che i nostri numeri (per le gpu da gaming) saranno ben inferiori.
Tanto la potenza sara superiore quindi faranno quello che vorranno.
Cosi, con la 3080ti da subito o no, lasceranno spazio per la Titan dopo oppure insomma faranno come con le Pascal, 3080 e Titan subito, 3080ti dopo un po e se rimane ancora tanto dal maiale una seconda Titan potentissima
Come la vedete? :p
PS:
Io speriamo che riesco fare come l'altra volta, con le Pascal, la 3080 subito e più in la' la Titan :asd:
Sembra che esisterà un chip intermedio tra il GA102 (usato per la Ti) e il GA104 (usato per la "liscia") diversamente dal solito, il GA103.. o magari lo useranno per la 3080 e il GA104 usato la 3070/3060....
https://www.techpowerup.com/img/HmC33G0yB89yf9W7.jpg
@Arrow abbiamo postato lo stesso screen quasi in contemporanea :)
mikael84
12-05-2020, 11:33
@mikael84
https://www.techpowerup.com/266959/nvidia-rtx-3080-ti-and-ga102-ampere-specs-other-juicy-bits-revealed
Sembra che esisterà un chip intermedio tra il GA102 (usato per la Ti) e il GA104 (usato per la "liscia") diversamente dal solito, il GA103.. o magari lo useranno per la 3080 e il GA104 usato la 3070/3060....
@Arrow abbiamo postato lo stesso screen quasi in contemporanea :)
Questa dovrebbe essere la 3080ti:
5376cc su 7 GPC e 384bit (12gb).
La decurtazione questa volta riguarderà i cc e ci si aspettano 12gb di ram
https://i.postimg.cc/G3WGKpNH/chip.png
Questa la 3080:
3840cc, con un bus a 320bit x 10gb di ram.
https://i.postimg.cc/v8rZRHT1/lop.png
Nuovo SM speculato:
Abbiamo 2x tensor, quindi un raddoppio netto per DLSS
Doppia FP, che potrebbe aiutare il RT (magari a stabilizzare)
RT core advanced, questo è vago, ma potrebbe fornire 2x flops x raggio.
Se così fosse, un chip di fascia bassa con 2176cc (come lo è ora la 2060 super), avrebbe per clock prestazioni RT superiori ad una 2080ti, pur con la stessa formula.
clicca
https://i.postimg.cc/c6tFV5Ww/ampere.jpg (https://postimg.cc/c6tFV5Ww)
TigerTank
12-05-2020, 12:36
Ottimo...anche perchè presumo che il target sia finalmente offrire una gestione RT decente in 4K almeno per fascia alta...e con ampio margine verso il basso con il DLSS.
Thunder-74
12-05-2020, 12:56
Ottimo...anche perchè presumo che il target sia finalmente offrire una gestione RT decente in 4K almeno per fascia alta...e con ampio margine verso il basso con il DLSS.
Temo per le performance in raster... servono sempre... probabile che a questo giro vado di Ti ....
Inviato dal mio iPad utilizzando Tapatalk
mattxx88
12-05-2020, 13:15
Comincia a lievitare in maniera considerevole la mia scimmia
TigerTank
12-05-2020, 13:43
Temo per le performance in raster... servono sempre... probabile che a questo giro vado di Ti ....
Presumo che ci saranno i soliti guadagni di media :D
Eh...certo la Ti sarebbe il top ma sinceramente sarà da valutare la situazione prezzi ed il fatto che con l'evoluzione dell'RT queste generazioni saranno molto in perdita di valore con l'arrivo delle nuove. Le attuali 2080Ti crolleranno di brutto.
A meno di passare al 4K da gaming(ma i gsync ultimate sono un salasso...) restando sui nostri monitor attuali credo che complice un buon DLSS evoluto, ce la si possa cavare con meno.
mikael84
12-05-2020, 14:30
Temo per le performance in raster... servono sempre... probabile che a questo giro vado di Ti ....
Inviato dal mio iPad utilizzando Tapatalk
Le performance in raster, in base alle speculazioni sono le più basse degli ultimi 10 anni.
Penso che nvidia sbandieri tutto sul RT.
Cmq le offerte, non saranno poi male. Una 3070 simil 2080ti (o poco meno), ma superiore in RT, al giusto prezzo, sicuramente sarà un Best buy.
Per te che hai la 2080 lisica, una 3080ti, porterebbe un 2x RT, ed un 70% raster.:)
Comincia a lievitare in maniera considerevole la mia scimmia
:sofico: :sofico:
Presumo che ci saranno i soliti guadagni di media :D
Eh...certo la Ti sarebbe il top ma sinceramente sarà da valutare la situazione prezzi ed il fatto che con l'evoluzione dell'RT queste generazioni saranno molto in perdita di valore con l'arrivo delle nuove. Le attuali 2080Ti crolleranno di brutto.
A meno di passare al 4K da gaming(ma i gsync ultimate sono un salasso...) restando sui nostri monitor attuali credo che complice un buon DLSS evoluto, ce la si possa cavare con meno.
Anche un salto da 2080 liscia a 3080 non sarebbe poi una brutta idea.
Intendo via raster.
Almeno un 40, con possibilità di arrivare al 50% via IPC e clock.
Inoltre in OC la 3080 rimarrebbe pure più muscle.
Senza considerare la potenza RT.:)
Bisogna tenere conto dell'IPC di ampere (ancora sconosciuto) il numero dei cc vuol dire poco e nulla...
IPC raster poca roba, si parla di un 10/20%, ma i vantaggi riguardano più che altro la compressione (non attuata su Turing), una sorta di HBCC, l1 che passa da 96kb a 128kb, quindi aumenta l'uso della l1, senza intaccare la l2.
E quest'ultima potrebbe essere raddoppiata, sopratutto per calcoli RT, conservative rasterizzer etc.
Thunder-74
12-05-2020, 14:32
Presumo che ci saranno i soliti guadagni di media :D
Eh...certo la Ti sarebbe il top ma sinceramente sarà da valutare la situazione prezzi ed il fatto che con l'evoluzione dell'RT queste generazioni saranno molto in perdita di valore con l'arrivo delle nuove. Le attuali 2080Ti crolleranno di brutto.
A meno di passare al 4K da gaming(ma i gsync ultimate sono un salasso...) restando sui nostri monitor attuali credo che complice un buon DLSS evoluto, ce la si possa cavare con meno.
Discorso Turing, so che sarà una rivendita stile bagno di sangue, già la 2080 liscia è sfigata per l'uscita della 2080S, poi io ho l'aggravante che è un modello con WB... dovrei trovare un dissi ad aria a poco, per abbinarlo in fase di vendita...
EDIT: Something's cooking at Nvidia - The "world's largest graphics card"
Vabbé ma allora Mr Black Jacket è veramente una sagoma...
VIDEO (https://youtu.be/So7TNRhIYJ8)
amon.akira
12-05-2020, 16:47
un mito :sofico:
Black"SLI"jack
12-05-2020, 16:56
:D :sofico: fantastico.
Alekos Panagulis
12-05-2020, 17:21
Ma? :sofico:
Cmq è proprio un cafone, con quella cucina intagliata in modo barocco. :banned:
mikael84
12-05-2020, 17:26
Discorso Turing, so che sarà una rivendita stile bagno di sangue, già la 2080 liscia è sfigata per l'uscita della 2080S, poi io ho l'aggravante che è un modello con WB... dovrei trovare un dissi ad aria a poco, per abbinarlo in fase di vendita...
EDIT: Something's cooking at Nvidia - The "world's largest graphics card"
Vabbé ma allora Mr Black Jacket è veramente una sagoma...
VIDEO (https://youtu.be/So7TNRhIYJ8)
Sta sfornando le nuove tesla.:p
Me lo ricordavo più giovane di 20anni.:asd:
Thunder-74
12-05-2020, 18:27
Sta sfornando le nuove tesla.:p
Me lo ricordavo più giovane di 20anni.:asd:
Quante decine di migliaia di euro ci saranno su quel tavolo?
mikael84
12-05-2020, 19:45
Quante decine di migliaia di euro ci saranno su quel tavolo?
Fai 10000 l'una:p
80000 da quello che si vede.
AceGranger
12-05-2020, 20:28
Fai 10000 l'una:p
80000 da quello che si vede.
ci mettrei anche un 10K di scheda madre con i 6 NVSwitch :p
Thunder-74
12-05-2020, 20:48
ci mettrei anche un 10K di scheda madre con i 6 NVSwitch :p
Oggi ho visto questo video è ho pensato a te... :)
https://youtu.be/8EcMKg7awXg
Inviato dal mio iPhone X utilizzando Tapatalk
AceGranger
12-05-2020, 22:05
Oggi ho visto questo video è ho pensato a te... :)
https://youtu.be/8EcMKg7awXg
Inviato dal mio iPhone X utilizzando Tapatalk
:D
video molto interessante, sopratutto la parte in cui dice quello che ho sempre detto negli ultimi anni, al minuto 8:46 circa, che le differenze fra Geforce e Quadro stanno scomparendo, sopratutto ora che hanno iniziato a ricevere pure driver certificati;
il vantaggio delle Quadro è rimasto in:
Vram - che è anche il motivo per il quale le Titan sono sempre costate molto "inseguendo" le Quadro e per il quale ora si fanno pagare caro l'nVlink sulle Turing.
doppio nVlink di 4 GPU su singolo PC
Driver accelerati e certificati OpenGL
driver nView per gestione avanzate delle finestre di Win ( questo facilmente aggirabile installando una qualsiasi Quadro, anche la piu scacciona, in un PC con GeForce )
presumo che le Ampere continueranno in questa direzione e quindi ho idea che la 3080ti e l'eventuale "Titan A" ( l'ipotetica chip Full e non quella derivata dal chip HPC ) continueranno ad avere un prezzo elevato sopra la norma perchè dotate di nVlink e perchè saranno acquistate dai Pro che hanno meno problemi a spendere perchè comunque sono prezzi vantaggiosissimi per le prestazioni che danno rispetto alle QUADRO che hanno ormai molte meno motivazioni valide per essere acquistate.
Ho perso un po di vista i rumor, ma c'era quel rumor che dava l'nVlink solo per le 3080Ti a salire, ecco quella quella potrebbe essere una speranza per i gamer di pagare un po meno le 3080 lisce, in caso contrario, non so se si avranno prezzi popolari, anche perchè imho, vi do la mia previsione :p, i prossimi 2-3 anni saranno gli anni in cui le GPU inizieranno la scalata vera e propria a sfavore delle CPU in campo rendering/visual;
attualmente si sono avute le prime avvisaglie in determinati ambiti, ma con l'aumentare della Vram, l'nVlink, gli RT Core e l'arrivo dei Game Engine in campo Pro, spostera in modo marcato l'ago verso le GPU; non dico certo che sara una botta istantanea e di proporzioni bibliche come il mining, pero fara si che si venderanno molte piu GPU in questi campi ( e non è un caso che nVidia abbia iniziato a spingere pesantemente con Turing in questa direzione, percè nVlink+RT Core+Driver certificati sulle Geforce sono stati una gran bella spinta, un salto mai visto fino ad oggi)
sertopica
12-05-2020, 23:14
Ma? :sofico:
Cmq è proprio un cafone, con quella cucina intagliata in modo barocco. :banned:
Non sono stato l'unico a notarlo vedo. :D
E comunque non c'era manco l'ombra di un mobiletto in legno laccato ultrariflettente. :nono:
mikael84
12-05-2020, 23:29
ci mettrei anche un 10K di scheda madre con i 6 NVSwitch :p
E vabbè dettagli:p :p :p
:D
[QUOTE=AceGranger;46776139]
video molto interessante, sopratutto la parte in cui dice quello che ho sempre detto negli ultimi anni, al minuto 8:46 circa, che le differenze fra Geforce e Quadro stanno scomparendo, sopratutto ora che hanno iniziato a ricevere pure driver certificati;
il vantaggio delle Quadro è rimasto in:
Vram - che è anche il motivo per il quale le Titan sono sempre costate molto "inseguendo" le Quadro e per il quale ora si fanno pagare caro l'nVlink sulle Turing.
doppio nVlink di 4 GPU su singolo PC
Driver accelerati e certificati OpenGL
driver nView per gestione avanzate delle finestre di Win ( questo facilmente aggirabile installando una qualsiasi Quadro, anche la piu scacciona, in un PC con GeForce )
presumo che le Ampere continueranno in questa direzione e quindi ho idea che la 3080ti e l'eventuale "Titan A" ( l'ipotetica chip Full e non quella derivata dal chip HPC ) continueranno ad avere un prezzo elevato sopra la norma perchè dotate di nVlink e perchè saranno acquistate dai Pro che hanno meno problemi a spendere perchè comunque sono prezzi vantaggiosissimi per le prestazioni che danno rispetto alle QUADRO che hanno ormai molte meno motivazioni valide per essere acquistate.
Da poco, la Micron, che ha contratto con nVidia, ha aggiornato la propria gamma con la doppia densità a 16gb/s, che è stata il vero cancro di Turing.
Invece, nvidia pare aver fatto capire che la doppia, sarà riservata alle quadro, e quindi Titan.
Si è inventata una sorta di HBCC in HW per le GPU (anche pro), quindi fa ben intendere che la ram, la farà vendere cara.:) :p
Ho perso un po di vista i rumor, ma c'era quel rumor che dava l'nVlink solo per le 3080Ti a salire, ecco quella quella potrebbe essere una speranza per i gamer di pagare un po meno le 3080 lisce, in caso contrario, non so se si avranno prezzi popolari, anche perchè imho, vi do la mia previsione :p, i prossimi 2-3 anni saranno gli anni in cui le GPU inizieranno la scalata vera e propria a sfavore delle CPU in campo rendering/visual;
i)
Si parla di nvlink a partire dalla 3070, essendo un TU104 ritoccato, però è da vedere.:)
Vediamo domani, le Tesla che dicono.
Da li dovremmo vedere confermati anche i vari parametri architetturali, salvo fp64.:)
Thunder-74
13-05-2020, 18:32
Per i miscredenti del Ureal Engine in REV 5
Guardate la PS5 a 1440p (vi metto il punto in cui si vede la demo) pazzesca :eek: :eek: sinceramente non mai visto nulla di meglio girare in tempo reale....
VIDEO (https://youtu.be/qC5KtatMcUw?t=88)
Vi riporto la notizia :
Il filmato dimostrativo di Unreal Engine 5 rilasciato questo pomeriggio da Epic Games attirerà tutta l'attenzione per un po 'di tempo. Non solo è una dimostrazione di effetti visivi di prossima generazione davvero impressionanti e il primo filmato che abbiamo visto essere confermato come in esecuzione su PlayStation 5 di Sony, ma ha anche mostrato alcune nuove tecnologie davvero impressionanti.
Che dire del PC?
Dove lascia la piattaforma PC, soprattutto dopo che le affermazioni di Tim Sweeney secondo cui l'architettura di archiviazione di PS5 è "molto più avanti di qualsiasi cosa sui PC" ?
Bene, PC Gamer ha ricevuto la notizia dal Chief Technical Officer di Epic che anche una RTX 2070 Super poteva eseguire la demo di Unreal Engine 5 a "prestazioni piuttosto buone". Tecnicamente, la scheda grafica NVIDIA sfoggia anche un valore TFLOPS nominale inferiore rispetto alla PS5 (9 vs 10.28), quindi questa è una grande notizia.
FONTE (https://wccftech.com/unreal-engine-5-demo-is-rendering-at-1440p-most-of-the-time-on-ps5-rtx-2070-super-could-run-it-at-pretty-good-performance/)
Jeetkundo
13-05-2020, 18:53
Si sa a quanti fps girava questa demo PS5?
Inviato da Tapatalk
Thunder-74
13-05-2020, 19:12
Si sa a quanti fps girava questa demo PS5?
Inviato da Tapatalk
30 fps... è senza Ray Tracing
FONTE (https://www.windowscentral.com/unreal-engine-5-footage-ran-1440p-ps5-features-no-ray-tracing)
OrazioOC
13-05-2020, 19:18
Tutto qui?:mbe:
mamma mia ho visto adesso la demo di ps5:eek: ma girerà a 30 fps...
Thunder-74
13-05-2020, 19:23
mamma mia ho visto adesso la demo di ps5:eek: ma girerà a 30 fps...
si, ma con una resa così, ci possono stare i 30 fps... utilizza textures in 8k...
devAngnew
13-05-2020, 19:31
30 fps... è senza Ray Tracing
FONTE (https://www.windowscentral.com/unreal-engine-5-footage-ran-1440p-ps5-features-no-ray-tracing)
Bha, cosi ad occhio mi sembra ci sia Global illumination rt, ambient occlusion rt, ma non rt reflection. Cmq c'è un botto di geometria... :D
Thunder-74
13-05-2020, 19:34
Bha, cosi ad occhio mi sembra ci sia Global illumination rt, ambient occlusion rt, ma non rt reflection. Cmq c'è un botto di geometria... :D
Sembra, ma non fa uso di RT. Questo è quello che dicono...
Comunque UE5 uscirà nel 2021, saremo pronti con Ampere ...
Effetti a parte ho sempre ritenuto la geometria e la qualità textures ciò che rende un gioco next gen, poi vengono gli effetti, e questo a cui mi riferisco quando le scatolette fanno da collo di bottiglia ai pc, la complessità geometrica degli ambienti 3d e la qualità texture, sebbene quest'ultima su pc puoi metterci una pezza (vedi fallout e skyrim) ma i modelli poligonali restano sempre gli stessi, prendete anche rdr2, su pc è fantastico ma poligonalmente resta ancorato alla versione console perché la base restano le scatolette e la geometria che possono gestire, per tutto il resto invece puoi sempre aggiungerlo con le patch, pure il ray tracing, ma le geometrie e le animazioni restano sempre quelle
ninja750
13-05-2020, 19:52
Per i miscredenti del Ureal Engine in REV 5
Guardate la PS5 a 1440p (vi metto il punto in cui si vede la demo) pazzesca :eek: :eek: sinceramente non mai visto nulla di meglio girare in tempo reale....
mica male
ma voglio vedere cosa si potrà comprare non un video-demo :asd:
devAngnew
13-05-2020, 20:07
Sembra, ma non fa uso di RT. Questo è quello che dicono...
Comunque UE5 uscirà nel 2021, saremo pronti con Ampere ...
Almeno la prima parte sembra in realtime (su PS5 ?) :sofico: Sembra anche che utilizzi la tecnologia HBCC amd per geometria e texture 8k.
cmq il confronto con la demo ue4 su PS4 è come dire imbarazzante al confronto. :asd:
Poi si vedrà.
Effetti a parte ho sempre ritenuto la geometria e la qualità textures ciò che rende un gioco next gen, poi vengono gli effetti, e questo a cui mi riferisco quando le scatolette fanno da collo di bottiglia ai pc, la complessità geometrica degli ambienti 3d e la qualità texture, sebbene quest'ultima su pc puoi metterci una pezza (vedi fallout e skyrim) ma i modelli poligonali restano sempre gli stessi, prendete anche rdr2, su pc è fantastico ma poligonalmente resta ancorato alla versione console perché la base restano le scatolette e la geometria che possono gestire, per tutto il resto invece puoi sempre aggiungerlo con le patch, pure il ray tracing, ma le geometrie e le animazioni restano sempre quelle
quoto :O
sertopica
13-05-2020, 20:07
Effetti a parte ho sempre ritenuto la geometria e la qualità textures ciò che rende un gioco next gen, poi vengono gli effetti, e questo a cui mi riferisco quando le scatolette fanno da collo di bottiglia ai pc, la complessità geometrica degli ambienti 3d e la qualità texture, sebbene quest'ultima su pc puoi metterci una pezza (vedi fallout e skyrim) ma i modelli poligonali restano sempre gli stessi, prendete anche rdr2, su pc è fantastico ma poligonalmente resta ancorato alla versione console perché la base restano le scatolette e la geometria che possono gestire, per tutto il resto invece puoi sempre aggiungerlo con le patch, pure il ray tracing, ma le geometrie e le animazioni restano sempre quelle
Geometria e texture senza una buona illuminazione non sono nulla secondo me. Pensa ad esempio a Minecraft con path tracing che cosa diventa, o quake...
Bella la tech demo con lara croft tarocca comunque. :D Vedremo se manterranno le promesse, anche prima dell'arrivo di PS4 pubblicarono tech demo piuttosto impressionanti che poi non hanno del tutto rispecchiato i prodotti veri e propri.
devAngnew
13-05-2020, 20:16
Geometria e texture senza una buona illuminazione non sono nulla secondo me. Pensa ad esempio a Minecraft con path tracing che cosa diventa, o quake...
Bella la tech demo con lara croft tarocca comunque. :D Vedremo se manterranno le promesse, anche prima dell'arrivo di PS4 pubblicarono tech demo piuttosto impressionanti che poi non hanno del tutto rispecchiato i prodotti veri e propri.
Quoto anche te, :D diciamo che global illumination, con indirect lighting è la base minima insieme a geo e texture per una buona partenza ... :D
Geometria e texture senza una buona illuminazione non sono nulla secondo me. Pensa ad esempio a Minecraft con path tracing che cosa diventa, o quake...
Bella la tech demo con lara croft tarocca comunque. :D Vedremo se manterranno le promesse, anche prima dell'arrivo di PS4 pubblicarono tech demo piuttosto impressionanti che poi non hanno del tutto rispecchiato i prodotti veri e propri.In tutta onestà diventano giochi vecchi truccati meglio, sembrano più belli ma sempre un cesso restano, basta prendere uno skyrim moddato a caso, si è più bello ma la base resta quella e sa di vecchio
si, ma con una resa così, ci possono stare i 30 fps... utilizza textures in 8k...
comunque è arrivata la conferma che girava a 30 fps 2k e senza RT:D
razor820
13-05-2020, 22:06
Un gioco con una definizione paurosa come quello vale 1000 volte tutte quegli effetti specchi del rtx... Certo rimangono 30fps..
Ma con quella resa e dettagli te li dimentichi...
Thunder-74
13-05-2020, 22:08
Un gioco con una definizione paurosa come quello vale 1000 volte tutte quegli effetti specchi del rtx... Certo rimangono 30fps..
Ma con quella resa e dettagli te li dimentichi...
Quoto. Comunque su ps5 si potrà anche trovare un ottimo compromesso per avere i 60 fps e una grafica comunque da paura imho
Inviato dal mio iPad utilizzando Tapatalk
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.