View Full Version : [Thread Ufficiale] Aspettando le nuove VGA Intel™
Pagine :
1
2
3
[
4]
5
6
7
8
9
10
11
12
13
14
15
ho guardato la tua firma dopo, ma ero quasi sicuro che la maggior parte di quelli che vogliono provare ARC lo facciano anche per avere una build tutta intel, che ci sta
ripeto fosse davvero uscito con questi driver a questi prezzi in piena pandemia avrebbero fatto il botto
Io la sto valutando visto che sto facendo una seconda build (nuova) e sposterei la 6900 lì, avrei il PC in firma senza VGA e vorrei una scheda con buone accelerazioni per l'encoding :asd:
Avrei VGA AMD su piattaforma Intel e VGA Intel su piattaforma AMD :asd:
Hai visto koduri, zitto zitto si sta prendendo la fascia medio/bassa.
Se riuscisse a mettere mano quanto prima ai 5nm, pre battlemage, faceva il botto.:)
Vedo un interesse sempre maggiore per questa scheda, i nuovi driver la stanno facendo rinascere, l'attuale situzione è molto diversa rispetto al D1, per un uso a 2K la trovo davvero indicata :)
Koduri avrà previsto tutto immagino :p
Se ti può consolare ho venduto la 3070Ti dopo 2 mesi per prendere la ARC ��
https://i.ibb.co/q7cktfR/20221126-085049.jpg (https://ibb.co/Dzv5xy7)
Hai preso la situazione di petto :D
ho guardato la tua firma dopo, ma ero quasi sicuro che la maggior parte di quelli che vogliono provare ARC lo facciano anche per avere una build tutta intel, che ci sta
ripeto fosse davvero uscito con questi driver a questi prezzi in piena pandemia avrebbero fatto il botto
Una build tutta blu devo dire che mi piacerebbe, sarebbe, nel caso, il secondo Pc :)
ripeto fosse davvero uscito con questi driver a questi prezzi in piena pandemia avrebbero fatto il botto
see..:D fortuna per noi che e' uscita a bolla mining e shortage sgonfiate
che l'intento e speranza di intel era proprio uscire al momento clou per monetizzare al massimo
fregava cavolo che i driver non erano pronti, interi bancali spedite alle farm..e qualche mosca bianca in giro al solito prezzo assurdo:mad:
infatti i driver li stanno facendo/sistemando adesso per smaltire un po di gpu nel mercato consumer, e recuperare le spese di sviluppo:sofico:
Hai preso la situazione di petto :D
Dopo 4 anni di 2070 tra pandemia, mining e amenità varie la voglia di upgrade era troppa, con queste ARC ho ritrovato il divertimento di provare qualcosa di effettivamente nuovo dopo più di 20 anni.
mikael84
20-01-2023, 16:39
Vedo un interesse sempre maggiore per questa scheda, i nuovi driver la stanno facendo rinascere, l'attuale situzione è molto diversa rispetto al D1, per un uso a 2K la trovo davvero indicata :)
Koduri avrà previsto tutto immagino :p
Molti alla fine la stanno prendendo pure per curiosità, e non ti nego, che mi piacerebbe provarla a modo mio. Gliela smonto a Koduri.:p
In tanti invece, ci pensavano ma volevano prove dirette che stanno arrivando.
Cmq visto i vari test effettuati, sarebbe meglio aprire un thread ufficiale, così, tutti hanno le informazioni che servono, e lasciare questo ai soli rumour, altrimenti si fa un miscuglio poco leggibile.
Sto anche facendo girare il primo bench....(https://na.finalfantasyxiv.com/benchmark/ (https://na.finalfantasyxiv.com/benchmark/))poi non dite che non vi accontento ! :D
ARC770 + GT 705
Completato con successo, senza problemi
Punteggio: 14665
ARC770 + GT 1030
Punteggio: 15830
Piccolo update...:)
Ragazzi mi date riscontro sul pannello di controllo ? L'ho scaricato per l'integrata giusto per dargli un occhio, ma dove setto i parametri video, colore ecc ?
Ad esempio, dove setto l'Rgb 10 bit, 8 bit ecc ? Non ho trovato nulla possibile? Non c'è un controllo stile nVidia e Amd corretto ?
Molti alla fine la stanno prendendo pure per curiosità, e non ti nego, che mi piacerebbe provarla a modo mio. Gliela smonto a Koduri.:p
In tanti invece, ci pensavano ma volevano prove dirette che stanno arrivando.
Cmq visto i vari test effettuati, sarebbe meglio aprire un thread ufficiale, così, tutti hanno le informazioni che servono, e lasciare questo ai soli rumour, altrimenti si fa un miscuglio poco leggibile.
Il riscontro che ne danno anche tra queste pagine è molto positivo, guarda io ho ordinato tutti i pezzi del secondo PC 90 su 100 ci metto una 770, manca solo la conferma definitiva poi faccio benchmark a nastro :stordita:
nessuno29
22-01-2023, 09:53
Tra un 2060s e la 770 quanto ci passa in prestazioni medie?
Tra un 2060s e la 770 quanto ci passa in prestazioni medie?
Bene o male è una GPU che oscilla tra 3060 e 3070 come prestazioni, quindi quando va male 5-10% in più, invece sui titoli più ottimizzati siamo sul 35-40% in più.
Bene o male è una GPU che oscilla tra 3060 e 3070 come prestazioni, quindi quando va male 5-10% in più, invece sui titoli più ottimizzati siamo sul 35-40% in più.
Di più, io dalla 2070 a questa A770 ho visto altro che il 10% in 2K, avviso subito che in 1080p lo stacco è minore però.
Per dirne una con la 2070 in 2K a Forza Horizon 5 facevo intorno ai 50/60 fps, con la A770 siamo intorno ai 90/100.
Stessa cosa Deathloop, a Plague tale requiem con la 2070 era ingiocabile se non mettendo il DLSS che comunque è arrivato dopo, o tutti settaggi su low-medium.
Di più, io dalla 2070 a questa A770 ho visto altro che il 10% in 2K, avviso subito che in 1080p lo stacco è minore però.
Per dirne una con la 2070 in 2K a Forza Horizon 5 facevo intorno ai 50/60 fps, con la A770 siamo intorno ai 90/100.
Stessa cosa Deathloop, a Plague tale requiem con la 2070 era ingiocabile se non mettendo il DLSS che comunque è arrivato dopo, o tutti settaggi su low-medium.
Ovviamente parlando del caso peggiore in assoluto, ma sui titoli recenti in DX12 bene o male è ai livelli di 3060ti e tallona 3070, rispetto 2060/2070 il salto c'è.
Ovviamente parlando del caso peggiore in assoluto, ma sui titoli recenti in DX12 bene o male è ai livelli di 3060ti e tallona 3070, rispetto 2060/2070 il salto c'è.
Come già postato in dx11 devono lavorarci, i vari NFS non funzionano o hanno problemi e son sicuro sono in questo stato molti altri giochi, però per il mio utilizzo i questo momento, va benissimo giocando prevalentemente titoli dx12 recenti, i prossimi saranno Dead Sapece remake e Atomic heart, e magari The Callisto Protocol nonostante le recensioni gli abbiano segato le gambe.
Come già postato in dx11 devono lavorarci, i vari NFS non funzionano o hanno problemi e son sicuro sono in questo stato molti altri giochi, però per il mio utilizzo i questo momento, va benissimo giocando prevalentemente titoli dx12 recenti, i prossimi saranno Dead Sapece remake e Atomic heart, e magari The Callisto Protocol nonostante le recensioni gli abbiano segato le gambe.
Probabilmente digerisce poco il Frostbite Engine, ma solo versioni più vecchie dato che l'ultimo nfs Unboubd e Deadspace girano (dx12 sicuramente).
Quali giochi dx 11 hai verificato non funzionanti?
Che sistemano la compatibilità dx11 lo do per scontato e a breve.
Probabilmente digerisce poco il Frostbite Engine, ma solo versioni più vecchie dato che l'ultimo nfs Unboubd e Deadspace girano (dx12 sicuramente).
Quali giochi dx 11 hai verificato non funzionanti?
Che sistemano la compatibilità dx11 lo do per scontato e a breve.
Non funzionante in pieno ho trovato solo Need for Speed del 2015, non c'è verso di entrare nel menù in nessun modo, non prende l'input da tastiera.
Vero che l'ultima volta che ci giocai avevo la gtx 760, quindi un bel po' di tempo fa, però non penso sia Windows il problema, sembrano proprio i driver Intel, altri giochi dx11 ho scaricato solo Fallout 4 per ora, che come già visto funziona anche se non a pieno regime.
Non funzionante in pieno ho trovato solo Need for Speed del 2015, non c'è verso di entrare nel menù in nessun modo, non prende l'input da tastiera.
Vero che l'ultima volta che ci giocai avevo la gtx 760, quindi un bel po' di tempo fa, però non penso sia Windows il problema, sembrano proprio i driver Intel, altri giochi dx11 ho scaricato solo Fallout 4 per ora, che come già visto funziona anche se non a pieno regime.
Poco male ha 8 anni sul groppone l'importante è che funzioni bene con i titoli nuovi.
È importante che l'ottimizzazione venga fatta anche da chi programma il gioco, un occhio che funzioni tutto bene per Arc è fondamentale.
Ma need for speed 2015 ha qualcosa di particolare?
Da quello che ricordo non era nulla di che.
Ma need for speed 2015 ha qualcosa di particolare?
Da quello che ricordo non era nulla di che.
No, di particolare non ha nulla, ma essendo io un fan della serie, ho giocato da Need for Speed II SE a salire, quelli che più mi son rimasti nel cuore sono Porsche 2000 più i vari Underground per arrivare fino al Most Wanted del 2005, per poi andare scemando negli anni successivi;
Con Need for Speed del 2015 la parvenza era quella di avere un Underground e un Most Wanted in salsa moderna ed aggiornata per l'epoca con una grafica di tutto rispetto per i miei gusti, peccato che già da Payback abbiano intrapreso scelte sbagliate secondo me.
Ora essendo parecchi anni che non ci giocavo mi era tornata un po' la voglia anche per vedere come si comportava la ARC e invece niente, non funziona neanche un po', poco male in ogni caso.
Scusate l'OT.
In attesa dell'apertura del thread ufficiale ho provato a fare un po' di OC sulla A770, qui i risultati del Superposition.
Il problema principale è la mancanza di poter settare a proprio piacimento la velocità delle ventole, infatti nello screen fatto col telefono si può vedere dalla telemetria come nonostante la GPU sia a 86 gradi e le RAM a 92, le ventole girino bellamente a soli 1192 rpm murando a tutto spiano colpa temperature.
https://i.ibb.co/xX8r022/Superposition-OC-1080p.jpg (https://ibb.co/wBr2Xdd)
https://i.ibb.co/gTnTncP/Superposition-OC-4-K.jpg (https://ibb.co/T8C8CNb)
https://i.ibb.co/6NmkTL4/Tempe-GPU.jpg (https://ibb.co/HXVjb3r)
Msi Afterburner è compatibile con Arc ? Si potrebbe usare quello nel caso.
Msi Afterburner è compatibile con Arc ? Si potrebbe usare quello nel caso.
Quando sono uscite le ARC non funzionava afterburner, ora non so!
EDIT Ho trovato poco fa questo video dove spiega che file di ARC control editare per abilitare la possibilità di settare una curva ventole personalizzata! :)
https://www.youtube.com/watch?v=biTl_M_REeI
Ottimo speriamo che Intel renda tutto intuitivo.
Ora puoi tirarla, 2750 si prendono :)
Ottimo speriamo che Intel renda tutto intuitivo.
Ora puoi tirarla, 2750 si prendono :)
Per questa sera non riesco più a fare altri test, ma appena posso provo ad abilitare la fan curve e ritestare. :)
StylezZz`
22-01-2023, 22:39
Potresti provare anche a fare undervolt.
Potresti provare anche a fare undervolt.
Ehm, dal pannello dei driver si può solo overvoltare, non mi pare di aver visto la possibilità di undervoltare, al massimo si può abbassare il PL, ma la ARC lo dà in watt e non in % come Nvidia e AMD.
StylezZz`
22-01-2023, 23:56
Non è possibile sbloccare il controllo del voltaggio con msi afterburner?
DanieleRC5
23-01-2023, 06:47
Ehm, dal pannello dei driver si può solo overvoltare, non mi pare di aver visto la possibilità di undervoltare, al massimo si può abbassare il PL, ma la ARC lo dà in watt e non in % come Nvidia e AMD.Hai provato il tool di Shamino che ho postato qualche tempo fa?
Qui c'è anche una guida:
https://skatterbencher.com/arc-oc-tool/
Inviato dal mio LYA-L29 utilizzando Tapatalk
ninja750
23-01-2023, 09:14
msi afterburner non penso supporterà mai arc
Non è possibile sbloccare il controllo del voltaggio con msi afterburner?
Afterburner non supporta proprio le ARC.
Hai provato il tool di Shamino che ho postato qualche tempo fa?
Qui c'è anche una guida:
Non l'ho provato, per ora mi son limitato ad usare quello che offre Intel, mi ricordavo di aver visto qualcosa qualche settimana fa in merito però, grazie! :)
Our power management architecture has been designed to target technologies that exist on modern platforms and benefits from specific parameters in motherboard system settings often referred to as ASPM. Enabling those features will allow users to get optimal idle power usage with Intel® Arc™ graphics.
https://www.intel.com/content/www/us/en/support/articles/000092564/graphics.html
https://www.tomshardware.com/news/intel-potential-fix-high-idle-power-arc-gpus
Qualcuno ha provato a monitorare il consumo in idle?
Visto che ormai c'è già più di qualche scheda qui nel thread, sarebbe interessante verificare se il fix di intel porta effettivamente dei benefici.
https://www.intel.com/content/www/us/en/support/articles/000092564/graphics.html
https://www.tomshardware.com/news/intel-potential-fix-high-idle-power-arc-gpus
Qualcuno ha provato a monitorare il consumo in idle?
Visto che ormai c'è già più di qualche scheda qui nel thread, sarebbe interessante verificare se il fix di intel porta effettivamente dei benefici.
Io lo uso, effettivamente c'è un miglioramento, se hai un monitor fino a 144Hz.
Io invece ho un monitor a 165Hz, la scheda in idle consuma intorno ai 30W, quando il monitor va in sleep i consumi sono minori ai 5W invece ed entra in funzione il fan stop. In ogni caso le ventole anche con consumi sui 30W girano sui 500 rpm, inudibili in pratica.
Ovviamente per settare gli aspm state ho dovuto aggiornare il BIOS all'ultima versione, altrimenti nelle release precedenti non c'erano.
Io lo uso, effettivamente c'è un miglioramento, se hai un monitor fino a 144Hz.
Io invece ho un monitor a 165Hz, la scheda in idle consuma intorno ai 30W, quando il monitor va in sleep i consumi sono minori ai 5W invece ed entra in funzione il fan stop. In ogni caso le ventole anche con consumi sui 30W girano sui 500 rpm, inudibili in pratica.
Ovviamente per settare gli aspm state ho dovuto aggiornare il BIOS all'ultima versione, altrimenti nelle release precedenti non c'erano.
Ah ecco, mi hai tolto un dubbio che mi avevi fatto venire qualche pagina più indietro...
Per fan stop tu intendi questo, io mi riferivo alla funzione zero rpm, per cui sotto una certa temp (mentre navighi o guoardi video su youtube ad esempio) le ventole si fermano del tutto e riprendono solo se si alza la temperatura oltre un certo limite.
Ah ecco, mi hai tolto un dubbio che mi avevi fatto venire qualche pagina più indietro...
Per fan stop tu intendi questo, io mi riferivo alla funzione zero rpm, per cui sotto una certa temp (mentre navighi o guoardi video su youtube ad esempio) le ventole si fermano del tutto e riprendono solo se si alza la temperatura oltre un certo limite.
È sempre quello, fan stop o zero rpm son la stessa cosa, sotto i 45 gradi le ventole si fermano.
Il punto è che se la scheda consuma 35W mentre guardi un video la temperatura va inevitabilmente oltre i 45 gradi e le ventole si avviano, seppure a bassissimi rpm, mentre se lasci il PC a scaricare o a fare altro ed hai lo sleep del monitor che toglie segnale dopo tot minuti allora il consumo scende sotto i 5W e le ventole di conseguenza si fermano in quanto la temperatura va sotto i 45 gradi. Spero di essere stato chiaro. :)
È sempre quello, fan stop o zero rpm son la stessa cosa, sotto i 45 gradi le ventole si fermano.
Il punto è che se la scheda consuma 35W mentre guardi un video la temperatura va inevitabilmente oltre i 45 gradi e le ventole si avviano, seppure a bassissimi rpm, mentre se lasci il PC a scaricare o a fare altro ed hai lo sleep del monitor che toglie segnale dopo tot minuti allora il consumo scende sotto i 5W e le ventole di conseguenza si fermano in quanto la temperatura va sotto i 45 gradi. Spero di essere stato chiaro. :)
Ok, chiaro.
Con la mia scheda attuale il comportamento è un pò diverso. Anche a me le ventole si fermano sotto i 45°, ma perchè partano bisogna superare i 53/54°.
Contro ogni aspettativa, Forspoken ha ricevuto una demo per PC. Presumo che includa anche la modalità benchmark, ma non posso ancora confermarlo. Potrebbe essere interessante vedere come gira sulle Arc.
Se volete provarlo, vi dico subito che in giro si parla di stuttering a manetta e problemi di frame pacing. Io lo sto scaricando sul portatile in firma... giusto per avere un'idea... :p
Contro ogni aspettativa, Forspoken ha ricevuto una demo per PC. Presumo che includa anche la modalità benchmark, ma non posso ancora confermarlo. Potrebbe essere interessante vedere come gira sulle Arc.
Se volete provarlo, vi dico subito che in giro si parla di stuttering a manetta e problemi di frame pacing. Io lo sto scaricando sul portatile in firma... giusto per avere un'idea... :p
Meno male che è il primo gioco a implementare directstorage, e c'è tutto sto stuttering. :doh:
Dove si scarica la demo?
Avevo letto che Forspoken forse non aveva bench integrato come FFXV ad esempio però...
Meno male che è il primo gioco a implementare directstorage, e c'è tutto sto stuttering. :doh:
Dove si scarica la demo?
Avevo letto che Forspoken forse non aveva bench integrato come FFXV ad esempio però...
La demo è su Steam. Non so se abbia il benchmark, ho visto su internet che la versione completa ce l'ha, anche se sembra davvero poco rappresentativo del gioco (è solo un fly-by di alcuni paesaggi e sembra andare molto più veloce rispetto al gioco reale).
Per lo stuttering in realtà dicono che il gioco non supporta il DirectStorage su Windows 10, e il test era appunto su W10, quindi potrebbe essere per quello. Ma francamente non mi stupirebbe se fosse colpa del gioco e basta.
Certo, a testarlo su un portatile con 8GB di memoria, e CPU e GPU sotto i requisiti minimi, sono pronto a qualsiasi cosa... :asd:
La demo è su Steam. Non so se abbia il benchmark, ho visto su internet che la versione completa ce l'ha, anche se sembra davvero poco rappresentativo del gioco (è solo un fly-by di alcuni paesaggi e sembra andare molto più veloce rispetto al gioco reale).
Per lo stuttering in realtà dicono che il gioco non supporta il DirectStorage su Windows 10, e il test era appunto su W10, quindi potrebbe essere per quello. Ma francamente non mi stupirebbe se fosse colpa del gioco e basta.
Certo, a testarlo su un portatile con 8GB di memoria, e CPU e GPU sotto i requisiti minimi, sono pronto a qualsiasi cosa... :asd:
Messo in download, più tardi provo e posto le mie impressioni. :)
Provo a fare vari test, ma il bench nella demo non lo vedo, in compenso c'è la possibilità di attivare XeSS!
Edit Provato a 2560x1440p, preset "alta definizione", nel primo capitolo della demo sono sui 60 fps stabili, è presente del microstuttering, ma nulla di invalidante ai fini della giocabilità.
Con dettagli su "alta definizione" ma con RT ombre e RT ambient occlusion più XeSS settato su quality siamo intorno ai 50 fps, differenze sostanziali con la nativa unita al TAA non ne vedo se non ghosting, specialmente sui fili d'erba e una leggera perdita di nitidezza sui dettagli in primo piano piuttosto che su quelli distanti.
Edit 2 Il gioco con dettagli su "altissima definizione" senza rt si occupa circa 14 GB di vram in 2K.
Sì, pare che il bench sia disponibile solo nella versione completa. Mi immaginerei che sarebbe più utile averlo nella demo, così che uno possa provarlo prima di comprare un gioco che magari gira male, ma temo che la Squenix conosca i suoi polli e voglia spennarli fino in fondo.
Sì, pare che il bench sia disponibile solo nella versione completa. Mi immaginerei che sarebbe più utile averlo nella demo, così che uno possa provarlo prima di comprare un gioco che magari gira male, ma temo che la Squenix conosca i suoi polli e voglia spennarli fino in fondo.
Può essere!
Comunque dopo mezz'oretta di gioco direi che sembra comportarsi abbastanza bene sulla A770, sicuramente arriverà qualche affinamento coi prossimi driver.
Quello che non trovo esaltante è XeSS, sia su ultra quality che su performance la qualità è lì, non trovo grosse differenze come con FSR o DLSS, inoltre non avendo la possibilità di regolare la nitidezza un pochino impasta l'immagine, mentre con FSR è perfino troppo nitido, credo sia anche una questione di gusti.
Comunque confermo che passati i primissimi minuti lo stuttering è assente ed io ho il gioco su un ssd sata, con nvme la situazione può solo essere migliore!
Qui uno screen con fps e i vari parametri dall'osd.
https://i.ibb.co/WGBH17M/Forspoken.jpg (https://ibb.co/NtWFzfJ)
ninja750
25-01-2023, 09:15
quindi anche su intel la vram sembra andare ben oltre i 10 o 12 gb
quindi anche su intel la vram sembra andare ben oltre i 10 o 12 gb
Con texture settate al massimo pare di sì.
Basta abbassarle su alto per rientrare tra gli 8 e i 10 GB.
I 16 giga stanno tornando utili, possono fare davvero la differenza.
Qualcuno ha Far Cry 6 per provare le texture HD ?
14 gb di vram, sono pazzi per u ngioco che pare essere FFXV :muro:
Uscito un nuovo driver: Beta Driver 31.0.101.4090
https://www.intel.com/content/www/us/en/download/729157/766661/intel-arc-iris-xe-graphics-beta-windows.html
E' in beta
StylezZz`
25-01-2023, 10:28
Tutta quella vram è utile per i titoli non ottimizzati, come in questo caso...è inconcepibile che un gioco così mediocre con quella grafica da PS3 occupi così tanto, ma non esiste proprio.
ninja750
25-01-2023, 10:31
Tutta quella vram è utile per i titoli non ottimizzati, come in questo caso...è inconcepibile che un gioco così mediocre con quella grafica da PS3 occupi così tanto, ma non esiste proprio.
con la 3070 quanta ne alloca? stuttera o va fluido?
StylezZz`
25-01-2023, 10:44
con la 3070 quanta ne alloca? stuttera o va fluido?
Non lo so, figurati se provo questa schifezza, ma nemmeno gratis! :doh:
Sulla mia 1650, il minimo raggiungibile di VRAM, anche mettendo tutto al minimo a 720p e FSR2, è di 4600MB (e ovviamente il gioco stuttera a manetta). Stesso problema con Darktide. Mi sa che è finita da un pezzo l'epoca dei 4GB. Capisco perchè Intel abbia deciso di mettere 6GB anche sulla A380, per quanto tecnicamente vada a competere con schede come la RX 6400 e la GTX 1650 che sono sempre da 4GB.
Non lo so, figurati se provo questa schifezza, ma nemmeno gratis! :doh:
Bè, la demo è gratis, se vuoi far due prove per avere qualche riscontro, sono "solo" 35 GB di download. :D
Sulla mia 1650, il minimo raggiungibile di VRAM, anche mettendo tutto al minimo a 720p e FSR2, è di 4600MB (e ovviamente il gioco stuttera a manetta). Stesso problema con Darktide. Mi sa che è finita da un pezzo l'epoca dei 4GB. Capisco perchè Intel abbia deciso di mettere 6GB anche sulla A380, per quanto tecnicamente vada a competere con schede come la RX 6400 e la GTX 1650 che sono sempre da 4GB.
Diciamo che nei due anni precedenti 8 GB bastavano ancora in 2K, coi nuovi giochi sembra non bastino più invece anche per il fatto che comunque le nuove schede di fascia media hanno comunque 12 GB anziché 8 e di conseguenza la direzione che gli sviluppatori prenderanno sarà quella di allocare maggior vram rispetto al passato.
Non lo so, figurati se provo questa schifezza, ma nemmeno gratis! :doh:
se lo trovo "a poco" lo provo nel pc con la 3070 quasi quasi... :rolleyes:
StylezZz`
25-01-2023, 13:19
Diciamo che nei due anni precedenti 8 GB bastavano ancora in 2K, coi nuovi giochi sembra non bastino più invece anche per il fatto che comunque le nuove schede di fascia media hanno comunque 12 GB anziché 8 e di conseguenza la direzione che gli sviluppatori prenderanno sarà quella di allocare maggior vram rispetto al passato.
Ma guarda, finora non ho trovato nessun gioco che mi desse problemi a 1440p maxato, e parliamo di giochi molto più complessi e pesanti di questo Forspoken che è un perfetto esempio di mal ottimizzazione.
Io credo che fin quando ci saranno le console attuali non potranno sforare più di tanto, come è sempre stato.
se lo trovo "a poco" lo provo nel pc con la 3070 quasi quasi... :rolleyes:
Prenditi una pizza.
Ma guarda, finora non ho trovato nessun gioco che mi desse problemi a 1440p maxato, e parliamo di giochi molto più complessi e pesanti di questo Forspoken che è un perfetto esempio di mal ottimizzazione.
Io credo che fin quando ci saranno le console attuali non potranno sforare più di tanto, come è sempre stato.
Dipende, le console hanno a disposizione 13GB (tolta la memoria riservata al sistema) da dividere fra gioco e comparto video. Se decidono di allocarne maggiormente per il comparto video, cosa molto probabile, allora 8GB in futuro potrebbero non bastare, almeno per avere impostazioni pari a quelle delle console.
Però l'esistenza della Series S, che deve fare tutto in 8GB, potrebbe anche allungare la vita utile delle schede attuali... a me non dispiacerebbe, perchè non penso che neanche la mia prossima scheda avrà 16GB :fagiano:
Io lo stavo provando su 3060ti, la vram almeno nella mappa iniziale non ha mai superato i 6.5gb, le prestazioni con DLSS quality sono buone, senza ottimizzazioni e sparando tutto al massimo sta sui 45-50fps a 3440x1440.
Però il gioco in se è proprio il classico giappo, non mi è piaciuto minimamente, poi molti modelli della vegetazione sono fatti con i piedi.
Sinceramente l'ho disinstallato... Come stile mi ha ricordato vagamente Black Desert Online.
35gb...vi voglio bene, ma mi fido dei risultati di EffeX ! :asd:
Sotto con qualche altra demo, dai ! :D
Io lo stavo provando su 3060ti, la vram almeno nella mappa iniziale non ha mai superato i 6.5gb, le prestazioni con DLSS quality sono buone, senza ottimizzazioni e sparando tutto al massimo sta sui 45-50fps a 3440x1440.
Però il gioco in se è proprio il classico giappo, non mi è piaciuto minimamente, poi molti modelli della vegetazione sono fatti con i piedi.
Sinceramente l'ho disinstallato... Come stile mi ha ricordato vagamente Black Desert Online.
Bè, bisogna ammettere che il DLSS con la vram allocata aiuta molto, però posso dire con certezza che con la 2070, la 3070Ti e la A750, che avevano tutte 8 GB di vram in giochi tipo Deathloop, Horizon zero Dawn, e Forza Horizon 5 la vram allocata era intorno ai 7 GB ed in giochi come Horizon zero dawn o Deathloop se non abbassavo di uno step le texture avevo fenomeni di pop up e stuttering saltuario, da quando son passato ai 16 GB quei problemi sono svaniti anche con massimo settaggio delle texture.
O perlomeno questa è la mia esperienza in merito che posso riportare.
StylezZz`
25-01-2023, 18:44
Bè, bisogna ammettere che il DLSS con la vram allocata aiuta molto, però posso dire con certezza che con la 2070, la 3070Ti e la A750, che avevano tutte 8 GB di vram in giochi tipo Deathloop, Horizon zero Dawn, e Forza Horizon 5 la vram allocata era intorno ai 7 GB ed in giochi come Horizon zero dawn o Deathloop se non abbassavo di uno step le texture avevo fenomeni di pop up e stuttering saltuario, da quando son passato ai 16 GB quei problemi sono svaniti anche con massimo settaggio delle texture.
O perlomeno questa è la mia esperienza in merito che posso riportare.
Horizon l'ho giocato maxato con la 2070 Super quando ancora il dlss non era stato implementato, e 0 problemi, se l'avessi giocato con dlss sarebbe stato ancora meglio, mi chiedo se il problema non si verifichi solo in casi specifichi con determinate configurazioni.
Sembra che siano usciti dei risultati riguardo ad una scheda Arc con 16 unità XE. E viste le frequenze non dovrebbe essere la 550M per laptop.
Secondo me la Intel ha capito che la A580 con lo stesso die delle schede maggiori era praticamente insostenibile ad un prezzo inferiore alla A750, e ha deciso di ridurre le specifiche, in modo da avere un die vendibile a 220-230 euro senza perderci troppo.
Horizon l'ho giocato maxato con la 2070 Super quando ancora il dlss non era stato implementato, e 0 problemi, se l'avessi giocato con dlss sarebbe stato ancora meglio, mi chiedo se il problema non si verifichi solo in casi specifichi con determinate configurazioni.
Può darsi, io purtroppo ho ancora ssd sata e magari anche quelli non aiutano, con nvme la situazione sarebbe stata diversa, comunque io HZD l'ho sempre giocato senza DLSS in quanto le performance in ogni caso erano ottime.
Wolfw00f
27-01-2023, 17:35
https://www.phoronix.com/news/TornadoVM-0.15-Released
java accelerato su Xe
Ragazzi la mia 770 è in arrivo, l'ho presa, che goduria sono stra gasato :sofico: :D
Girano voci di un altro driver in arrivo a Febbraio, con un boost performance piuttosto significativo nel superare un "huge bottlekneck", fonte pcgameshardware.de a quanto pare molto affidabile per quanto riguarda inifo su ARC.
Si dice abbiano trovato il motivo del calo prestazionale, Intel ci sta lavorando duro sul software è innegabile. Vediamo che ne esce ...
Ragazzi la mia 770 è in arrivo, l'ho presa, che goduria sono stra gasato :sofico: :D
Alla fine hai ceduto eh? :D
Alla fine hai ceduto eh? :D
Sono debole su certe cose :D
Ho già fatto qualche bench con la 3070 che poi confronterò, darò un contributo con test e opinioni :)
ninja750
28-01-2023, 18:47
come dicevo io ne vendevano poche perchè con zero esperienze nessuno voleva fare la cavia :D qualcuno ha dato il via e nel piccolo di questo forum siete già 5 o 6 :sofico:
come dicevo io ne vendevano poche perchè con zero esperienze nessuno voleva fare la cavia :D qualcuno ha dato il via e nel piccolo di questo forum siete già 5 o 6 :sofico:
Dai unisciti anche te :D
Ma nessuno che voglia provare la A380? :asd:
Io al massimo potrei prendere la A750, ma da quello che vedo in giro, penso che a parità di prezzo sarebbe meglio una 6650 XT... ma anche quelle sono schede vecchie ormai. Finisce che davvero aspetto la prossima generazione, sia per AMD che per Intel (su Nvidia ormai ho rinunciato all'idea di vedere prezzi decenti) :fagiano:
Wolfw00f
28-01-2023, 21:47
La 380 no dai. A meno che tu debba solo codificare in AV1 :fagiano:
Ragazzi la mia 770 è in arrivo, l'ho presa, che goduria sono stra gasato :sofico: :D
Grande ! ;)
Ma nessuno che voglia provare la A380? :asd:
Ci sarebbe la ASROCK ordinabile...se "mi sponsorizzate" sarò lieto di metterla sotto torchio...:D
A380 non vale neanche la pena testarla, a momenti le APU Vega sono messe meglio XD
Il minimo secondo me parte dalla A580 che però non si è ancora vista nei nostri mercati, quindi A750/A770 sono sicuramente quelle più interessanti.
Poi ovvio che se uno vuole un supporto più maturo e prestazioni più lineari conviene andare su AMD/Nvidia puntando a 3060ti o RX 6700.
Wolfw00f
29-01-2023, 12:09
Qualche volenteroso con A750/A770 che dia la disponibilità per alcuni test D3D9 (NOVE)? :D
Il supporto D3D10/11 verrà pian piano sistemate da Intel.
Ho una bella listona di cosa da provare in attesa che Intel torni sulla sua decisione di affidare tutto al layer di conversione D3D9ON12 ( https://github.com/microsoft/D3D9On12 - per i curiosoni è forzabile anche sulle GPU non-Intel -> https://github.com/narzoul/ForceD3D9On12/releases/tag/v1.0.0 ) ......anche perchè per quello c'è già dgvoodoo2 che fa tutto benissimo e massima customizzazione anche per casi patologici (tranne quelli REALMENTE TANTO PATOLOGICI in cui non venga chiamata d3d9.dll secondo le best practice).
Qualche volenteroso con A750/A770 che dia la disponibilità per alcuni test D3D9 (NOVE)? :D
Il supporto D3D10/11 verrà pian piano sistemate da Intel.
Ho una bella listona di cosa da provare in attesa che Intel torni sulla sua decisione di affidare tutto al layer di conversione D3D9ON12 ( https://github.com/microsoft/D3D9On12 - per i curiosoni è forzabile anche sulle GPU non-Intel -> https://github.com/narzoul/ForceD3D9On12/releases/tag/v1.0.0 ) ......anche perchè per quello c'è già dgvoodoo2 che fa tutto benissimo e massima customizzazione anche per casi patologici (tranne quelli REALMENTE TANTO PATOLOGICI in cui non venga chiamata d3d9.dll secondo le best practice).
Non ho una Arc, ma confesso che sarei curioso di provarlo sulla mia 1650, per vedere come gira rispetto al normale. Basta che copio il d3d9.dll sulla cartella dell'eseguibile del test e dovrebbe andare da sè?
Qualche volenteroso con A750/A770 che dia la disponibilità per alcuni test D3D9 (NOVE)? :D
Il supporto D3D10/11 verrà pian piano sistemate da Intel.
Ho una bella listona di cosa da provare in attesa che Intel torni sulla sua decisione di affidare tutto al layer di conversione D3D9ON12 ( https://github.com/microsoft/D3D9On12 - per i curiosoni è forzabile anche sulle GPU non-Intel -> https://github.com/narzoul/ForceD3D9On12/releases/tag/v1.0.0 ) ......anche perchè per quello c'è già dgvoodoo2 che fa tutto benissimo e massima customizzazione anche per casi patologici (tranne quelli REALMENTE TANTO PATOLOGICI in cui non venga chiamata d3d9.dll secondo le best practice).
Il buon Saturn ha fatto qualche test in dx9 qualche pagina fa se ti interessa. ;)
Wolfw00f
29-01-2023, 15:41
Il buon Saturn ha fatto qualche test in dx9 qualche pagina fa se ti interessa. ;)
Vedo vedo, ma bisogna farlo in modo più sistematico! :D
Intanto ricordo a tutti di usare dgvoodoo2 in modalità DX12 per avere il supporto ddraw (dx1->7) / d3d8 / d3d9: http://dege.freeweb.hu/dgVoodoo2/dgVoodoo2/
https://i.postimg.cc/x8D0jKvX/Untitled.jpg (https://postimages.org/)
Configurate poi nella tab DirectX (o Glide) le opzioni come volete, esempio:
https://i.postimg.cc/Vv88PzwM/Untitled.jpg (https://postimages.org/)
E riportare nel relativo thread: https://www.vogons.org/viewtopic.php?f=59&t=82441&start=220
dove trovate anche l'ultima WIP, la 89.3: http://dege.fw.hu/temp/dgVoodooWIP89_3.zip
(seguite il thread per le versioni successive ovviamente - non contiene malware, sono i controlli del browser che ovviamente vedendo nel pacchetto "d3d9.dll" e simili fanno credere al browser che sia un malware essendo nome di file di sistema)
Wolfw00f
29-01-2023, 15:48
Non ho una Arc, ma confesso che sarei curioso di provarlo sulla mia 1650, per vedere come gira rispetto al normale. Basta che copio il d3d9.dll sulla cartella dell'eseguibile del test e dovrebbe andare da sè?
Certo, ovviamente ti conviene fare poi fine-tuning col relativo pannello di controllo per le varie opzioni se usi dgVoodoo2. Per D3D9ON12 nessun problema invece.
Considera che con dgVoodoo2 si può quasi sempre pure forzare l'MSAA in D3D9 sui titoli che usano il deferred rendering (come UT3 ad esempio e tutti quelli UE3 based), cosa altrimenti impossibile su schede AMD (con NVidia si può via Profile Inspector)
Ci sono casi patologici dove ahimè NON basta mettere la dll (perchè l'exe cerca quella di sistema nella cartella di Windows in modo hard-wired, un esempio è dato da Aquamark: in quei casi si può cmq aggirare la cosa modificando con un editor esadecimale l'exe per cercare ad esempio "B3d9.dll" e rinominare la relativa DLL di dgVoodoo così, con la "B" :asd: :asd: :asd: - con D3D9ON12 non ho ancora provato :fagiano: )
Qualche volenteroso con A750/A770 che dia la disponibilità per alcuni test D3D9 (NOVE)? :D
Il supporto D3D10/11 verrà pian piano sistemate da Intel.
Ho una bella listona di cosa da provare in attesa che Intel torni sulla sua decisione di affidare tutto al layer di conversione D3D9ON12 ( https://github.com/microsoft/D3D9On12 - per i curiosoni è forzabile anche sulle GPU non-Intel -> https://github.com/narzoul/ForceD3D9On12/releases/tag/v1.0.0 ) ......anche perchè per quello c'è già dgvoodoo2 che fa tutto benissimo e massima customizzazione anche per casi patologici (tranne quelli REALMENTE TANTO PATOLOGICI in cui non venga chiamata d3d9.dll secondo le best practice).
Tu posta "il listone" (con annessi link per download) e un po' per volta vediamo se ti riusciamo ad accontentare...:)
ninja750
30-01-2023, 11:31
Dai unisciti anche te :D
e che faccio, un downgrade? :D
e che faccio, un downgrade? :D
Fai come me, un secondo Pc ALL Intel :D
StylezZz`
30-01-2023, 12:21
e che faccio, un downgrade? :D
Per certi aspetti potrebbe essere un upgrade, performance rt migliori :O
Alcune voci sul nuovo software in arrivo, non solo prestazioni sotto l'attenzione di Intel.
https://videocardz.com/newz/intel-is-planning-a-major-update-for-its-arc-control-software-new-driver-next-month
A380 non vale neanche la pena testarla, a momenti le APU Vega sono messe meglio XD
Il minimo secondo me parte dalla A580 che però non si è ancora vista nei nostri mercati, quindi A750/A770 sono sicuramente quelle più interessanti.
Poi ovvio che se uno vuole un supporto più maturo e prestazioni più lineari conviene andare su AMD/Nvidia puntando a 3060ti o RX 6700.
Il problema è che a meno di 170-180€ non te la porti a casa.
A questo punto mi "dava gusto" divertirmi con la A310, la meno potente in assoluto, ma sembra che a parte in Russia e in Cina, non sia reperibile da nessun'altra parte. :stordita:
Wolfw00f
31-01-2023, 11:53
Ma se è per quello la A380 allora va benone, a 150 euro e non di più però.
Considera cmq che il software verrà unificato (in parte lo è già) anche per le integrate Xe-based (da Raptor Lake / Tiger Lake in poi)
https://i.postimg.cc/yxXn2M7c/Untitled.jpg (https://postimg.cc/wRMhmbyj)
Le prestazioni della A380 rispetto a qualche mese fa sono aumentate drasticamente, tremendamente. Guardatevi con attenzione questo video. (https://www.youtube.com/watch?v=LYUK3F2xw3w)
E ancora deve uscire il nuovo set di driver Intel che darà un ulteriore boost di performances a tutta la gamma.
Ho deciso, merita di essere messa sotto "torchio" anche lei.
Vi aggiorno...:)
Anche perchè ho una seconda configurazione Ryzen 5 2600 + MSI A320M-A PRO + 16 gb RAM che, nonostante inizialmente non lo supportasse,
ora con gli ultimi aggiornamenti bios dovrebbe senza problemi gestire e supportare (sono comparsi i due settaggi nel bios) il RESIZABLE BAR.
Poi la top di gamma la terrò, questa piccolina, la A380 OC Asrock vedremo...ho già in mente a chi potrebbe interessare nel caso volessi separarmene...
Si ma ha sempre un 1/4 delle ALU della A770, nel migliore dei casi è ai livelli di una RX 470, che per carità non fa pena ma non è neanche questo granchè, è un target di prestazioni che dovrebbero raggiungere anche le nuove APU RDNA2 con 12CU che usciranno su AM5.
A mio parere sotto la A580 ci si fa ben poco.
Le prestazioni della A380 rispetto a qualche mese fa sono aumentate drasticamente, tremendamente. Guardatevi con attenzione questo video. (https://www.youtube.com/watch?v=LYUK3F2xw3w)
E ancora deve uscire il nuovo set di driver Intel che darà un ulteriore boost di performances a tutta la gamma.
Ho deciso, merita di essere messa sotto "torchio" anche lei.
Vi aggiorno...:)
Anche perchè ho una seconda configurazione Ryzen 5 2600 + MSI A320M-A PRO + 16 gb RAM che, nonostante inizialmente non lo supportasse,
ora con gli ultimi aggiornamenti bios dovrebbe senza problemi gestire e supportare (sono comparsi i due settaggi nel bios) il RESIZABLE BAR.
Poi la top di gamma la terrò, questa piccolina, la A380 OC Asrock vedremo...ho già in mente a chi potrebbe interessare nel caso volessi separarmene...
Grande :D
La mia dovrebbe arrivare domani :)
Si ma ha sempre un 1/4 delle ALU della A770, nel migliore dei casi è ai livelli di una RX 470, che per carità non fa pena ma non è neanche questo granchè, è un target di prestazioni che dovrebbero raggiungere anche le nuove APU RDNA2 con 12CU che usciranno su AM5.
A mio parere sotto la A580 ci si fa ben poco.
Si è uno sfizio, ripeto. Avrei comprato addirittura la A310 se fosse stata disponibile. É tanto per divertirsi con i test e vedere di persona come e quanto miglioreranno le prestazioni man mano che i driver Intel verranno aggiornati. Poi ripeto, o la rivendo, o la monto da qualche parte per svecchiare qualche pc collegato in casa che ancora viaggia con Geforce 650 o 710. Insomma non andrò in rovina.
p.s. Intel mi deve fare un monumento, praticamente sono un top buyer ! :asd:
Grande :D
La mia dovrebbe arrivare domani :)
Anche tu A380 ? Su cosa la monti ? :)
Anche tu A380 ? Su cosa la monti ? :)
No io A770, montata su 12500 + b660 :)
No io A770, montata su 12500 + b660 :)
Ah la "sorellona maggiore" ! Fidati che non rimarrai deluso !
A me non ha deluso e aspetto con impazienza i futuri aggiornamenti dei driver ! ;)
Poi acquistandola (la 770 dico) ho scoperto uno shop alternativo ad am@z0n veramente preciso, veloce, affidabile e quindi sono rimasto doppiamente contento ! :)
Questa volta invece, per la A380 il prezzo più basso ero di
[email protected] ho riacquistato da loro...posta mi raccomando appena la monti.
Cos'è una Limited Edition anche la tua A770 ? :)
Ah la "sorellona maggiore" ! Fidati che non rimarrai deluso !
A me non ha deluso e aspetto con impazienza i futuri aggiornamenti dei driver ! ;)
Poi acquistandola (la 770 dico) ho scoperto uno shop alternativo ad am@z0n veramente preciso, veloce, affidabile e quindi sono rimasto doppiamente contento ! :)
Questa volta invece, per la A380 il prezzo più basso ero di
[email protected] ho riacquistato da loro...posta mi raccomando appena la monti.
Cos'è una Limited Edition anche la tua A770 ? :)
Si limite edition, il bombardone da 16 gb :p
Anche io come te sono davvero curioso di testare lo sviluppo dei driver!
Il negozio che dici è per caso di Torino e inizia per B ? :) se si, mi ci servo parecchio anche io ultimamente.
Si limite edition, il bombardone da 16 gb :p
Anche io come te sono davvero curioso di testare lo sviluppo dei driver!
Il negozio che dici è per caso di Torino e inizia per B ? :) se si, mi ci servo parecchio anche io ultimamente.
No...t€chb€rr|/ di Napoli. Guarda ho cercato in ogni dove, letto tutte le recensioni possibili, tutte positive e tutti estremamente soddisfatti. Per quanto mi riguarda mai vista una puntualità e precisione da tanto tempo. Persino l'imballo era a prova di bomba, di corriere e la spedizione è partita precisa nel giorno in cui avevano promesso. :)
Da esseshxxop 304,09€ spedita la A750 LE. Non ho mai comprato da loro, ma sembra affidabile, negozio di Milazzo e accetta Paypal
Wolfw00f
01-02-2023, 10:22
Da esseshxxop
Ecco, facci sapere :D
Il problema di quei negozi è che rigirano roba di altri *MAGAZZINI*, infatti le "immediatamente disponibili" sono sempre poche ma sono tantissime le "disponibili" (a tempo imprecisato) :fagiano:
Se incroci un po' di dati fra i vari negozi puoi appunto capirlo, tutti puntano agli stessi magazzini e alle stesse schede (proprio a livello di codice identificativo) :asd:
Nuovo driver uscito :)
https://videocardz.com/newz/intel-arc-control-gpu-software-gets-standalone-desktop-mode
Ottimo, stasera - lavoro permettendo - ci si diverte.
Così aggiornerò i driver sulla A770 mentre la A380 partirà direttamente con questi !
Sperando che il RESIZABLE BAR funzioni come mi aspetto sulla seconda configurazione, incrocio le dita ! :stordita:
https://i.postimg.cc/5jDwwVVm/20230201-122810.jpg (https://postimg.cc/5jDwwVVm)
Arrivata e montata, ma quant'è bella ?? :sofico:
Wolfw00f
01-02-2023, 14:31
Il nuovo pannello ARC finalmente è movable :asd: :asd: :asd: (prima si potevano solo scegliere 9 posizioni a monitor)
Wolfw00f
01-02-2023, 15:01
Con la Xe integrata in Rocket Lake, che ricordo avere ancora il driver D3D9 nativo (a meno che l'abbiano tolto come su Alder Lake e Raptor Lake), le cose non vanno malaccio, considerando 2560x1440, tutto al massimo - anzi oltre con tweaking ad hoc - con HDR, ovviamente RTSS a fare da Overlay E copia dal framebuffer della Xe al framebuffer della Radeon collegata al monitor (avete letto bene, l'integrata NON sta gestendo il monitor ma solo l'engine del gioco grazie ai settaggi possibili in Windows 10/11 per D3D9 e superiori):
https://i.postimg.cc/br5NY7Pn/Far-Cry-2023-02-01-14-57-48-134.jpg (https://postimg.cc/30gHnbdr)
Dedicato al SACRO UNTO (ben messo in evidenza) per Maury :sofico: (è Far Cry 1.4 con Silent patch - https://github.com/CookiePLMonster/SilentPatchFarCry - e il mod "FarOut" - https://www.moddb.com/mods/farout-widescreen - per il supporto pieno al widescreen 16:9)
****** D3D9 CryRender Stats ******
Driver description: Intel(R) UHD Graphics 750
Full stats: HAL (pure hw vp): Intel(R) UHD Graphics 750
Hardware acceleration: Yes
Full scene AA: Disabled
Projective EMBM: Disabled
Detail textures: Enabled
Z Buffer Locking: Enabled
Multitexturing: Supported (8 textures)
Use bumpmapping : Enabled (DOT3)
Use paletted textures : Disabled
Current Resolution: 2560x1440x32 Full Screen
Maximum Resolution: 2560x1440
Maximum Texture size: 8192x8192 (Max Aspect: 8192)
Texture filtering type: TRILINEAR
HDR Rendering: FP16
MRT Rendering: Enabled
Occlusion queries: Supported
Geometry instancing: Supported
NormalMaps compression: 3Dc
Gamma control: Hardware
Vertex Shaders version 3.0
Pixel Shaders version 3.0
Use Hardware Shaders for ATI R420 GPU
Pixel shaders usage: PS.3.0, PS.2.0 and PS.1.1
Vertex shaders usage: VS.3.0, VS.2.0 and VS.1.1
Shadow maps type: Mixed Depth/2D maps
Stencil shadows type: Two sided
Lighting quality: Highest
Prime rapide impressioni sulla 770 16 giga, scheda installata senza nessun problema, ultimo driver (4091).
Ho avuto modo di provare al volo Spiderman Mile Morales, in 2K, RT on con dettagli molto alti, nessun problema, fluidissimo, zero artefatti o affini.
Mi ha colpito la Vram, il gioco ne ha preso oltre 10 gbyte.
Proverò di tutto e di più nei prossimi giorni ma il primo test è andato veramente bene, molto contento :)
Non ho avuto modo di girarmi bene il Control panel, ma è possibile visualizzare gli fps ?
Con la Xe integrata in Rocket Lake, che ricordo avere ancora il driver D3D9 nativo (a meno che l'abbiano tolto come su Alder Lake e Raptor Lake), le cose non vanno malaccio, considerando 2560x1440, tutto al massimo - anzi oltre con tweaking ad hoc - con HDR, ovviamente RTSS a fare da Overlay E copia dal framebuffer della Xe al framebuffer della Radeon collegata al monitor (avete letto bene, l'integrata NON sta gestendo il monitor ma solo l'engine del gioco grazie ai settaggi possibili in Windows 10/11 per D3D9 e superiori):
https://i.postimg.cc/br5NY7Pn/Far-Cry-2023-02-01-14-57-48-134.jpg (https://postimg.cc/30gHnbdr)
Dedicato al SACRO UNTO (ben messo in evidenza) per Maury :sofico: (è Far Cry 1.4 con Silent patch - https://github.com/CookiePLMonster/SilentPatchFarCry - e il mod "FarOut" - https://www.moddb.com/mods/farout-widescreen - per il supporto pieno al widescreen 16:9)
****** D3D9 CryRender Stats ******
Driver description: Intel(R) UHD Graphics 750
Full stats: HAL (pure hw vp): Intel(R) UHD Graphics 750
Hardware acceleration: Yes
Full scene AA: Disabled
Projective EMBM: Disabled
Detail textures: Enabled
Z Buffer Locking: Enabled
Multitexturing: Supported (8 textures)
Use bumpmapping : Enabled (DOT3)
Use paletted textures : Disabled
Current Resolution: 2560x1440x32 Full Screen
Maximum Resolution: 2560x1440
Maximum Texture size: 8192x8192 (Max Aspect: 8192)
Texture filtering type: TRILINEAR
HDR Rendering: FP16
MRT Rendering: Enabled
Occlusion queries: Supported
Geometry instancing: Supported
NormalMaps compression: 3Dc
Gamma control: Hardware
Vertex Shaders version 3.0
Pixel Shaders version 3.0
Use Hardware Shaders for ATI R420 GPU
Pixel shaders usage: PS.3.0, PS.2.0 and PS.1.1
Vertex shaders usage: VS.3.0, VS.2.0 and VS.1.1
Shadow maps type: Mixed Depth/2D maps
Stencil shadows type: Two sided
Lighting quality: Highest
Ottimo riscontro soprattutto in merito alla giusta adorazione del Sacro Unto :D
Wolfw00f
01-02-2023, 15:17
Confermo che su Rocket Lake il driver D3D9 è ancora quello nativo (e ancora non mi capacito del perchè l'hanno segato per Alder/Raptor Lake tanto non cambia quasi niente architetturalmente parlando e garantisce una compatibilità altissima anche per applicazioni 2D che lo usano come Firefox o Chrome/Edge.....mah)
Log: D3D adapter driver : igdumdim64.dll
Log: D3D adapter description : Intel(R) UHD Graphics 750
Log: D3D adapter id : 0x8086:0x4C8A
(da Unreal 227k 64 bit attualmente in sviluppo :asd: )
Ah, bisogna indagare bene cosa fa questa opzione a riguardo del driver D3D9 sui vari sistemi:
https://i.postimg.cc/Dz2rXMHD/Untitled.jpg (https://postimages.org/)
E dovete farlo VOI che avete appunto la Arc :D
Anche perchè io scelgo "advanced" ma non vedo alcuna ulteriore impostazione "avanzata" da configurare :asd: (magari appunto perchè NON viene usato il layer di conversione D3D9on12 su Rocket Lake)
https://i.postimg.cc/5jDwwVVm/20230201-122810.jpg (https://postimg.cc/5jDwwVVm)
Arrivata e montata, ma quant'è bella ?? :sofico:
che bel pc!
che case è ?
che bel pc!
che case è ?
Grazie :)
E' un Itek Vertibra Q210 Midi Tower Nero.
E' dotato di 3 ventole RGB comandabili (anche negli rpm) con telecomando, dato in dotazione, o interruttore posto sul case. :) Case molto solido, vetro temprato laterale e frontale, apertura superiore per un AIO fino a 280. Per neanche 100 euro è davvero ottimo!
https://i.postimg.cc/5jDwwVVm/20230201-122810.jpg (https://postimg.cc/5jDwwVVm)
Arrivata e montata, ma quant'è bella ?? :sofico:
Distinta, sobria e di classe !
Piace anche me.
Anche la sorellina minore la A380, che al momento posso solo ammirare nella scatola qui in ufficio, ha un design simpatico e compatto.
Bel case, mi aggiungo anch'io. :)
https://i.postimg.cc/5jDwwVVm/20230201-122810.jpg (https://postimg.cc/5jDwwVVm)
Arrivata e montata, ma quant'è bella ?? :sofico:
Porcellino. :oink:
Comunque come estetica e anche acustica erano anni che non avevo una scheda del genere, ventole inudibili e zero coil whine.
Per essere alla prima uscita han fatto un gran bel lavoro.
Appena posso mettermi al pc installo i nuovi driver che son curioso di vedere come vanno! :D
Prime rapide impressioni sulla 770 16 giga, scheda installata senza nessun problema, ultimo driver (4091).
Ho avuto modo di provare al volo Spiderman Mile Morales, in 2K, RT on con dettagli molto alti, nessun problema, fluidissimo, zero artefatti o affini.
Mi ha colpito la Vram, il gioco ne ha preso oltre 10 gbyte.
Proverò di tutto e di più nei prossimi giorni ma il primo test è andato veramente bene, molto contento :)
Non ho avuto modo di girarmi bene il Control panel, ma è possibile visualizzare gli fps ?
L'avevo detto che i nuovo giochi se han la possibilità di allocare più texture in vram lo fanno, secondo me sui nuovi titoli 8GB diventeranno scarsi purtroppo.
Grazie :)
E' un Itek Vertibra Q210 Midi Tower Nero.
E' dotato di 3 ventole RGB comandabili (anche negli rpm) con telecomando, dato in dotazione, o interruttore posto sul case. :) Case molto solido, vetro temprato laterale e frontale, apertura superiore per un AIO fino a 280. Per neanche 100 euro è davvero ottimo!
si si, ti capisco!
Ho un iTek Lunar 23r2 :read: :cool: :D lo chiedevo per un amico, viene 90 mo sull'amazzonia ma non ho capito se è bello grande per schede lunghe come una 3070ti amp holoblack
Ragazzi, ma anche a voi esce sempre il popup all'avvio di windows per dare i permessi ad ARC control anche con la nuova release dei driver?
Prima OTTIMA notizia, almeno per me.
Ryzen 5 2600 + MSI A320M-A PRO + ARC 380 = RESIZABLE BAR ATTIVO E FUNZIONANTE !
p.s. su questa configurazione ho montato l'ultimo sistema operativo, Windows 11 22H2.
:)
Ero moderatamente sicuro...ma ora mi sento meglio. Altrimenti voleva dire azzopparla di brutto questa scheda video !
p.s. il pannello dei driver ha già trovato l'aggiornamento per la versione 31.0.101.4091 !
Ragazzi, ma anche a voi esce sempre il popup all'avvio di windows per dare i permessi ad ARC control anche con la nuova release dei driver?
Si compare anche a me in effetti !
Wolfw00f
01-02-2023, 20:20
Basta che disinstalliate l'assistant (pannello di controllo->programmi) e disabilitiate la relativa voce (ARCControl) nell'elenco delle applicazioni lanciate all'avvio (CTRL-ALT-ESC->startup apps in inglese)
INOLTRE nei servizi (services.msc) potete disabilitare (o mettere su manuale) i servizi relativi ai VECCHI control panel di Intel (Control Panel Service, Command Center Service, di sicuro chi ha l'integrata ce li ha), lasciando abilitato solo quello di Arc Control ;)
Wolfw00f
01-02-2023, 20:22
Prima OTTIMA notizia, almeno per me.
Ryzen 5 2600 + MSI A320M-A PRO + ARC 380 = RESIZABLE BAR ATTIVO E FUNZIONANTE !
p.s. su questa configurazione ho montato l'ultimo sistema operativo, Windows 11 22H2.
:)
Ero moderatamente sicuro...ma ora mi sento meglio. Altrimenti voleva dire azzopparla di brutto questa scheda video !
p.s. il pannello dei driver ha già trovato l'aggiornamento per la versione 31.0.101.4091 !
Un attimo che trovo l'utility che riporta il nome dei driver Direct3D che vengono presentati alle applicazioni Direct3D, per prima cosa sarebbe carino controllare come cambia il report (se cambia) modificando la voce che ho indicato prima qui:
https://i.postimg.cc/Dz2rXMHD/Untitled.jpg (https://postimages.org/)
Un attimo che trovo l'utility che riporta il nome dei driver Direct3D che vengono presentati alle applicazioni Direct3D, per prima cosa sarebbe carino controllare come cambia il report (se cambia) modificando la voce che ho indicato prima qui:
https://i.postimg.cc/Dz2rXMHD/Untitled.jpg (https://postimages.org/)
Finisco un bench e ti ci guardo subito ! :)
https://i.postimg.cc/C1Mz8Ps5/Immagine-2023-02-01-204336.jpg
Non succede nulla a livello di pannello. Puoi scegliere una delle tre opzioni.
Ma non si sblocca nessun sotto menu o pannello aggiuntivo.
Aspetto che mi dici il nome dell'utility che devo utilizzare per vedere cosa cambia con le tre opzioni. :)
Wolfw00f
01-02-2023, 20:53
https://i.postimg.cc/C1Mz8Ps5/Immagine-2023-02-01-204336.jpg
Non succede nulla a livello di pannello. Puoi scegliere una delle tre opzioni.
Ma non si sblocca nessun sotto menu o pannello aggiuntivo.
OK, ora proviamo appunto con l'utility che dicevo che poi è il classico dxdiag da lanciare dal prompt dei comandi (quello che volete).
Lanciate il comando per OGNI opzione di quella lista lì sopra (Basic / Advanced / Disable / Recommended) e generate il report relativo salvando il file di testo col nome dell'opzione selezionata (Basic.txt / Advanced.txt / Disable.txt / Recommended.txt).....e confrontate pure da voi i file con notepad++ (o quello che volete) coppia per coppia, soprattutto alla voce della GPU dove c'è l'elenco delle DLL del driver. (per vedere appunto se viene caricata una DLL diiversa di volta in volta per le D3D9)
Consiglio: disabilitate la GPU integrata se l'avete e collegate il monitor alla ARC.
OK, ora proviamo appunto con l'utility che dicevo che poi è il classico dxdiag da lanciare dal prompt dei comandi (quello che volete).
Lanciate il comando per OGNI opzione di quella lista lì sopra (Basic / Advanced / Disable / Recommended) e generate il report relativo salvando il file di testo col nome dell'opzione selezionata (Basic.txt / Advanced.txt / Disable.txt / Recommended.txt).....e confrontate pure da voi i file con notepad++ (o quello che volete) coppia per coppia, soprattutto alla voce della GPU dove c'è l'elenco delle DLL del driver. (per vedere appunto se viene caricata una DLL diiversa di volta in volta per le D3D9)
Consiglio: disabilitate la GPU integrata se l'avete e collegate il monitor alla ARC.
Non c'è qualcosa di più rapido/immediato ? :stordita:
Perchè per stasera, te le dico in completa onestà non ho voglia di mettermi a fare questo lavoro. Se c'è un alternativa più rapida postala che te la testo volentieri, sennò rimandiamo a quando "sono più fresco." :D
Tanto la prova o te la faccio con la A380 o con la A770 è la stessa cosa !
Wolfw00f
01-02-2023, 21:15
Non c'è qualcosa di più rapido/immediato ? :stordita:
Perchè per stasera, te le dico in completa onestà non ho voglia di mettermi a fare questo lavoro. Se c'è un alternativa più rapida postala che te la testo volentieri, sennò rimandiamo a quando "sono più fresco." :D
Tanto la prova o te la faccio con la A380 o con la A770 è la stessa cosa !
Quando vuoi, figurati.
Ovviamente fallo pure solo con una, il driver è lo stesso e vorrei giusto capire se quei "profili" indicano quale DLL il sistema "offre" proprio per le D3D9 (hanno una DLL dedicata e diversa da quella delle D3D10->12)
Cmq puoi anche solo generarne uno e postare qui la riga col nome dei driver, magari impostando per iniziare "Disabled" (cioè nessun profilo particolare, ovvero quella che teoricamente sarebbe l'impostazione standard in assenza di "RECOMMENDED" che invece dovrebbe essere il default post-installazione).
Tipo così
Driver Name:
C:\Windows\System32\DriverStore\FileRepository\iigd_dch.inf_amd64_3b8fcc474a0d597c\igdumdim64.dll, (è il driver nativo d3d9)
C:\Windows\System32\DriverStore\FileRepository\iigd_dch.inf_amd64_3b8fcc474a0d597c\igd10iumd64.dll,
C:\Windows\System32\DriverStore\FileRepository\iigd_dch.inf_amd64_3b8fcc474a0d597c\igd10iumd64.dll,
C:\Windows\System32\DriverStore\FileRepository\iigd_dch.inf_amd64_3b8fcc474a0d597c\igd12umd64.dll
Quando vuoi, figurati.
Ovviamente fallo pure solo con una, il driver è lo stesso e vorrei giusto capire se quei "profili" indicano quale DLL il sistema "offre" proprio per le D3D9 (hanno una DLL dedicata e diversa da quella delle D3D10->12)
Cmq puoi anche solo generarne uno e postare qui la riga col nome dei driver, magari impostando per iniziare "Disabled" (cioè nessun profilo particolare, ovvero quella che teoricamente sarebbe l'impostazione standard in assenza di "RECOMMENDED" che invece dovrebbe essere il default post-installazione).
Tipo così
Driver Name:
C:\Windows\System32\DriverStore\FileRepository\iigd_dch.inf_amd64_3b8fcc474a0d597c\igdumdim64.dll, (è il driver nativo d3d9)
C:\Windows\System32\DriverStore\FileRepository\iigd_dch.inf_amd64_3b8fcc474a0d597c\igd10iumd64.dll,
C:\Windows\System32\DriverStore\FileRepository\iigd_dch.inf_amd64_3b8fcc474a0d597c\igd10iumd64.dll,
C:\Windows\System32\DriverStore\FileRepository\iigd_dch.inf_amd64_3b8fcc474a0d597c\igd12umd64.dll
Aspetta dai ! Non muoverti, sto per postare ! :)
Modalità avanzata:
Driver Name: C:\WINDOWS\System32\DriverStore\FileRepository\iigd_dch_d.inf_amd64_d388bc90935b8dfd\igdumdim64.dll,
C:\WINDOWS\System32\DriverStore\FileRepository\iigd_dch_d.inf_amd64_d388bc90935b8dfd\igd10iumd64.dll,
C:\WINDOWS\System32\DriverStore\FileRepository\iigd_dch_d.inf_amd64_d388bc90935b8dfd\igd10iumd64.dll,
C:\WINDOWS\System32\DriverStore\FileRepository\iigd_dch_d.inf_amd64_d388bc90935b8dfd\igd12umd64.dll
Modalità base
Driver Name: C:\WINDOWS\System32\DriverStore\FileRepository\iigd_dch_d.inf_amd64_d388bc90935b8dfd\igdumdim64.dll,
C:\WINDOWS\System32\DriverStore\FileRepository\iigd_dch_d.inf_amd64_d388bc90935b8dfd\igd10iumd64.dll,
C:\WINDOWS\System32\DriverStore\FileRepository\iigd_dch_d.inf_amd64_d388bc90935b8dfd\igd10iumd64.dll,
C:\WINDOWS\System32\DriverStore\FileRepository\iigd_dch_d.inf_amd64_d388bc90935b8dfd\igd12umd64.dll
Disattivato
Driver Name: Driver Name: C:\WINDOWS\System32\DriverStore\FileRepository\iigd_dch_d.inf_amd64_d388bc90935b8dfd\igdumdim64.dll,
C:\WINDOWS\System32\DriverStore\FileRepository\iigd_dch_d.inf_amd64_d388bc90935b8dfd\igd10iumd64.dll,
C:\WINDOWS\System32\DriverStore\FileRepository\iigd_dch_d.inf_amd64_d388bc90935b8dfd\igd10iumd64.dll,
C:\WINDOWS\System32\DriverStore\FileRepository\iigd_dch_d.inf_amd64_d388bc90935b8dfd\igd12umd64.dll
...così ad occhio mi sembrano tutti perfettamente identici....
Wolfw00f
01-02-2023, 21:33
Sono sempre qui :D
Cmq se volete saperlo, per chi era curioso sul forzare d3d9on12 - considerando che i risultati cambiano da applicazione ad applicazione e che è necessario eseguire il gioco sul display collegato alla GPU almeno con Intel, quindi niente swapping del framebuffer possibile ma è meglio perchè azzopperebbe ancora di più le performance - usando applicazioni "leggere" si ha un 15% - 16% di performance hit, almeno sulla UHD750 (Xe ma Rocket Lake)
Wolfw00f
01-02-2023, 21:34
Modalità avanzata:
Driver Name: C:\WINDOWS\System32\DriverStore\FileRepository\iigd_dch_d.inf_amd64_d388bc90935b8dfd\igdumdim64.dll,
Modalità base
Driver Name: C:\WINDOWS\System32\DriverStore\FileRepository\iigd_dch_d.inf_amd64_d388bc90935b8dfd\igdumdim64.dll,
iN AGGIORNAMENTO, STO PER POSTARE ALTRI PROFILI
Ma c'è!
Ma c'è!
Ho l'ultimissima versione dei driver...cambia qualcosa ?
Comunque ho postato quello che ti serviva correttamente, si ? :)
p.s. si lo vedo anch'io in effetti !
Ah ! Altra buona notizia.
Tanti utenti me compreso, con i driver precedenti non riuscivano a far inizializzare le ARC se con Hyper-V abilitato in Windows.
Questa volta non ho avuto alcun problema !
Andiamo sempre migliorando fortunatamente.
Intel si sta dando da fare per davvero, niente da dire ! :)
Wolfw00f
01-02-2023, 21:47
Ho l'ultimissima versione dei driver...cambia qualcosa ?
Comunque ho postato quello che ti serviva correttamente, si ? :)
p.s. si lo vedo anch'io in effetti !
Puoi controllare la dimensione (in kb/mb) ? Giusto per poter capire se è solo una DLL che poi passa il controllo al layer di conversione o c'è "tantarobbbba".
Su Rocket Lake:
https://i.postimg.cc/ZnPZp9Kz/Untitled.jpg (https://postimages.org/)
Cmq ho fatto un confronto con dgVoodoo2 e devo dire che gli ingegneri di MS hanno fatto finora un buon lavoro, dove con dgVoodoo2 e il auo layer D3D12 ho 140 FPS con quello di MS (D3D9on12) ho 170, rispetto ai 200 nativi.
Wolfw00f
01-02-2023, 21:56
Ah, visto che il thread è pieno di VECI :sofico: che sicuramente vorranno provare come va ARC con HL2 e derivati (immediatamente derivati, non CS GO che è già lontanuccio e vicino ad Apex Legends come versione del Source).....per abilitare l'opzione "High" per le ombre serve far credere al Source di stare eseguendo su una scheda Nvidia, passando questo da command line via Steam
-force_vendor_id 0x10DE
Consiglio anche di giocare in windowed fullscreen (su Windows 10/11 con abilitate le ottimizzazioni per la modalità relativa) togliendo ovviamente i bordi alla finestra quando la risoluzione viene fatta coincidere con quella del desktop, così:
-noborder
e di abbassare un pelo l'intensità del bloom così
+r_bloomtintexponent 10 (di base è 2.2 e rende le pareti delle case esposte al sole bianche roventi :asd: )
Volendo mettere pure un limite agli FPS
+fps_max LIMITENUMERICOCHEVOLETE
Puoi controllare la dimensione (in kb/mb) ? Giusto per poter capire se è solo una DLL che poi passa il controllo al layer di conversione o c'è "tantarobbbba".
Su Rocket Lake:
https://i.postimg.cc/ZnPZp9Kz/Untitled.jpg (https://postimages.org/)
Cmq ho fatto un confronto con dgVoodoo2 e devo dire che gli ingegneri di MS hanno fatto finora un buon lavoro, dove con dgVoodoo2 e il auo layer D3D12 ho 140 FPS con quello di MS (D3D9on12) ho 170, rispetto ai 200 nativi.
Ci guardo, un secondo solo !
Ne ho due in due differenti path in quella cartella.
Uno aggiornato alla 4090, la versione dalla quale partivo con i driver installati, l'altro aggiornati alla 4091. Dimensioni identiche al tuo screenshot.
Ah, visto che il thread è pieno di VECI :sofico: che sicuramente vorranno provare come va ARC con HL2 e derivati (immediatamente derivati, non CS GO che è già lontanuccio e vicino ad Apex Legends come versione del Source).....per abilitare l'opzione "High" per le ombre serve far credere al Source di stare eseguendo su una scheda Nvidia, passando questo da command line via Steam
-force_vendor_id 0x10DE
Consiglio anche di giocare in windowed fullscreen (su Windows 10/11 con abilitate le ottimizzazioni per la modalità relativa) togliendo ovviamente i bordi alla finestra quando la risoluzione viene fatta coincidere con quella del desktop, così:
-noborder
e di abbassare un pelo l'intensità del bloom così
+r_bloomtintexponent 10 (di base è 2.2 e rende le pareti delle case esposte al sole bianche roventi :asd: )
Volendo mettere pure un limite agli FPS
+fps_max LIMITENUMERICOCHEVOLETE
Per le prossime sere...ci sono bench o bisogna "possedere" il gioco completo...?
Wolfw00f
01-02-2023, 22:11
Per le prossime sere...ci sono bench o bisogna "possedere" il gioco completo...?
Era una nota solo per chi ce l'ha già :D
Cmq nulla ti vieta di scaricare l'SDK single player del 2013, settare la versione a "upcoming" (che è quella usata da QUASI tutti i mod per HL2 attualmente) e lanciare il bench integrato nell'SDK (ma ricordati di disattivare il cap degli FPS che è settato di base a 200, quindi devi appunto usare +fps_max 999)
Wolfw00f
01-02-2023, 22:13
Dimensioni identiche al tuo screenshot.
Quindi c'è il driver completo, solo che in base all' HWID passerà o meno il controllo a D3D9on12.....potete sempre sperare che Intel si decida a sbloccarvi il driver completo come su Rocket Lake :p
Come dicevo su Rocket Lake siamo intorno al 15% di performance hit (a favore del driver nativo ovviamente)
Sono simpatici come lo zucchero nelle mutande nella sezione news.
Manco dire che Intel avesse prodotto una degna rivale per la 4080 o 4090.
No, alla gente gli rode che possa (forse) arrivare una valida alternativa.
Chissà perchè. Forse perchè hanno speso 2500-3000€ per le 3090 e devono mostrarsi superiori !
PORACCI. :asd:
Sono simpatici come lo zucchero nelle mutande nella sezione news.
Manco dire che Intel avesse prodotto una degna rivale per la 4080 o 4090.
No, alla gente gli rode che possa (forse) arrivare una valida alternativa.
Chissà perchè. Forse perchè hanno speso 2500-3000€ per le 3090 e devono mostrarsi superiori !
PORACCI. :asd:
sì e tale cosa si può applicare anche a tanti altri casi nella vita :read: :rolleyes:
Porcellino. :oink:
Comunque come estetica e anche acustica erano anni che non avevo una scheda del genere, ventole inudibili e zero coil whine.
Per essere alla prima uscita han fatto un gran bel lavoro.
Appena posso mettermi al pc installo i nuovi driver che son curioso di vedere come vanno! :D
Si concordo, la qualità costruttiva è elevatissima, non si sente mezza ventola girare, nessun coil whine, poi è bella da vedere :) Il led blu poi fa la sua porcellinosa figura.
Discorso ram verissimo, 8 giga sono pochi, in futuro lo stuttering sarà dietre l'angolo con questo quantitativo!
Distinta, sobria e di classe !
Piace anche me.
Anche la sorellina minore la A380, che al momento posso solo ammirare nella scatola qui in ufficio, ha un design simpatico e compatto.
Bel case, mi aggiungo anch'io. :)
Grazie :p Hai messo sotto torchio la piccolina ?
StylezZz`
02-02-2023, 11:10
Il led blu poi fa la sua porcellinosa figura
Si può spegnere?
Si può spegnere?
Assolutamente sì, è se vuoi cambiare colore o fantasia sono tutti indirizzabili, hanno fatto una customizzazione pazzesca! (Io francamente non ne vedo utilità dato che i LED sobri li tollero ancora, ma le pacchianate no)
Wolfw00f
02-02-2023, 12:21
Discorso ram verissimo, 8 giga sono pochi, in futuro lo stuttering sarà dietre l'angolo con questo quantitativo!
Non dovrrebbe capitare perchè:
1) lo stuttering legato alla compilazione degli shader è indipendente dalla VRAM
2) lo stuttering dovuto alla decompressione+caricamento delle texture - finora svolto dalla CPU salvo gli esperimenti di Carmack con IDTech 4 dove si poteva usare CUDA - verrà risolto una volta per tutte da Direct Storage (accettando che la GPU sia un po' occupata nel lavoro di decompressione e gestione delle stesse, è controintuitivo ma più hai l'SSD veloce più la GPU verrà occupata dalla decompressione :asd: )
3) ReBar/SAM dovrebbe compensare per tutte quelle volte in cui la CPU cmq necessita di accedere alla VRAM via PCI-Ex
Il problema della quantità della VRAM resta legato al numero e dimensione di texture gestibili ma in teoria basta una buona tecnologia di streaming per aggirare il problema (vedi Doom Eternal in cui non è praticamente possibile notare differenze fra i vari preset relativi alla qualità delle texture a livello di resa visiva finale da medium/high in su)
Grazie :p Hai messo sotto torchio la piccolina ?
Pochissimo (vedi post precedenti). Mi ci devo dedicare con calma.
Wolfw00f
02-02-2023, 12:32
Pochissimo (vedi post precedenti). Mi ci devo dedicare con calma.
-> https://tech.everyeye.it/notizie/segreto-intel-arc-a380-potenza-aumentata-50-strano-overclock-598986.html
Infatti, i test mostrano che l'overclock dei Core della GPU garantisce un miglioramento scarsissimo, pari al 4-6% rispetto ai valori di base, mentre un aumento del TDP da 35 W a 50-55W garantisce un miglioramento prestazionale compreso tra il 43% e il 57%. Tale risultato, inoltre, sembra suggerire che la scheda grafica adotti delle soluzioni software per ridurre artificialmente le proprie prestazioni, anche se non è chiaro perché Intel abbia deciso di implementare tali limitazioni. È possibile che, magari, Intel abbia deciso di limitare i consumi della scheda per favorirne l'utilizzo sui PC degli OEM destinati a uffici e utenti "casual".
Altra cosa da provare :O
-> https://tech.everyeye.it/notizie/segreto-intel-arc-a380-potenza-aumentata-50-strano-overclock-598986.html
Infatti, i test mostrano che l'overclock dei Core della GPU garantisce un miglioramento scarsissimo, pari al 4-6% rispetto ai valori di base, mentre un aumento del TDP da 35 W a 50-55W garantisce un miglioramento prestazionale compreso tra il 43% e il 57%. Tale risultato, inoltre, sembra suggerire che la scheda grafica adotti delle soluzioni software per ridurre artificialmente le proprie prestazioni, anche se non è chiaro perché Intel abbia deciso di implementare tali limitazioni. È possibile che, magari, Intel abbia deciso di limitare i consumi della scheda per favorirne l'utilizzo sui PC degli OEM destinati a uffici e utenti "casual".
Altra cosa da provare :O
Azz...la provo si....asap !!! ;)
Ho messo contro le mie 2 vga STOCK con WATCH DOG LEGION in DX 12
3070 vision OC VS Arc 770 16 gb.
Risoluzione 1440
Driver ARC : 4091
Driver nVidia : 528.2
CPU: Intel 12500
Settaggio ULTRA
Risultati SENZA RT
https://i.postimg.cc/w3Zg2MYW/3070-no-rt.jpg (https://postimg.cc/w3Zg2MYW) VS https://i.postimg.cc/WFtc6LWL/ARC-1440-NO-RT.jpg (https://postimg.cc/WFtc6LWL)
Con RT
https://i.postimg.cc/wtwdmTkQ/3070-rt.jpg (https://postimg.cc/wtwdmTkQ) VS https://i.postimg.cc/mzqfmXJc/ARC-1440-RT.jpg (https://postimg.cc/mzqfmXJc)
Direi che ARC si comporta benone, è praticamente allineata alla 3070 senza RT, si avvicina molto con RT risultando superiore nei minimi e pari nei medi.
Vediamo con i prossimi driver :)
Con ARC gira fluidissimo e non perde un colpo, ram circa 10 giga occupati.
Wolfw00f
02-02-2023, 15:44
https://www.youtube.com/watch?v=AFqoMumGEOg&ab_channel=BENCHMARKSFORGAMERS
Salto pauroso in NFS ma crollo in Dead Space :asd:
https://www.youtube.com/watch?v=HoKVTt0SQVg&ab_channel=PCWorld
https://www.youtube.com/watch?v=hcnMG713HBY&ab_channel=GamersNexus
ecc. ecc. ecc.
Wolfw00f
02-02-2023, 15:46
Direi che ARC si comporta benone, è praticamente allineata alla 3070 senza RT, si avvicina molto con RT risultando superiore nei minimi e pari nei medi.
Infatti, ottimo load balancing (da Intel è quello che mi aspetto per l'esperienza maturata in decenni di processori :D )
Ho 38.5 di febbre...:muro:
Negativo al tampone ma come un pugile suonato.
Mi divertirò a leggere le vostre prove dal letto ! :)
(scusate l'off-topic)
Ho 38.5 di febbre...:muro:
Negativo al tampone ma come un pugile suonato.
Mi divertirò a leggere le vostre prove dal letto ! :)
(scusate l'off-topic)
I bench guariscono tutto :p
https://www.youtube.com/watch?v=AFqoMumGEOg&ab_channel=BENCHMARKSFORGAMERS
Salto pauroso in NFS ma crollo in Dead Space :asd:
https://www.youtube.com/watch?v=HoKVTt0SQVg&ab_channel=PCWorld
https://www.youtube.com/watch?v=hcnMG713HBY&ab_channel=GamersNexus
ecc. ecc. ecc.
Arc e Dead Space non vanno davvero daccordo... :mc:
I bench guariscono tutto :p
Dev'essere quella che chiamano la febbre del (video)gioco ! :D
Ok, ok vado "a quel paese da solo" !
Azz. Però sto troppo in fissa per fare quel test del powerlimit sulla A380.
Appena mi tornano le forze sarà la prima cosa.
Il prossimo gioco che confronto è Far Cry 6, vediamo come va la 770 :)
Proverò anche in OC, tra l'altro anche la Arc 770 di default non prende tutto il power limit disponibile, già da pannello si può portare a 228w.
Una cosa che Intel deve fare è arricchire il pannello, non c'è niente o quasi niente che permetta d'intervenire sul profilo di un gioco :stordita:
Slater91
02-02-2023, 17:54
Sono simpatici come lo zucchero nelle mutande nella sezione news.
Manco dire che Intel avesse prodotto una degna rivale per la 4080 o 4090.
No, alla gente gli rode che possa (forse) arrivare una valida alternativa.
Chissà perchè. Forse perchè hanno speso 2500-3000€ per le 3090 e devono mostrarsi superiori !
PORACCI. :asd:
Avere la febbre non è una buona scusa per fare flame, per quanto entrambe le cose portino ad alzare la temperatura: riposati per i prossimi cinque giorni.
https://www.youtube.com/watch?v=AFqoMumGEOg&ab_channel=BENCHMARKSFORGAMERS
Salto pauroso in NFS ma crollo in Dead Space :asd:
https://www.youtube.com/watch?v=HoKVTt0SQVg&ab_channel=PCWorld
https://www.youtube.com/watch?v=hcnMG713HBY&ab_channel=GamersNexus
ecc. ecc. ecc.
Mi hai dato una brutta notizia, volevo giusto prenderlo Dead space, ma visto come va aspetterò patch e driver migliori :)
Wolfw00f
03-02-2023, 09:07
Test di Gamers Nexus (non slide di Intel)
https://www.youtube.com/watch?v=b-6sHUNBxVg&ab_channel=GamersNexus
Questo è un esempio di VERA ottimizzazione (della pipeline di rendering)
https://i.postimg.cc/yNP3TFqy/Untitled.jpg (https://postimages.org/)
Test con Far Cry 6 :)
1440
RT ON
https://i.postimg.cc/qtCxycYL/3070-FC-2-K-RT.jpg (https://postimg.cc/qtCxycYL) Vs https://i.postimg.cc/zbCwPzqH/WDL-ARC-1440-RT.jpg (https://postimg.cc/zbCwPzqH)
Niete male davvero, e gira senza problema alcuno. ;)
In 4K, tutto ULTRA, RT ON e texture HD tiene i 60 fps (fsr quality)
Appena riesco faccio lo screen.
ninja750
03-02-2023, 15:50
Test con Far Cry 6 :)
1440
RT ON
https://i.postimg.cc/qtCxycYL/3070-FC-2-K-RT.jpg (https://postimg.cc/qtCxycYL) Vs https://i.postimg.cc/zbCwPzqH/WDL-ARC-1440-RT.jpg (https://postimg.cc/zbCwPzqH)
Niete male davvero, e gira senza problema alcuno. ;)
In 4K, tutto ULTRA, RT ON e texture HD tiene i 60 fps (fsr quality)
Appena riesco faccio lo screen.
praticamente coincide 99% con il mio risultato
Francamente non capisco perchè Intel si focalizzi così tanto sui giochi in DX9. Saranno pure popolari fra i giocatori di eSports, ma ormai girano bene pure su un'integrata, quindi non vedo l'utilità.
Vedi ste cose, e poi vedi Dead Space che invece gira male... mah.
Francamente non capisco perchè Intel si focalizzi così tanto sui giochi in DX9. Saranno pure popolari fra i giocatori di eSports, ma ormai girano bene pure su un'integrata, quindi non vedo l'utilità.
Vedi ste cose, e poi vedi Dead Space che invece gira male... mah.
Dead space credo abbiano cannato qualcosa nei nuovo driver perché con i vecchi va bene, sono all'inizio e ci può stare per me, basta che con prossimi risolvano. :)
La buona notizia è che le potenzialità ci sono per davvero.
Dead Space ha problemi con tutti, ha bisogno di molte patch lui per primo.
Da che l'ho montata non ho avuto mezzo crash, per me ARC ha ancora molto margine, che sta emergendo driver dopo driver.
Dead Space ha problemi con tutti, ha bisogno di molte patch lui per primo.
Da che l'ho montata non ho avuto mezzo crash, per me ARC ha ancora molto margine, che sta emergendo driver dopo driver.
Ma tanto io ormai ho rinunciato a prendere giochi al D1 tanto si strapagano per poi avere prodotti incompleti che vengono messi a posto a suon di patch dopo due o tre mesi.
Comunque per quello che sto giocando ora, son pienamente soddisfatto della ARC.
Tra l'altro i bench di WD legion mi sembrano in linea coi miei, qualche fps in meno ci sta per il 9700K.
Wolfw00f
03-02-2023, 18:27
Francamente non capisco perchè Intel si focalizzi così tanto sui giochi in DX9. Saranno pure popolari fra i giocatori di eSports, ma ormai girano bene pure su un'integrata, quindi non vedo l'utilità.
Vedi ste cose, e poi vedi Dead Space che invece gira male... mah.
A 1440 NO :D
https://i.postimg.cc/sf4Ldvst/bms-2023-02-04-00-24-46-511.jpg (https://postimg.cc/MXX51ZcD)
L'integrata va bene da 1280x720 fino a 1920x1080 nei titoli veramente "vecchi" (15-20 anni fa)
Esempio banale: Halo Combat Evolved 1.10 patchato con Chimera (quindi l'originale del 2003) NON gira benissimo a 1440 con le integrate Xe-Based (ed è sempre uno spettacolo anche se ovviamente c'è la versione ancora più corretta e fedele all'originale nella MCC)
Se prendi Starcraft 2 capisci perchè bisogna fare ancora tanto lavoro.
Inoltre devi considerare l'universo del modding, da HL2 a STALKER sono tutti titoli nativamente D3D9 ma possono diventare estremamente esigenti ad alte risoluzioni (e che non esistevano come standard quando furono progettati)
Soprattutto il problema NON sono gli "FPS" ma la varianza del frametime, vedi immagine che ho riportato prima. Praticamente ingiocabili.
C'è da dire che i vecchi titoli DX9/DX10 non è che girino benissimo su HW moderno.
Infatti l'idea alla base di utilizzare dei layer per renderizzare con API a basso livello come DX12 o Vulkan è vantaggiosa a prescindere.
Pure su Linux con proton ci sono molti vantaggi di questo approccio, anche valve ci sta investendo.
Wolfw00f
03-02-2023, 20:24
C'è da dire che i vecchi titoli DX9/DX10 non è che girino benissimo su HW moderno.
Infatti l'idea alla base di utilizzare dei layer per renderizzare con API a basso livello come DX12 o Vulkan è vantaggiosa a prescindere.
Pure su Linux con proton ci sono molti vantaggi di questo approccio, anche valve ci sta investendo.
I layer di conversione se non curati da "amatori" (come supporto agli sviluppatori) non possono cogliere le particolarità ed esigenze di ciascun engine.
Per questo i driver hanno i profili, per adeguare la pipeline di rendering alle esigenze del caso particolare.
Ora come ora infatti l'ideale è usare dgvoodoo2 su HW DX12 FL 11.2
Qualcuno sta giocando ad Anomaly o a Gamma (mod stand alone di Stalker) con la Arc a770/750 ?
Wolfw00f
04-02-2023, 11:29
Qualcuno sta giocando ad Anomaly o a Gamma (mod stand alone di Stalker) con la Arc a770/750 ?
Posso dirti che con la Xe integrata per andare va quindi non dovrebbero esserci problemi particolari con le sorellone.
Ovviamente a 1280x720
Se però usi SSS (chi non lo fa?) ovviamente l'SSDO, l'SSR, la nuova nebbia, l'illuminazione indiretta per simulare la global illumination (ma non uso le scren space shadows per gli artefatti che introducono sulle dita delle mani quando castano la loro stessa ombra :asd: ) e tutto il resto pesano parecchio :p
Senza avrei circa 35/40 o forse più FPS a 1280x720, il resto tutto quasi al massimo della qualità; non ci sono errori particolari nel rendering.
https://i.postimg.cc/c4dR8vvN/Anomaly-DX11-AVX-2023-02-04-11-42-25-187.jpg (https://postimages.org/)
(Old World Addon + SSS + altra roba :fagiano: )
Con una RX 570, stesse impostazioni ma risoluzione quadruplicata (2560x1440, sempre in borderless fullscreen mode su Win 11):
https://i.postimg.cc/65PKgvJr/Anomaly-DX11-AVX-2023-02-04-11-55-06-360.jpg (https://postimg.cc/9rysqzf0)
Quindi di sicuro starai sui 50/60 con una Arc 750 se non di più (e ci sta benone in 4 GB di VRAM in QHD)
Wolfw00f
04-02-2023, 12:44
Intel ha tagliato i prezzi alla A750 :)
https://www.pcgamer.com/intels-new-dollar249-gpu-price-wipes-out-nvidia-at-the-entry-level/
cut
Grazie per il feedback, attualmente ci gioco in 4k con la 970 in firma, volevo solo capire se il motore veniva digerito dalle gpu Intel o no visto che voglio aggiornare il Pc solo con la VGA e penso proprio di prendermi la Arc 770.
Puntavo alla 6700xt ma spendere tutti quei soldi per una vga di due anni fa preferisco di no, anche se la devo montare su un Pc vecchio.
Wolfw00f
04-02-2023, 14:49
Come puoi capire il motore è digeribile :D
Ma con la 970 a 4K intendi senza SSS ( https://www.moddb.com/mods/stalker-anomaly/addons/screen-space-shaders ) e senza MSAA, perchè la vedo dura altrimenti :fagiano:
Wolfw00f
04-02-2023, 14:55
Addendum: ma la metteresti sul PC in signature? No perchè senza REBAR non comprarla proprio eh.
Mobo: MSI Z97 MPower
No REBAR=No GPU Intel
Essenzialmente su Intel puoi usare una GPU Intel da Z/H370 in su (previo aggiornamento BIOS)
Nel tuo caso la soluzione migliore sarebbe una RTX 2060 a 250 euro.
Ma tanto io ormai ho rinunciato a prendere giochi al D1 tanto si strapagano per poi avere prodotti incompleti che vengono messi a posto a suon di patch dopo due o tre mesi.
Comunque per quello che sto giocando ora, son pienamente soddisfatto della ARC.
Tra l'altro i bench di WD legion mi sembrano in linea coi miei, qualche fps in meno ci sta per il 9700K.
Idem, il D1 è sempre a rischio meglio aspettare almeno un 2 o 3 big patch.
Soddisfatto in pieno anche io, i prossimi test di compatibilità sono gta5 (Dx 11), cyberpunk2077 e dying light 2. :)
contando il drop del prezzo, in ottica anche gaming, ha senso comprare una intel arc 750?
contando il drop del prezzo, in ottica anche gaming, ha senso comprare una intel arc 750?
Ma certo, considera che non è più l'Arc di mesi fa, è maturata a 360°, poi alla cifra proposta è francamente un affare esagerato.
Wolfw00f
04-02-2023, 18:15
contando il drop del prezzo, in ottica anche gaming, ha senso comprare una intel arc 750?
Devi accettare la scommessa dei driver (D3D10/11, D3D12 è già a buon punto e così pure Vulkan, senza contare che hai il supporto GPU per ONEAPI che è essenzialmente l'equivalente di CUDA di NVidia) e usare layer di conversione vari per D3D9.
Come detto sopra considera l'acquisto SOLO se hai mobo+processore+installazione Windows pronta per REBAR (Windows 10/11 con UEFI, partizione di sistema GPT, ecc. ecc. ecc. cerca i requisiti per attivare REBAR )
Se la 750 fosse a 200 la prenderei anche solo per farci esperimenti :D
Il ReSize Bar è fondamentale per Arc, giusto specificare che senza la GPU Intel non funziona bene, verificare bene la compatibilità della scheda madre.
.
Come detto sopra considera l'acquisto SOLO se hai mobo+processore+installazione Windows pronta per REBAR (Windows 10/11 con UEFI, partizione di sistema GPT, ecc. ecc. ecc. cerca i requisiti per attivare REBAR )
Fai conto che devo rifare il pc nuovo da zero. Ho il grande dubbio intel 13500 o virare su piattaforma am5, in un'ottica di utilizzo a tutto tondo. il gaming è una cosa in piu'.
Addendum: ma la metteresti sul PC in signature? No perchè senza REBAR non comprarla proprio eh.
Mobo: MSI Z97 MPower
No REBAR=No GPU Intel
Essenzialmente su Intel puoi usare una GPU Intel da Z/H370 in su (previo aggiornamento BIOS)
Nel tuo caso la soluzione migliore sarebbe una RTX 2060 a 250 euro.
Il ReSize Bar è fondamentale per Arc, giusto specificare che senza la GPU Intel non funziona bene, verificare bene la compatibilità della scheda madre.
grazie per avermelo fatto notare ragazzi, non mi sono aggiornato per qualche anno sull'hw :(
Come puoi capire il motore è digeribile :D
Ma con la 970 a 4K intendi senza SSS ( https://www.moddb.com/mods/stalker-anomaly/addons/screen-space-shaders ) e senza MSAA, perchè la vedo dura altrimenti :fagiano:
Gioco ad Anomaly "liscio"
Wolfw00f
05-02-2023, 08:20
grazie per avermelo fatto notare ragazzi, non mi sono aggiornato per qualche anno sull'hw :(
Gioco ad Anomaly "liscio"
Ma con che impostazioni? L'MSAA è ovviamente pesantissimo in un contesto di deferred rendering come nell'X-Ray Engine, tutto il resto bene o male è accettabile :D (se non usi SSS per l'SSDO consiglio di usare l'HDAO come SSAO, impostazione su High, NON genera una vera e propria penombra da occlusione ambientale ma almeno contrasta bene spigoli e cavità :D Ovviamente il peso maggiore resta dato dalle ombre dell'erba e dal rendering della stessa per distanze+densità, con l'SSDO ad esempio puoi disattivare le ombre dell'erba perchè diventano "quasi" superflue......in OGSR hanno forzato così nell'ultima release, paradossalmente nel Monolith Engine di Anomaly non ancora perchè SSS viene visto come un mod e non come parte dell'engine :fagiano: )
Come dicevo nel tuo caso prendi una 2060 da 6GB a 250 euro e bon, spendere di più ha poco senso col tuo sistema. In ottica futura al massimo una 3060 da 12 GB.
O rimanda tutto :asd:
Ah, fresca fresca traduzione italiana: https://www.moddb.com/mods/stalker-anomaly/addons/traduzione-italiana-stalker-anomaly
Ma con che impostazioni?
ci gioco in DirecX 9 :rotfl: :rotfl: :rotfl:
Come dicevo nel tuo caso prendi una 2060 da 6GB a 250 euro e bon, spendere di più ha poco senso col tuo sistema. In ottica futura al massimo una 3060 da 12 GB.
O rimanda tutto :asd:
Non so se lasciare perdere a cambiare tutto più avanti o prendermi una 6700 xt, ci penserò su, spiace per la Arc a770 perché mi sembrava l'alternativa perfetta.
Ah, fresca fresca traduzione italiana: https://www.moddb.com/mods/stalker-anomaly/addons/traduzione-italiana-stalker-anomaly
Appena installata :cincin:
Wolfw00f
05-02-2023, 16:17
Le Radeon hanno la stessa necessità di ReBAR (SAM).....non così stringente, ma sarebbe meglio soddisfarla :fagiano:
Per questo consigliavo una 2060 (non ne ha necessità alcuna e costa "poco").
sniperspa
05-02-2023, 16:29
Non so se lasciare perdere a cambiare tutto più avanti o prendermi una 6700 xt, ci penserò su, spiace per la Arc a770 perché mi sembrava l'alternativa perfetta.
Lascia perdere sarebbero soldi sprecati una 6700xt con quella CPU
Te lo dico da possessore di 6700xt che pure avendo una CPU migliore della tua mi limita comunque molto la VGA (infatti a breve ci piazzo un 5600)
Non andrei oltre la 3060/6600xt con quella CPU
@ belta
Ti consiglio un cambio di piattaforma piuttosto che investire in una gpu. Con poco ti fai un sistema decisamente più potente e attuale, sia Amd che Intel. Fatto questo una gpu attuale avrà molto più senso. :)
Concordo, anche il 3930K che è un 6c/12t e con memorie in quad channel non riesce a tenere a bada una 3060ti in tutti i contesti.
Il massimo è il target di 2070/3060...
Quelle cpu vanno bene solo per tamponare, in vista dell'upgrade della piattaforma, nel mentre puoi comunque pensare di prendere la 6700xt ma devi tenere in conto di aggiornare anche la cpu.
Avevo provato la 3070 con un 3570k ed era da ridere non riusciva a dare dati alla gpu, era completamente ferma :help:
Dovetti passare subito al 3600 amd.
grazie a tutti per i consigli ragazzi, apprezzo molto :cincin:
Wolfw00f
05-02-2023, 19:19
Avevo provato la 3070 con un 3570k ed era da ridere non riusciva a dare dati alla gpu, era completamente ferma :help:
Dovetti passare subito al 3600 amd.
Teoricamente D3D12 e Vulkan servono a risolvere alla radice il problema delle draw call e dell'overhead della CPU (o delle CPU scarse) :D
Ovviamente devi trovare gente in gamba che sappia sviluppare in questi API.
Teoricamente D3D12 e Vulkan servono a risolvere alla radice il problema delle draw call e dell'overhead della CPU (o delle CPU scarse) :D
Ovviamente devi trovare gente in gamba che sappia sviluppare in questi API.
Ma è sempre un 4c/4t di 10 anni fa :fagiano:
Anche il 3930K che è più pompato è ormai alla frutta paragonato alle cpu moderne.
Arrivarti a una certa, l'upgrade ci vuole...
Teoricamente D3D12 e Vulkan servono a risolvere alla radice il problema delle draw call e dell'overhead della CPU (o delle CPU scarse) :D
Ovviamente devi trovare gente in gamba che sappia sviluppare in questi API.
È indubbio che i programmatori potrebbero cercare un livello di ottimizzazione superiore ma quelle CPU sono davvero vetuste :)
Ho provato un pò di OC e ho raggiunto facile i 2663 Mhz, ben 263 oltre i 2400 di base. Le temperature non sono un problema, restano sempre ben più che controllate.
Tutto dal pannello di controllo:
Boost + 35 %
Off set + 50 mv
Power limit 228 w.
Ho provato un pò di OC e ho raggiunto facile i 2663 Mhz, ben 263 oltre i 2400 di base. Le temperature non sono un problema, restano sempre ben più che controllate.
Tutto dal pannello di controllo:
Boost + 35 %
Off set + 50 mv
Power limit 228 w.
Ma in game con quell'OC capita di sforare il PL?
Ma in game con quell'OC capita di sforare il PL?
Si ci cozza contro, non sempre ma lo tocca in più occasioni se la gpu va davvero sotto sforzo.
Per avere solo 228 w di spazio sale bene.
Si ci cozza contro, non sempre ma lo tocca in più occasioni se la gpu va davvero sotto sforzo.
Per avere solo 228 w di spazio sale bene.
A me murava anche per temperatura senza il fix del fan speed in ARC control.
OT
@Maury, sniperspa, Ubro92, Wolfw00f
Alla fine ho preso la 6650 xt per la configurazione in firma, faccio il Re del 1080p per almeno altri due anni e poi si vedrà :rotfl:
fine OT.
Wolfw00f
09-02-2023, 16:58
OT
@Maury, sniperspa, Ubro92, Wolfw00f
Alla fine ho preso la 6650 xt per la configurazione in firma, faccio il Re del 1080p per almeno altri due anni e poi si vedrà :rotfl:
fine OT.
Scheda onesta, dimentica il raytracing (almeno a livello pieno, cmq da vecio :asd: invito sempre a provare Quake 2 RTX che va anche sulle Radeon ed è disponibile gratis su Steam) :p
mi raccomando continua ad aggiornare la traduzione italiana di Anomaly, è un WIP :D (già arrivata alla 1.03.6, la trovi sempre su moddb)
Scheda onesta, dimentica il raytracing (almeno a livello pieno, cmq da vecio :asd: invito sempre a provare Quake 2 RTX che va anche sulle Radeon ed è disponibile gratis su Steam) :p
Neanche mai preso in considerazione :rotfl: :rotfl: pensa che gioco su Tv da 50" con mouse e tastiera appoggiati su tavola di legno mentre sono seduto in poltrona, livelli altissimi ragazzi (sono vecchio ormai) :old:
Come ho già scritto l'idea è di tirare avanti per almeno due anni, poi passo la configurazione in firma in ufficio uso browser web e office :cincin:
nessuno29
09-02-2023, 18:13
Concordo, anche il 3930K che è un 6c/12t e con memorie in quad channel non riesce a tenere a bada una 3060ti in tutti i contesti.
Il massimo è il target di 2070/3060...
Quelle cpu vanno bene solo per tamponare, in vista dell'upgrade della piattaforma, nel mentre puoi comunque pensare di prendere la 6700xt ma devi tenere in conto di aggiornare anche la cpu.
Io avevo un ryzen 1600@4ghz quando sono passato al 5600 con la 2060super ho avuto dei miglioramenti impressionanti. Una 2070 è cpu limited di molto con il 3930k.
OT
@Maury, sniperspa, Ubro92, Wolfw00f
Alla fine ho preso la 6650 xt per la configurazione in firma, faccio il Re del 1080p per almeno altri due anni e poi si vedrà :rotfl:
fine OT.
Hai fatto bene, giocare giochi, senza problemi :)
https://i.postimg.cc/ykCT5Ljf/Screenshot-20230209-213138-Chrome.jpg (https://postimg.cc/ykCT5Ljf)
https://i.postimg.cc/D8QcK1Y7/Screenshot-20230209-213152-Chrome.jpg (https://postimg.cc/D8QcK1Y7)
Vram a secchiate.
https://i.postimg.cc/BjqBZtdH/Screenshot-20230209-213200-Chrome.jpg (https://postimg.cc/BjqBZtdH)
https://i.postimg.cc/gxNqxmW5/Screenshot-20230209-213225-Chrome.jpg (https://postimg.cc/gxNqxmW5)
Ma Arc che si è fumata per fare questi numeri in RT ?? :D
Curioso che a momenti fa più in RT che senza.
https://www.techpowerup.com/review/hogwarts-legacy-benchmark-test-performance-analysis/6.html
Wolfw00f
09-02-2023, 22:03
Intel lavora al raytracing dal 2006 eh (quando ha assunto il tizio che per primo aveva implementato il RT per Quake3 nel 2004)
https://www.q3rt.de/
Sono vecchio :fagiano:
Spettacolo vedere la A770 davanti alla 3080 :|
Intel lavora al raytracing dal 2006 eh (quando ha assunto il tizio che per primo aveva implementato il RT per Quake3 nel 2004)
https://www.q3rt.de/
Sono vecchio :fagiano:
Spettacolo vedere la A770 davanti alla 3080 :|
In 4K sta pari alla 3090 :sofico:
Wolfw00f
09-02-2023, 23:15
Update sui driverzzzzz.
A quanto pare la Xe (Intel volendo) non ha particolari problemi ad avere un driver D3D8 (OTTO) nativo, insieme a quello D3D9 senza alcun bisogno di scomodare D3D8on12 e D3D9on12.
Unreal 2 log:
Log: Log file open, 02/09/23 23:10:13
Init: Name subsystem initialized
Init: Detected: Microsoft Windows NT 6.2 (Build: 9200)
Init: Version: 2001
Init: Compiled: Mar 14 2003 13:18:30
Init: Command line:
Init: Base directory: E:\Unreal 2\System\
Init: Character set: Unicode
Progress: Bound to Window.dll
Progress: calling packageinit
Progress: Bound to Core.dll
Progress: calling packageinit
Progress: Bound to Engine.dll
Progress: calling packageinit
Init: Object subsystem initialized
Init: Computer: SWORD
Init: User: hekoone
Init: Memory total: Phys=2097151K Pagef=4194303K Virt=2097024K
Init: Working set: 32000 / 159000
Init: CPU Speed=2807.997455 MHz
Init: CPU Page size=4096, Processors=6
Init: CPU Detected: PentiumPro-class processor (GenuineIntel)
Init: CPU Features: CMov FPU RDTSC PAE MMX SSE
Init: FirstRun=2001
Log: Verifying ALevelInfo class size
Log: Save=0.556611
Log: Moving 'Save.tmp' to 'Golem.u'
Log: Golem: [Log] Library initialized
Init: Unreal engine initialized
Init: Client initialized
Init: Direct3D adapters detected:
Log: igdumdim32.dll/Intel(R) UHD Graphics 750
Init: D3D Driver: MaxTextureBlendStages=8
Init: D3D Driver: MaxSimultaneousTextures=8
Init: D3D Driver: MaxActiveLights=8
Init: D3D Driver: MaxPrimitiveCount=8388607
Init: D3D Driver: MaxVertexIndex=16777215
Init: D3D Driver: MaxStreams=16
Init: D3D Driver: MaxStreamStride=255
Init: D3D Driver: MaxVertexShaderConst=256
Init: D3D Driver: VertexShaderVersion=1.1
Init: D3D Driver: PixelShaderVersion=1.4
Init: D3D Driver: WARNING: no AGP support detected
Init: D3D Driver: Using w- pixel fog
Init: D3D Driver: Supports trilinear
Init: D3D Driver: Supports BLENDDIFFUSEALPHA
Init: D3D Driver: Supports LOD biasing
Init: D3D Driver: Supports Z biasing
Init: D3D Driver: Supports D3DTOP_ADDSIGNED2X
Init: D3D Driver: Supports D3DTOP_BUMPENVMAP
Init: D3D Driver: Supports D3DTOP_BUMPENVMAPLUMINANCE
Init: D3D Driver: Supports D3DTOP_DOTPRODUCT3
Init: D3D Driver: Supports D3DTOP_MODULATEALPHA_ADDCOLOR
Init: D3D Driver: Supports D3DTOP_MODULATECOLOR_ADDALPHA
Init: D3D Driver: Textures (8192x8192), Max aspect 8192
Init: Unreal Engine Direct3D support - internal version: SB2.5
Init: D3D Device: szDriver=igdumdim32.dll
Init: D3D Device: szDescription=Intel(R) UHD Graphics 750
Init: D3D Device: wProduct=31
Init: D3D Device: wVersion=0
Init: D3D Device: wSubVersion=101
Init: D3D Device: wBuild=4091
Init: D3D Device: dwVendorId=32902
Init: D3D Device: dwDeviceId=19594
Init: D3D Device: dwSubSysId=-2037116861
Init: D3D Device: dwRevision=4
Init: D3D Detected: Intel video card
Init: D3D Device: using cubemaps [with mipmaps]
Log: (Karma): Beginning Karma for game.
Init: Warning: [Entry] Level-loading information not found, progress bar will not function properly
Log: LoadMap: Entry
Log: Static mesh batches: 0 vertex bytes, 0 index bytes, 0.0 setup seconds
Log: Game class is 'GameInfo'
Log: Level is Level Entry.MyLevel
Qualche anima pia che testi con una ARC? Questa è la versione dell'Anthology del 2006 ma dovrebbe andare benissimo pure la versione di Steam/GOG.
Il log è automaticamente creato nella directory "System" al lancio di Unreal2.
Forzando d3d9on12 con Unreal 2 e la Xe integrata si fanno 85 FPS dove col driver nativo siamo a 130......
Rasoiokia
10-02-2023, 14:42
Potreste aiutarmi a capire se con un 5700g la ARC 770 sarebbe bene equilibrata ?
Se la risposta è no, ad oggi, quale sarebbe la VGA da associare meglio dimensionata in termini di performance :stordita:
Wolfw00f
10-02-2023, 14:56
Potreste aiutarmi a capire se con un 5700g la ARC 770 sarebbe bene equilibrata ?
Se la risposta è no, ad oggi, quale sarebbe la VGA da associare meglio dimensionata in termini di performance :stordita:
RX 6600/6700 se non ti interessa 1) Raytracing 2) DLSS
Per ARC su AMD non vorrei ci fossero magagne impreviste (magari all'aggiornamento del BIOS)
Potreste aiutarmi a capire se con un 5700g la ARC 770 sarebbe bene equilibrata ?
Se la risposta è no, ad oggi, quale sarebbe la VGA da associare meglio dimensionata in termini di performance :stordita:
Sarebbe da masochisti mettere una scheda Intel in un sistema Amd. :sofico: :sofico:
Wolfw00f
10-02-2023, 18:38
Sarebbe da masochisti mettere una scheda Intel in un sistema Amd. :sofico: :sofico:
Beh il problema in generale è l'implementazione fatta da Intel di ReBar per GPU non sue.
NVidia ad esempio negli ultimi driver ha TOLTO il supporto a ReBar per Hitman 3 (o come cavolo è chiamato ora :D ) su Intel perchè pare che l'implementazione dia problemi che invece non ci sono su NVidia+AMD :mbe:
Rasoiokia
10-02-2023, 19:27
Per la verità il 5700G implementa tranquillamente il resizable bar :confused:
Wolfw00f
10-02-2023, 20:14
Per la verità il 5700G implementa tranquillamente il resizable bar :confused:
Certo ma la GPU Intel l'hanno testata internamente su sistemi Intel, non certo su sistemi AMD (o almeno non così approfonditamente)
Purtroppo le implementazioni del ReBar (come di mille altre cose) hanno leggere differenze che possono pesare non poco e infatti Nvidia+AMD va meglio di Nvidia+Intel (paradossale ma è così), essendo del resto AMD che ne ha promosso l'adozione (era rimasto dormiente nelle specifiche del PCI-Ex per 16 anni :fagiano:)
Rasoiokia
11-02-2023, 08:04
Certo ma la GPU Intel l'hanno testata internamente su sistemi Intel, non certo su sistemi AMD (o almeno non così approfonditamente)
Purtroppo le implementazioni del ReBar (come di mille altre cose) hanno leggere differenze che possono pesare non poco e infatti Nvidia+AMD va meglio di Nvidia+Intel (paradossale ma è così), essendo del resto AMD che ne ha promosso l'adozione (era rimasto dormiente nelle specifiche del PCI-Ex per 16 anni :fagiano:)
Sostanzialmente per quello che dici mi consiglieresti una ??? 3070 ?
Wolfw00f
11-02-2023, 11:08
Sostanzialmente per quello che dici mi consiglieresti una ??? 3070 ?
Se non ti interessa il RT e il DLSS ovviamente una 6600 o superiori :fagiano: (a 1440 "basta" la 6600 per quello che è in circolazione ora, nel senso che per giocare a dettagli medi a 1440 è sufficiente)
Se ti interessa il RT e il DLSS da 3060 in su.
Sostanzialmente per quello che dici mi consiglieresti una ??? 3070 ?
a 1440p direi almeno la 3070 o una 6700/6750xt non so come sotto ti consiglia la 6600 o 3060 :confused:
Se non ti interessa il RT e il DLSS ovviamente una 6600 o superiori :fagiano: (a 1440 "basta" la 6600 per quello che è in circolazione ora, nel senso che per giocare a dettagli medi a 1440 è sufficiente)
Se ti interessa il RT e il DLSS da 3060 in su.
Francamente ho dubbi al riguardo... già iniziano ad uscire giochi come Plague Tale Requiem e Dead Space, dove la 6600 è sufficiente solo per 30fps a 1440p. Forse ti puoi avvicinare a 60fps con il FSR, ma non è mica garantito che sia supportato, e poi perdi abbastanza in termini di qualità d'immagine.
Ora che la PS5 e Series X stanno diventando la base di sviluppo, credo che una 6600 XT sia il minimo assoluto per il 1440p, ha almeno un 20% di performance in più rispetto alla 6600 che aiuta parcchio. E ci staresti comunque molto strettino. Relisticamente direi meglio una 6700 XT.
Io a sto punto aspetto la 7600 XT, sperando che non costi più di 300 euro (speranza probabilmente vana :stordita:)
Francamente ho dubbi al riguardo... già iniziano ad uscire giochi come Plague Tale Requiem e Dead Space, dove la 6600 è sufficiente solo per 30fps a 1440p. Forse ti puoi avvicinare a 60fps con il FSR, ma non è mica garantito che sia supportato, e poi perdi abbastanza in termini di qualità d'immagine.
Ora che la PS5 e Series X stanno diventando la base di sviluppo, credo che una 6600 XT sia il minimo assoluto per il 1440p, ha almeno un 20% di performance in più rispetto alla 6600 che aiuta parcchio. E ci staresti comunque molto strettino. Relisticamente direi meglio una 6700 XT.
Io a sto punto aspetto la 7600 XT, sperando che non costi più di 300 euro (speranza probabilmente vana :stordita:)
La 6600 liscia nuova costa ora dopo 1 e mezzo 300 euro ancora :sofico:
La 6600 liscia nuova costa ora dopo 1 e mezzo 300 euro ancora :sofico:
In effetti è vero... alla fine ho cambiato idea proprio ora e ho preso una 6600 XT :asd: spero di non pentirmene :stordita:
Wolfw00f
11-02-2023, 13:58
a 1440p direi almeno la 3070 o una 6700/6750xt non so come sotto ti consiglia la 6600 o 3060 :confused:
Leggere è difficile
a dettagli medi a 1440 è sufficiente
Inoltre una 6700 sarebbe un po' sbilanciata rispetto al resto del SUO sistema (Ryzen 5700)
Inoltre gli FPS non contano in sè niente, conta la (minima) varianza del tempo di frame COMPRENSIVO della latenza di input. Massimizzare gli FPS è controproducente in quanto introduci altissime lag, causa mancata gestione dell'input nella finestra temporale adeguata (che è sempre più stretta all'aumentare della frame rate e se il processore è oberato dalle drawcall per la geometria scatta il lag che NON avresti impostando un framecap ).
Purtroppo pare che spiegare queste ovvietà (per chi ha fatto corsi di sistemi di elaborazione e conosce fin troppo bene queste problematiche di logistica, perchè di fatto sono code da servire come capita nella logistica) sia impossibile, partendo dal fatto che la "fluidità" dell'immagine (elevate framerate) non c'entra niente con la "fluidità" di gioco (minime latenze di input): un esempio ottimo lo vedete nel motore dei vari elder scrolls dove puoi sbloccare la framerate e portarla a livelli altissimi e nonostante questo avere paurose lag nell'input (anzi, sempre più paurose) proprio per come 1) è fatto l'engine 2) è gestita la fase di presentazione del frame (a sistemare questo infatti ci pensano addon per SKSE)
Il problema "grosso" dei famosi 30 FPS stabili, mica sono i 30 FPS, sono le animazioni lockate a 30 (come nel porting del 2003 di Halo Combat Evolved), dato che quelle vengono percepite "male" a 30 FPS, non i 30 FPS in sè (che è appunto il motivo per cui nessuno si lamenta di un film a 30 FPS :fagiano: )
StylezZz`
11-02-2023, 14:29
a dettagli medi a 1440 è sufficiente
Dipende dai giochi, già la mia 3070 tiene i 60fps in alcuni a dettagli medi senza rt (e con DLSS :asd:), la 6600 non li vede proprio...
A 1440p consiglierei almeno una 6600 XT/6650 XT.
Io sono a 3440x1440 con 3060ti, bene o male anche negli AAA mattonazzi i 60fps li fai ottimizzando i settings e con DLSS.
Anche se per la mia risoluzione l'ideale sono 3080/4070.
Con i classici 1440p soprattutto se non ti prende voler maxare tutto e sempre, chip come 3060ti/3070 o 6700 10gb/6700xt fanno il loro lavoro.
Le ARC A750/A770 pure sono ottime ma devi vederti le review per i giochi che ti interessano in quanto le prestazioni non sono sempre così lineari, ma rimangono ottime GPU e Intel sta facendo un bel lavoro sui driver.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Wolfw00f
11-02-2023, 14:56
Il problema "inaggirabile" delle ARC è unicamente uno: il consumo. Siamo 75 W sopra la controparte di AMD.
Una volta che hai un driver Vulkan e uno D3D12 funzionanti benone il resto lo puoi sempre eseguire via wrapping (o aspettare la maturazione dei driver nativi che ovviamente è meglio).
WineD3D si appoggia a Vulkan, MESA e DXVK a D3D12 su Windows. Poi ci sono dgVoodoo2, D3D8to9 di Crosire (famoso per ReShade), D3D9on12 (che fa anche D3D1->7 + 8) della stessa MS e sarà sempre di più aggiornato.
Non c'è motivo di preoccuparsi per l' "eseguibilità" :O
Wolfw00f
11-02-2023, 15:03
se non ti prende voler maxare tutto e sempre
Il problema sono i "geni" che maxano il dettaglio geometrico (es. la distanza di visualizzazione degli oggetti) con una CPU non all'altezza "perchè intanto a 1440 o 2160 sei BOTTLENECKED dalla GPU, fidati!!!1111 BOTTLENECKED, capito? AHAH!" dimostrando così di non capire come funziona la pipeline di rendering (e soprattutto fase di setup della scena PRIMA della rasterizzazione) :asd: :asd: :asd:
In B4 fare tutti i dettagli geometrici via mesh shader (cioè per via procedurale) :fagiano:
Wolfw00f
11-02-2023, 17:26
Dipende dai giochi
Ah, c'è un nuovo indie spaKKa-GPU :asd: (e no, non è per mancata ottimizzazione ma perchè è voxel-based cioè un contesto di rendering per cui non sono minimamente pensate le GPU)
Quantitativo di VRAM del tutto ininfluente, non ha praticamente textures :asd:
https://store.steampowered.com/app/986130/Shadows_of_Doubt/
Se volete provare il demo e vedere quanto vi fa a 1440 o 2160 :D (Unity Engine)
Rasoiokia
12-02-2023, 10:46
Se non ti interessa il RT e il DLSS ovviamente una 6600 o superiori :fagiano: (a 1440 "basta" la 6600 per quello che è in circolazione ora, nel senso che per giocare a dettagli medi a 1440 è sufficiente)
Se ti interessa il RT e il DLSS da 3060 in su.
Mha ...lasciando un attimo perdere il RT penso che a nessuno nel 2023 può non interessare il DLSS, mia opinione ovviamente.
Sono molto curioso di capire il prezzo di lancio della 4060TI, visto che sul mercatino ancora girano le 3070 usate sopra i 400€ :doh:
Wolfw00f
12-02-2023, 12:32
Mha ...lasciando un attimo perdere il RT penso che a nessuno nel 2023 può non interessare il DLSS, mia opinione ovviamente.
Sono molto curioso di capire il prezzo di lancio della 4060TI, visto che sul mercatino ancora girano le 3070 usate sopra i 400€ :doh:
Interesserebbe molto di più XeSS + Integrata Intel Xe-based dato che lì la differenza è fra giocare e non giocare :fagiano:
Il problema "inaggirabile" delle ARC è unicamente uno: il consumo. Siamo 75 W sopra la controparte di AMD
Niente di strano però. La "controparte" AMD è solo una questione di prezzo, cioè puramente commerciale. Se vai a guardare le specifiche, la A750 ad esempio ha praticamente il doppio delle ROP e TMU e banda rispetto alla 6600. E' un chip gigantesco con banda assurda, dovrebbe competere con le RX 6800, è normale che consumi tanto (non in idle però, quello non dovrebbe accadere). La cosa strana è che non riescano a spremerlo come si deve.
Comunque devo dire che sul prezzo hanno lavorato bene. Ora si trova anche a 280 euro. A quel prezzo se la gioca alla pari con la 6600 liscia... preferirei comunque la AMD perchè le Arc sono ancora un po' un terno al lotto e consumano troppo, ma penso ci siano ottime prospettive per la prossima generazione di schede.
Rasoiokia
12-02-2023, 12:58
Interesserebbe molto di più XeSS + Integrata Intel Xe-based dato che lì la differenza è fra giocare e non giocare :fagiano:
Mi riferivo al DLSS, semplicemente perché nell'immediato (2023 - 2024) mi aspetto un maggiore supporto da parte di chi svilupperà i giochi
Penso che i benefici XeSS li sfrutteranno schede della prossima gen, non le ARC :eek:
Arc non hs particolari problemi, vero che non ha Dlss ma può contare sul sempre presente FSR e sul nuovo, ma già ben adottato, XeSS.
Arc non hs particolari problemi, vero che non ha Dlss ma può contare sul sempre presente FSR e sul nuovo, ma già ben adottato, XeSS.
Nelle ultime uscite XeSS è presente, fa ben sperare nonostante non stiano vendendo una vagonata di ARC, in quanto spingendo su quello magari rende più appetibile l'acquisto delle schede da parte dei nuovi acquirenti.
Wolfw00f
12-02-2023, 20:57
(non in idle però, quello non dovrebbe accadere).
per tutti i possessori di ARC, IMPORTANTE.
-> https://www.guru3d.com/news-story/intel-arc-graphics-cards-suffer-from-high-power-consumption-when-pc-is-in-idle.html
For Intel® Arc™ Graphics, ASPM L1 is required for all power states greater than G2. This means ASPM L1 and global OS settings must be enabled to support Intel Arc Graphics low power modes.
Qualche anima pia del forum che controlli? Basta fare la differenza alla presa con E senza queste impostazioni........in idle ovviamente.
Inoltre, ma questo capita anche su AMD (o se si attacca un secondo monitor ovviamente):
Also note that if you attach a display to Arc graphics with a refresh rate over 60Hz requires the GPU to run at slightly higher clocks to drive the pixel throughput. We will be looking at making optimizations in future generations.
.....ma ci sono vari modi per ingannare il driver :asd: (via CRU, basta forzare il preset CVT-RB per i timing del monitor)
Nelle ultime uscite XeSS è presente, fa ben sperare nonostante non stiano vendendo una vagonata di ARC, in quanto spingendo su quello magari rende più appetibile l'acquisto delle schede da parte dei nuovi acquirenti.
Ormai si trova adottato sempre di più, ottimo. Non so quanto riesca a vendere Arc ma di certo, vende, dato che in giro di utenti ne trovo davvero molti, sicuramente uno stimolo per Intel a proseguire con lo sviluppo dei driver e delle successive gpu.
A proposito in febbraio dovrebbe uscire il famoso driver performance :)
per tutti i possessori di ARC, IMPORTANTE.
-> https://www.guru3d.com/news-story/intel-arc-graphics-cards-suffer-from-high-power-consumption-when-pc-is-in-idle.html
For Intel® Arc™ Graphics, ASPM L1 is required for all power states greater than G2. This means ASPM L1 and global OS settings must be enabled to support Intel Arc Graphics low power modes.
Qualche anima pia del forum che controlli? Basta fare la differenza alla presa con E senza queste impostazioni........in idle ovviamente.
Interessante, appena riesco cerco nel bios queste voci.
Wolfw00f
12-02-2023, 23:49
Esempio di come e dove ahimè d3d9on12 fallisca miseramente (e per cui serve un driver D3D9)
Splinter Cell Chaos Theory con illuminazione corretta da XBox del 2005 (che fa da ovvio riferimento di correttezza essendo stato sviluppato per quella console)
https://www.youtube.com/watch?v=hwAhdTF2YZs&ab_channel=ElAnalistaDeBits
*su PC con driver AMD (risultato tutto sommato corretto con riferimento al video di sopra, sto usando il FL 8.1 ovvero shader model 1.1 quindi niente roba avanzata ma assolutamente alla pari con gli altri 2 capitoli precedenti)
https://i.postimg.cc/SNn7Qxhz/0.jpg (https://postimg.cc/N5wrpYLg)
*su PC con driver AMD + d3d9on12 :(
https://i.postimg.cc/qMWcNHJD/1.jpg (https://postimg.cc/0bdK43J7)
Rasoiokia
13-02-2023, 06:38
Nelle ultime uscite XeSS è presente, fa ben sperare nonostante non stiano vendendo una vagonata di ARC, in quanto spingendo su quello magari rende più appetibile l'acquisto delle schede da parte dei nuovi acquirenti.
Da qualche parte trovo una lista dei giochi che adottano XeSS ?
Wolfw00f
13-02-2023, 07:23
Da qualche parte trovo una lista dei giochi che adottano XeSS ?
https://steamdb.info/tech/SDK/Intel_XeSS/
https://game.intel.com/story/arc-featured-games/
Rasoiokia
14-02-2023, 11:57
https://steamdb.info/tech/SDK/Intel_XeSS/
https://game.intel.com/story/arc-featured-games/
Grazie mille :D
Wolfw00f
15-02-2023, 17:43
Cmq non si può voler male ad Intel quando GIA' con l'integrata si ottengono questi risultati :D
https://i.postimg.cc/5tZ41rB2/UE4-Win64-Shipping-2023-02-15-17-40-29-781.jpg (https://postimages.org/)
(il non-defunto UT4)
Wolfw00f
16-02-2023, 09:28
Continuo a non capire il perchè Intel abbia rimosso il driver nativo D3D9 (che poi si occupa ANCHE di tutto quello che è precedente) dato che in scenari con pesante uso di shader il peso sulle performance è notevole e non doveva fare altro che continuare a raffinarlo senza alcuna priorità e basandosi unicamente sul feedback dei "veterani", visto che sulle UHD di Rocket Lake funziona tutto sommato bene.
Continuando infatti nei confronti fra driver nativo e layer di traduzione di MS (D3D9on12) si ha una perdita anche del 35% in D3D8 :mbe: (laddove inoltre si potrebbe usare DXVK o dgVoodoo2 e ci si attesterebbe sul 5% di perdita e a volte si avrebbero pure guadagni - come dicevo dgVooodoo2 permette di forzare ovunque AF e MSAA pure nei contesti di deferred shading dove ne è sempre stato evitato l'uso proprio per non ricorrere a magheggi possibili unicamente su HW D3D10 compliant e superiori qualora non se ne accettassero le penalità in termini di performance - che sono devastanti su HW D3D9)
Purtroppo sono cose come questa (e i consumi) che minano lo "slancio" negli acquisti :fagiano:
Wolfw00f
17-02-2023, 18:52
Azz. Però sto troppo in fissa per fare quel test del powerlimit sulla A380.
Appena mi tornano le forze sarà la prima cosa.
News?
News?
Spero di rimetterci le mani il prima possibile. Dopo che sono guarito io (e non è stato uno scherzo) si è "ammalato" un "files server" abbastanza vitale che utilizzo in casa e ho dovuto destinare di gran corsa, anche se temporaneamente, quel sistema dove avevo installato l'ARC380 come rimpiazzo. Appena mi arriva la motherboard sostitutiva per il suddetto server rimetto su la 380 ! Spero a breve. :)
Wolfw00f
20-02-2023, 16:37
Ottimo! ;)
Speciale gpu e driver Intel di pcworld con Tom Petersen di intel in diretta questa sera alle 19:45
https://www.youtube.com/live/FfrE_eq6jO4?feature=share
Immagino resterà disponibile anche in differita
Se può interessare ho provato Atomic Heart sulla A770, in 2K a dettagli "Atomici" si va da un minimo di 55 frame nelle aree aperte e più concitate ad un massimo di 130 frame nelle aree interne, non male!
Notavo come sia difficile prendere tutto il TBP disponibile, anche in OC e a vsync disabilitato sto per lo più sui 170/180 w, quando in realtà c'è ancora margine (settato a 225w da pannello di controllo).
Consuma niente sta scheda :)
Wolfw00f
22-02-2023, 16:21
Notavo come sia difficile prendere tutto il TBP disponibile, anche in OC e a vsync disabilitato sto per lo più sui 170/180 w, quando in realtà c'è ancora margine (settato a 225w da pannello di controllo).
Consuma niente sta scheda :)
la prova in idle fatta? :O Possibilmente con misuratore di potenza a muro :fagiano:
https://m.media-amazon.com/images/I/61hJdu6NRML._AC_SL1500_.jpg
la prova in idle fatta? :O Possibilmente con misuratore di potenza a muro :fagiano:
In idle sta sui 40w, sinceramente non ho fatto ancora la prova :fagiano:
Wolfw00f
22-02-2023, 17:21
per tutti i possessori di ARC, IMPORTANTE.
-> https://www.guru3d.com/news-story/intel-arc-graphics-cards-suffer-from-high-power-consumption-when-pc-is-in-idle.html
For Intel® Arc™ Graphics, ASPM L1 is required for all power states greater than G2. This means ASPM L1 and global OS settings must be enabled to support Intel Arc Graphics low power modes.
Qualche anima pia del forum che controlli? Basta fare la differenza alla presa con E senza queste impostazioni........in idle ovviamente.
Inoltre, ma questo capita anche su AMD (o se si attacca un secondo monitor ovviamente):
Also note that if you attach a display to Arc graphics with a refresh rate over 60Hz requires the GPU to run at slightly higher clocks to drive the pixel throughput. We will be looking at making optimizations in future generations.
.....ma ci sono vari modi per ingannare il driver :asd: (via CRU, basta forzare il preset CVT-RB per i timing del monitor)
Uppo che è sempre utile :fagiano:
Come dicevo per la questione delle frequenze (della GPU/VRAM) alte quando la scheda si interfaccia a monitor con timing non standard - per essere venduti con frequenze di refresh di targa più alte del possibile, è una sorta di pseudooverlock di fabbrica - una possibilità per riportarle in basso (le frequenze della GPU/VRAM e quindi i consumi) è usare CRU: con la 570 arrivo tranquillamente a 8-9 watt - riportati dal pannello di Radeon Settings - forzando il preset CVT-RB2
amon.akira
22-02-2023, 17:35
intel-confirms-battlemage-2nd-gen-arc-discrete-graphics-cards-to-feature-cool-new-technologies-architectural-fixes-bulk-of-team-working-on-it/ (https://wccftech.com/intel-confirms-battlemage-2nd-gen-arc-discrete-graphics-cards-to-feature-cool-new-technologies-architectural-fixes-bulk-of-team-working-on-it/)
The following features have already been rumored for the Xe2 Battlemage GPUs:
Next-Gen Memory Subsystem & Compression
Improved Ray Tracing
Micro-Architecture improvements
Next-Gen ML-based rendering tech
Latest DeepLink capabilities
Targeting Performance/Enthusiast Gaming
Wolfw00f
22-02-2023, 18:08
"Eh ma non ci sarà Battlemage, Intel ci ha SEGRETAMENTE DETTO che il progetto è chiuso!!!1111"
https://www.youtube.com/watch?v=cZr_LWAlDkg&ab_channel=Moore%27sLawIsDead
Che maGGGicamente si trasforma in
https://www.youtube.com/watch?v=2XiWGuEFCbE&ab_channel=Moore%27sLawIsDead
Magie dell'Interwebz a cui certi pirloni (per non dire altro) credono :fagiano:
intel-confirms-battlemage-2nd-gen-arc-discrete-graphics-cards-to-feature-cool-new-technologies-architectural-fixes-bulk-of-team-working-on-it/ (https://wccftech.com/intel-confirms-battlemage-2nd-gen-arc-discrete-graphics-cards-to-feature-cool-new-technologies-architectural-fixes-bulk-of-team-working-on-it/)
The following features have already been rumored for the Xe2 Battlemage GPUs:
Next-Gen Memory Subsystem & Compression
Improved Ray Tracing
Micro-Architecture improvements
Next-Gen ML-based rendering tech
Latest DeepLink capabilities
Targeting Performance/Enthusiast Gaming
sarebbero le 870 ? :confused:
nessuno29
23-02-2023, 07:24
Se può interessare ho provato Atomic Heart sulla A770, in 2K a dettagli "Atomici" si va da un minimo di 55 frame nelle aree aperte e più concitate ad un massimo di 130 frame nelle aree interne, non male!
Più o meno come la mia 2060 super, anche se negli interni raggiungo i 144.
Più o meno come la mia 2060 super, anche se negli interni raggiungo i 144.
Senza DLSS?
Ho provato la procedura per l'Idle, sperando di aver fatto tutto giusto... non cambia nulla, nessun cambiamento sul consumo.
Ho provato la procedura per l'Idle, sperando di aver fatto tutto giusto... non cambia nulla, nessun cambiamento sul consumo.
A me era cambiato col monitor in full hd a 144 Hz, consumava 8W in idle, ora invece con quello in firma sta sui 30W in idle a monitor acceso, quando va in sleep
Il monitor, consuma 7W, stando alla telemetria di ARC control.
Credo sia dovuto al fatto che ora il desktop sta a 2560x1440p a 165 Hz e il driver lo vede come un "carico", un pò come succede per le AMD.
Wolfw00f
23-02-2023, 17:21
Esattamente, per questo dicevo che su quel problema si agisce con CRU......monitor permettendo.
Diverso è il discorso per le tecnologie di risparmio integrate nel PCI-E da attivare nel BIOS.
ombramortale
23-02-2023, 18:30
Qualcuno ha testato con gli ultimi driver titoli basati sull'engine Frostbite, tipo: Battlefield 2042, BF V, BF1?
I test che ho visto online sono di circa 1 mese fa e mi sembravano ancora distanti da schede della stessa fascia, specialmente AMD; sarei curioso di sapere se stanno migliorando anche su quei titoli visto che il mio soldatino (1070) è ormai da pensione :D
Qualcuno ha testato con gli ultimi driver titoli basati sull'engine Frostbite, tipo: Battlefield 2042, BF V, BF1?
I test che ho visto online sono di circa 1 mese fa e mi sembravano ancora distanti da schede della stessa fascia, specialmente AMD; sarei curioso di sapere se stanno migliorando anche su quei titoli visto che il mio soldatino (1070) è ormai da pensione :D
Coi Need for speed dal 2015 in su, tolto l'ultimo, non va tanto bene, è un problema noto ma non so quando lo risolveranno.
Wolfw00f
26-02-2023, 21:35
https://www.youtube.com/watch?v=2FfToWHgNwQ&ab_channel=Level1Techs
wolverine
27-02-2023, 19:09
Iscritto. :)
https://www.youtube.com/watch?v=2FfToWHgNwQ&ab_channel=Level1Techs
però in 2077 va peggio... :muro:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.