View Full Version : [Thread ufficiale] AMD Radeon RX Vega
Angeland
11-08-2018, 22:09
Parlando di temperature, la Liquid è davvero eccezionale, con il profilo "spinto" (p6 e p7 undervoltati a 1050mv e 1100mv, hbm2 1100mhz) raggiunge i 53° nel core e 55° nelle memorie (ventola al 55%) ed il mio case non è nemmeno il top a livello di raffreddamento. Il tutto su AC:Origin con un caldo che si scoppia (Sicilia, e camera mia è pure sotto il terrazzo al piano di sopra, di conseguenza ancora piu' calda).
certo..... ma si torna al discorso che ho fatto prima......se stai con il naso a 1 cm di distanza dal monitor ok... te ne puoi (forse) rendere conto..... se stai a 50-60 cm come in un qualsiasi uso normale.........di che cosa stiamo parlando?
Attualmente ho un minor 34" 2560x1080...... a leggere sui vari forum dovrebbe essere impossibile navigare e dovrei avere pixels grossi 1 centimetro........ LOL.
DIO SIA LODATO che i pixel sono cosi' grandi! perch'e di usare la lente d'ingrandimento per navigare in internet non ne avrei assolutamente voglia :) :)
Come al solito teoria e pratica non sempre sono congrue..... come la storia del refresh rate a livelli assurdi, o l'inutilita' di una scheda audio supplementare rispetto all'integrata (sempre riferito ai miei precedenti posts).
Prova un ips 34 pollici con colori ben tarati a 3440x1440 e altro che la risoluzione del tuo. Non diciamo eresie, a 2560x1080 c'è un abisso.
Gyammy85
12-08-2018, 14:55
Boh, non mi convincono per niente i 21:9. Mi sto col tv 32 pollici in vsr coi colori vivi vivi.
Boh, non mi convincono per niente i 21:9. Mi sto col tv 32 pollici in vsr coi colori vivi vivi.
Il mio dell con colori tarati dal produttore e certificati è meraviglioso. Un pelo di chiazze chiare agli spigoli visibili solo in condizioni limite e il nero leggermente meno efficace. Ma io lo preferisco per il momento. Certo se faranno schermi oled veloci e di queste dimensioni a prezzi accessibili, li prenderò.
Prova un ips 34 pollici con colori ben tarati a 3440x1440 e altro che la risoluzione del tuo. Non diciamo eresie, a 2560x1080 c'è un abisso.Confermo. La differenza è enorme.
Io ho un Samsung CF34 VA e la differenza la noto eccome confronto i 2560x1080P
Inviato dal mio SM-G935F utilizzando Tapatalk
Boh, non mi convincono per niente i 21:9. Mi sto col tv 32 pollici in vsr coi colori vivi vivi.Dicevo anche io così...
Poi provi i 21:9 e, credimi, non torni più indietro.
Inviato dal mio SM-G935F utilizzando Tapatalk
Roland74Fun
12-08-2018, 16:45
Boh, non mi convincono per niente i 21:9. Mi sto col tv 32 pollici in vsr coi colori vivi vivi.Inutile starsela a menare e buttare soldi cogli schermi, se poi non ti prendi una scheda vidio più performante.
Inutile starsela a menare e buttare soldi cogli schermi, se poi non ti prendi una scheda vidio più performante.
Una Vega liquid non ti basta?:confused:
Gyammy85
12-08-2018, 18:34
Una Vega liquid non ti basta?:confused:
Era ironico scherzava con me ;)
Era ironico scherzava con me ;)
Ahhh:D
Angeland
12-08-2018, 18:39
Fidatevi che giocare su un 21:9 è davvero tutt'altra cosa (da 34", il 29" imho non conviene, a quel punto meglio un classico 32" 16:9). Ancora ricordo il primo avvio di TW3 :oink: :sbav: ovviamente come dice Roland, è necessario avere una GPU di fascia alta/ultra.
Inoltre sono godibili anche per guardare film/video su youtube (con il plugin per chrome), io qualche volta utilizzo anche skygo ed è una goduria.
Gyammy85
12-08-2018, 20:57
Bench della beta di call of duty black ops 4
https://gamegpu.com/action-/-fps-/-tps/call-of-duty-black-ops-4-beta-test-gpu-cpu#.W3AJIZb-V1A.reddit
Dark_Lord
13-08-2018, 10:41
Fidatevi che giocare su un 21:9 è davvero tutt'altra cosa (da 34", il 29" imho non conviene, a quel punto meglio un classico 32" 16:9). Ancora ricordo il primo avvio di TW3 :oink: :sbav: ovviamente come dice Roland, è necessario avere una GPU di fascia alta/ultra.
Inoltre sono godibili anche per guardare film/video su youtube (con il plugin per chrome), io qualche volta utilizzo anche skygo ed è una goduria.
guarda che in 21:9 vai a perdere pixel rispetto al 16:9
tipo 3840x1600 21:9 contro 3840x2160 di un classico 4k 16:9
è l'equivalente di giocare su un 4k 16:9 con bande nere sopra e sotto :asd: come fa ad essere "tutt'altra cosa"? :asd:
guarda che in 21:9 vai a perdere pixel rispetto al 16:9
tipo 3840x1600 21:9 contro 3840x2160 di un classico 4k 16:9
è l'equivalente di giocare su un 4k 16:9 con bande nere sopra e sotto :asd: come fa ad essere "tutt'altra cosa"? :asd:
Dipende, è come quando si è passati da 4/3 (o 5/4, vedi 1280x1024) a 16/10 e 16/9, se un gioco è calcolato per essere Hor+, ovvero aggiungere a lato, il 2560x1080 va confrontato con il 1920x1080 e quindi ha sicuramente più pixel. Al contrario se un gioco lavora con Ver- (togliere risoluzione verticale) allora sì, 2560x1080 si confronta con 2560x1440 e quindi perde pixel.
I film si stanno spostando quasi tutti su risoluzioni ancora più larghe, ma i telefilm generalmente rimangono 16/9 pieni, più ci sono film IMAX che passano da un aspect ratio all'altro... è una situazione complicata :D
guarda che in 21:9 vai a perdere pixel rispetto al 16:9
tipo 3840x1600 21:9 contro 3840x2160 di un classico 4k 16:9
è l'equivalente di giocare su un 4k 16:9 con bande nere sopra e sotto :asd: come fa ad essere "tutt'altra cosa"? :asd:Tutta un'altra cosa per la.visuale più ampia....
4K su monitor sotto i 34" inoltre sono troppi a mio giudizio.
Anche perchè poi serve una GPU adatta al 4K se uno, come a me, piace giocare maxando o quasi i giochi.
Prova un simulatore di guida, FSX, o giochi di ruolo od anche BF1 per esempio.
Ti si apre alla vista un altro mondo.
A 3440x1440P la Vega rx 64 va alla grande. Poi con Freesync si sta ulteriormente tranquilli.
Inviato dal mio SM-G935F utilizzando Tapatalk
Roland74Fun
13-08-2018, 11:57
@55AMD
Per me l'ideale è un tv 55' in 4K
Se escono i modelli a refresh variabile sarebbe il non plus ultra. Con una 480/580 a dettagli intelligenti già ci si gioca tranquilli. Con una Vega ancora meglio.
guarda che in 21:9 vai a perdere pixel rispetto al 16:9
tipo 3840x1600 21:9 contro 3840x2160 di un classico 4k 16:9
è l'equivalente di giocare su un 4k 16:9 con bande nere sopra e sotto :asd: come fa ad essere "tutt'altra cosa"? :asd:??? Che c'entra l'aspect ratio coi pixel
Inviato dal mio XT1068 utilizzando Tapatalk
majinbu7
14-08-2018, 11:15
si, per ora ho un Lg 34" IPS 21:9 2560*1080 75 Hz freesync
Sto tenendo pero' sott'occhio nuovi modelli, con l'intenzione di utilizzare quello attuale come secondo monitor.
Per ora il candidato number 1 e' il Samsung C32HG70. VA 32" 16:9, ma 1440p, 144hz, freesync 2 e quantum dot.
Gran bel monitor, lo sto usando da qualche mese, prima avevo un 35" 21:9 , se non giochi a giochi di guida dove ha la resa migiore per la visuale allargata, per me meglio un bel 32" dove guadagni pollici in altezza, perchè un 34" 21:9 in altezza è come un 27" 16:9 ;)
Ps: comunque va gusti perciò dire che se provi i 21:9 non torni più indietro è una bella m******ta :D
Gyammy85
14-08-2018, 11:31
Ps: comunque va gusti perciò dire che se provi i 21:9 non torni più indietro è una bella m******ta :D
Per una volta siamo d'accordo, il 16:9 è il giusto compromesso imho
Ma no!
Va a gusti.
Diciamo che su 100, 98 non tornerebbero indietro da un 21:9.
I due rimanenti siete voi due :asd: :asd:
Comunque non è solo prr i giochi di guida.
Ghot Recon W., The Division, BF1, TW3, Tomb Raider, ed anche gli strategici, sono una goduria per gli occhi in 21:9
Inviato dal mio SM-G935F utilizzando Tapatalk
majinbu7
14-08-2018, 15:37
Ma no!
Va a gusti.
Diciamo che su 100, 98 non tornerebbero indietro da un 21:9.
I due rimanenti siete voi due :asd: :asd:
Comunque non è solo prr i giochi di guida.
Ghot Recon W., The Division, BF1, TW3, Tomb Raider, ed anche gli strategici, sono una goduria per gli occhi in 21:9
Inviato dal mio SM-G935F utilizzando Tapatalk
Guarda di quelli da te elencati ho giocato a GRW, The Division, TW3, Tomb raider su entrambi i formati e li ho preferiti sul 32" 16:9 perchè mi restituiva l'immaghine più grande, vero con meno visuale ai lati, ma con sprite/poligoni più grossi, alla fine ricordati che un 34" 21:9 ha l'altezza di un 27" 16:9 ;)
Ps: e anche oggi non trovo una Vega 64 custom o a liquido a buon prezzo...vabbuò confido di trovarla comunque entro 1 mese.
Guarda di quelli da te elencati ho giocato a GRW, The Division, TW3, Tomb raider su entrambi i formati e li ho preferiti sul 32" 16:9 perchè mi restituiva l'immaghine più grande, vero con meno visuale ai lati, ma con sprite/poligoni più grossi, alla fine ricordati che un 34" 21:9 ha l'altezza di un 27" 16:9 ;)
Ps: e anche oggi non trovo una Vega 64 custom o a liquido a buon prezzo...vabbuò confido di trovarla comunque entro 1 mese.Sì su altezza hai pienamente ragione.
Io arrivavo da un 25" 16:9 1080P.
Appena posizionato il 34" 21:9 su scrivania, la mia prima impressione è stata proprio quella dell'altezza, dovuta alla larghezza fuori norma.
Ma poi giocandoci ho deciso, mai più 16:9, per quanto validi siano.
Restano comunque gusti personalissimi 😉
Inviato dal mio SM-G935F utilizzando Tapatalk
Gyammy85
14-08-2018, 17:30
Ecco una presentazione sul raytracing per amd
https://gpuopen.com/gdc-2018-presentation-real-time-ray-tracing-techniques-integration-existing-renderers/
ninety-five
14-08-2018, 20:00
Undervolt + Overclock
40/50W in meno e qualche Fps in più! :D :D :D
Nuovo bench:
https://s22.postimg.cc/dl029byul/Superposition_Benchmark_v1.0_6450_1534272952.png (https://postimg.cc/image/dl029byul/)
Vecchio bench:
https://s8.postimg.cc/kspeig94h/Superposition_Benchmark_v1.0_6129_1533812827.png (https://postimg.cc/image/kspeig94h/)[/QUOTE]
Annamaria
15-08-2018, 01:02
Undervolt + Overclock
40/50W in meno e qualche Fps in più! :D :D :D
Nuovo bench:
https://s22.postimg.cc/dl029byul/Superposition_Benchmark_v1.0_6450_1534272952.png (https://postimg.cc/image/dl029byul/)
Vecchio bench:
https://s8.postimg.cc/kspeig94h/Superposition_Benchmark_v1.0_6129_1533812827.png (https://postimg.cc/image/kspeig94h/)[/QUOTE]
Ciao, quale software usi per impostare frequenze e voltaggi della tua Vega 64?
Quali frequenze e voltaggi usi per la tua Vega 64 (nei test), core/memorie?
Ciao e grazie.
ninety-five
15-08-2018, 14:04
Ciao, quale software usi per impostare frequenze e voltaggi della tua Vega 64?
Quali frequenze e voltaggi usi per la tua Vega 64 (nei test), core/memorie?
Ciao e grazie.[/QUOTE]
Al momento, così:
https://s22.postimg.cc/lgouclw3h/VEGASETUP.png (https://postimg.cc/image/lgouclw3h/)
Gyammy85
15-08-2018, 18:33
niente di interessante allora.... :O
Pure il cross quoting ora :asd:
Gyammy85
15-08-2018, 19:09
Andare troppo indietro dove smexxavi ogni 2x3 il trayracing nvidia mi annoiava, ho preso giusto l'ultimo post prima dell'elogio al trayracing AMD prossimo venturo :asd:
Dai che in due giorni siamo passati dalla tessellation e l'erba che si muove in base all'umore al supremo raytracing che richiede il cray c per funzionare, only computing to win.
Chi si aspetta che amd sprechi silicio per le unità comequelledinvidia resterà con ogni probabilità deluso.
Passi per i poligoni, ma perché servono unità dedicate per il ray tracing? Tutti stupidi nel 2006 a volere vertex e pixel unificati...
AceGranger
15-08-2018, 19:54
Dai che in due giorni siamo passati dalla tessellation e l'erba che si muove in base all'umore al supremo raytracing che richiede il cray c per funzionare, only computing to win.
Chi si aspetta che amd sprechi silicio per le unità comequelledinvidia resterà con ogni probabilità deluso.
Passi per i poligoni, ma perché servono unità dedicate per il ray tracing?Tutti stupidi nel 2006 a volere vertex e pixel unificati...
Vertex shader, Pixel shader e Geometry shader sono stati unificati per una questione di praticita perchè è impossibile avere un bilanciamento sempre perfetto di tutti i tipi di calcolo durante l'esecuzione di un gioco, nel quale è piu che normale trovarsi con scene molto sbilanciate verso uno dei 3 calcoli;
se i calcoli fossero stati sempre bilanciati ad una determinata %, sarebbe stato possibile, e molto MEGLIO, avere 3 unita hardware dedicate, ma cosi non è.
Il Ray-Tracing ha necessita di un quantitativo di calcolo nettamente superiore ai fake calcoli degli attuali engine ( fake calcoli che ovviamente sono stati inventati perchè fino ad oggi è stato impossibile farli in ray-tracing ); l'RT core è composto da unita dedicate che praticamente si occuperanno solo di calcolare la direzione dei raggi, il rimbalzo e forse un back-face culling su determinate geometrie.
la demo di Star Wars che andava a 1080p su 4 Titan V ora va su una singola RTX 6000
la tua è una domanda del cazz, figlia del fatto che come al solito non ti trattieni dal parlare di cose che non conosci e ovviamente perchè è una cosa che ha fatto nVidia.
Gyammy85
15-08-2018, 20:22
No guarda alzo le mani, e non siamo ancora al 30 agosto :asd:
Roland74Fun
17-08-2018, 15:41
Pioggia di Vega 64 a 300 euro.
https://www.youtube.com/watch?v=BEeoFJFsbq0
Gyammy85
17-08-2018, 16:09
Pioggia di Vega 64 a 300 euro.
https://www.youtube.com/watch?v=BEeoFJFsbq0
Ma ancora questo qui fa video?
Poi ogni volta sembra che ci voglia una laurea in ingegneria per ste schede, io ancora non capisco come la mia rulli da un anno senza aver modificato niente.
Angeland
17-08-2018, 16:22
Pioggia di Vega 64 a 300 euro.
https://www.youtube.com/watch?v=BEeoFJFsbq0
Ma come fate a seguire certi personaggi, io a parte Linus non riesco a guardare nessuno, specie se italiano. :D
Gyammy85
17-08-2018, 16:26
Ma come fate a seguire certi personaggi, io a parte Linus non riesco a guardare nessuno, specie se italiano. :D
Vabbè ma l'atteggiamento verso amd è lo stesso. All'estero non è he vada poi meglio, vedi gli youtuber colla fe nel case fiigo piccolino gattino cucciolino con la scheda bella fresca a 82 gradi parboiled?
"no ma 70 in full inaccettabili ci vuole serious tweaking con ste veghe"
"ho la 56 quantebbella e so ggià keffare"
E si va via così...
Ma ancora questo qui fa video?
Poi ogni volta sembra che ci voglia una laurea in ingegneria per ste schede, io ancora non capisco come la mia rulli da un anno senza aver modificato niente.
Lo seguo Saddytech ed è abbastanza pro AMD, tanto che nel suo PC daily ha una 56. Ha comprato queste 4 Vega 64 Reference dalla Cina a 310€ l'una e funzionano perfettamente...
Tasse doganali pagate ? Sennò è evasione fiscale :D
Pare di no. Ha detto che ha acquistato da Gearbest con spedizione priority. Prendo nota :D
Angeland
17-08-2018, 19:29
Poveretti quelli a cui le appiopperà, GPU provenienti direttamente dalla migliori miniere cinesi :D
Poveretti quelli a cui le appiopperà, GPU provenienti direttamente dalla migliori miniere cinesi :D
Sono nuove e probabilmente vengono dalle stesse ditte che hanno prodotto le reference per AMD. Ovviamente sono schede che sono riservate al mercato interno o, al limite, al mercato asiatico in generale. Non mi meraviglierei comunque se l'unica differenza dalla mia Sapphire fosse solo l'adesivo sul blower.
Sono nuove e probabilmente vengono dalle stesse ditte che hanno prodotto le reference per AMD. Ovviamente sono schede che sono riservate al mercato interno o, al limite, al mercato asiatico in generale. Non mi meraviglierei comunque se l'unica differenza dalla mia Sapphire fosse solo l'adesivo sul blower.
E la scatola !!! :sofico:
E la scatola !!! :sofico:
Esatto :D :D :D :D :D :D
Angeland
17-08-2018, 21:51
Sono nuove e probabilmente vengono dalle stesse ditte che hanno prodotto le reference per AMD. Ovviamente sono schede che sono riservate al mercato interno o, al limite, al mercato asiatico in generale. Non mi meraviglierei comunque se l'unica differenza dalla mia Sapphire fosse solo l'adesivo sul blower.
Allora già il discorso cambia, anche se probabilmente saranno con garanzia limitata/assente.
Mi sembra strano comunque che alla dogana non abbiano controllato un colle con 4 pacconi di Vega (quello della liquid è abbastanza possente, non so se cambia qualcosa con le air).
Gyammy85
18-08-2018, 08:39
https://www.youtube.com/watch?v=ndHPlFhH5Ww&feature=youtu.be
Piccolo confronto interessante
https://www.youtube.com/watch?v=ndHPlFhH5Ww&feature=youtu.be
Piccolo confronto interessante
chiedo perchè non me ne intendo molto di frequenze sulle AMD:
in questo confronto la vega 64 che vedo altalentante tra i 1600 ai 1510 è nei suoi valori di default (oc blando del brand) come per la 1080ti, che gli stà comunque davanti, o è già in oc lato utente (spremuta al massimo insomma)?
Gyammy85
18-08-2018, 11:28
chiedo perchè non me ne intendo molto di frequenze sulle AMD:
in questo confronto la vega 64 che vedo altalentante tra i 1600 ai 1510 è nei suoi valori di default (oc blando del brand) come per la 1080ti, che gli stà comunque davanti, o è già in oc lato utente (spremuta al massimo insomma)?
Credo qualcosina più sulle memorie, il core pochino, le liquid a stock stanno fra 1660 e 1700, le air intorno ai 1500-1550
Il nabbo di turno
18-08-2018, 11:29
chiedo perchè non me ne intendo molto di frequenze sulle AMD:
in questo confronto la vega 64 che vedo altalentante tra i 1600 ai 1510 è nei suoi valori di default (oc blando del brand) come per la 1080ti, che gli stà comunque davanti, o è già in oc lato utente (spremuta al massimo insomma)?
1700 mhz per una vega sono praticamente i 2150 mhz di una 1080, non irraggiungibili però oltre è quasi impossibile andarci.
Sfido, come in questi bench, occhio umano a trovare/notare la differenza di 4-5 fps.
Quello che intendo è che uno che vuole prendere una 1080ti od una RX 64, può scegliere tranquillamente in base ai suoi gusti senza guardare gli fps.
Io ho scelto Vega perchè con AMD mi sono sempre trovato bene, per via del Freesync gratis, e perchè volendo un 21:9 VA, il meglio ad oggi è il Samsung CF34 che è Freesync.
Poi questi video, come dico sempre, trovano il tempo che trovano. Ognuno dice la sua, a volte con differenze sostanziali (sia a vantaggio di una che dell'altra).
Inviato dal mio SM-G935F utilizzando Tapatalk
chiedo perchè non me ne intendo molto di frequenze sulle AMD:
in questo confronto la vega 64 che vedo altalentante tra i 1600 ai 1510 è nei suoi valori di default (oc blando del brand) come per la 1080ti, che gli stà comunque davanti, o è già in oc lato utente (spremuta al massimo insomma)?
Beh le memorie sono in oc, 945 base, e nel video sono a 1100, per il core dovrebbe essere in leggero oc (se è la reference)
Credo qualcosina più sulle memorie, il core pochino, le liquid a stock stanno fra 1660 e 1700, le air intorno ai 1500-1550
1700 mhz per una vega sono praticamente i 2150 mhz di una 1080, non irraggiungibili però oltre è quasi impossibile andarci.
Beh le memorie sono in oc, 945 base, e nel video sono a 1100, per il core dovrebbe essere in leggero oc (se è la reference)
ok grazie
SwatMaster
18-08-2018, 22:51
Oh ragazzi, alla fine ho ceduto ed ho ordinato una Vega 64 Red Devil da Amazon UK a 538€ spedita... Mal che vada, se AMD decide di fare qualche ritocco di prezzo, faccio il reso e la riprendo da qualche altra parte.
Comunque se a qualcuno interessa, il prezzo è ancora bloccato.
Specifico che si tratta di preordine perché non è disponibile a magazzino.
Sent from my Moto G (5) Plus using Tapatalk
Annamaria
19-08-2018, 01:55
Ciao, quale software usi per impostare frequenze e voltaggi della tua Vega 64?
Quali frequenze e voltaggi usi per la tua Vega 64 (nei test), core/memorie?
Ciao e grazie.
Al momento, così:
https://s22.postimg.cc/lgouclw3h/VEGASETUP.png (https://postimg.cc/image/lgouclw3h/)[/QUOTE]
Io con le impostazioni da te utilizzate sono sotto i 6000 punti in 4k!
Per avere un punteggio "congruo" ma inferiore al tuo e non di poco, 6230 in 4k devo impostare p6/p7 1040mv e 1070mv (core intorno ai 1580MHz) con temperatura massima intorno ai 76°!
Le ram non ti fanno artefatti @ 1100MHz?
Io per non averli devo impostare 1100MHz con 1100mv (ram Samsung)!
Io con le impostazioni da te utilizzate sono sotto i 6000 punti in 4k!
Per avere un punteggio "congruo" ma inferiore al tuo e non di poco, 6230 in 4k devo impostare p6/p7 1040mv e 1070mv (core intorno ai 1580MHz) con temperatura massima intorno ai 76°!
Le ram non ti fanno artefatti @ 1100MHz?
Io per non averli devo impostare 1100MHz con 1100mv (ram Samsung)!
Non tutte le ram samsung riescono col buco, ricordo che alcune liquid non andavano oltre i 1000.
Il voltaggio sotto la frequenza ram, non è il voltaggio della ram, ma bensì il vsoc, e non lo alzerei a quei livelli, anzi prova ad abbassarlo di qualche step
ninety-five
19-08-2018, 09:16
Al momento, così:
https://s22.postimg.cc/lgouclw3h/VEGASETUP.png (https://postimg.cc/image/lgouclw3h/)
Io con le impostazioni da te utilizzate sono sotto i 6000 punti in 4k!
Per avere un punteggio "congruo" ma inferiore al tuo e non di poco, 6230 in 4k devo impostare p6/p7 1040mv e 1070mv (core intorno ai 1580MHz) con temperatura massima intorno ai 76°!
Le ram non ti fanno artefatti @ 1100MHz?
Io per non averli devo impostare 1100MHz con 1100mv (ram Samsung)!
A me non da nessun tipo di problema. :)
ninety-five
19-08-2018, 11:05
A parte downvolt/OC c'è qualche altra impostazione particolare da usare con vega nel software Radeon?
Gyammy85
19-08-2018, 11:07
A parte downvolt/OC c'è qualche altra impostazione particolare da usare con vega nel software Radeon?
Niente di particolare, togli tutte le ottimizzazioni, metti impostazione applicazione, e qualità trama alta, togli la shader cache.
-=K0B3=-
19-08-2018, 12:21
A me non da nessun tipo di problema. :)
leggevo che la ram conviene metterla a meno di 1050.
Io ho messo 1020, senza sbattermi a fare test.
mv p6 e p7 a 950. Frequenze di default. limite di potenza +50%.
Ventole a default.
Con questi settaggi ho fatto 6606 (lol 666) come bechmark 4K optimized.
A valori base facevo 6118.
Con p6 e p7 a 1000Mv faccio 6379.
Il consumo in watt non lo so, ma dovrebbe essre inferiore :D
Di piu' non mi sono sbattuto e va bene cosi'.
Giusto 10 secondi c'ho perso.
L'incognita adesso sono le nuove shcede Nvidia che escono domani.
Conviene dare indetro la vega64 (nei 30 giorni dall'acquisto), oppure no?
Funziona benissimo, sia inteso, pero' la scimmia rimane comunque eheh
Poi sembra che le 2070 (che usciranno successivamente) costeranno sui 400-500$ e siano pure superiori alle 1080 attuali....quindi alle vega64.
Altrimenti le 2080 che sono superiori alle 1080ti.....ma bisogna vedere consumi e prezzo.
Il vsoc a 1100mv è di default quindi dovrebbe essere un valore sicuro
ehm...sicuro ? nella mia a default sta a 950
Gyammy85
19-08-2018, 13:00
leggevo che la ram conviene metterla a meno di 1050.
Io ho messo 1020, senza sbattermi a fare test.
mv p6 e p7 a 950. Frequenze di default. limite di potenza +50%.
Ventole a default.
Con questi settaggi ho fatto 6606 (lol 666) come bechmark 4K optimized.
A valori base facevo 6118.
Con p6 e p7 a 1000Mv faccio 6379.
Il consumo in watt non lo so, ma dovrebbe essre inferiore :D
Di piu' non mi sono sbattuto e va bene cosi'.
Giusto 10 secondi c'ho perso.
L'incognita adesso sono le nuove shcede Nvidia che escono domani.
Conviene dare indetro la vega64 (nei 30 giorni dall'acquisto), oppure no?
Funziona benissimo, sia inteso, pero' la scimmia rimane comunque eheh
Poi sembra che le 2070 (che usciranno successivamente) costeranno sui 400-500$ e siano pure superiori alle 1080 attuali....quindi alle vega64.
Altrimenti le 2080 che sono superiori alle 1080ti.....ma bisogna vedere consumi e prezzo.
Darla indietro...
:rolleyes:
Legolas84
19-08-2018, 13:12
Darla indietro...
:rolleyes:
dai non fare così :vicini:
Roland74Fun
19-08-2018, 13:16
L'incognita adesso sono le nuove shcede Nvidia che escono domani.
Conviene dare indetro la vega64 (nei 30 giorni dall'acquisto), oppure no?
Ma scherzi? Reso subito senza se e senza ma. Esce la roba nuova che va di più a minor prezzo e ti tieni le cose vecchie? Rimandala indietro che tanto quelli troveranno qualcuno a cui rifilarla.
ninety-five
19-08-2018, 13:16
Niente di particolare, togli tutte le ottimizzazioni, metti impostazione applicazione, e qualità trama alta, togli la shader cache.
Teoricamente, così:
https://s22.postimg.cc/3yjkjdvzh/radeon.png (https://postimg.cc/image/3yjkjdvzh/)
Grazie!
Gyammy85
19-08-2018, 14:05
Teoricamente, così:
https://s22.postimg.cc/3yjkjdvzh/radeon.png (https://postimg.cc/image/3yjkjdvzh/)
Grazie!
Nel campo della modalità tessellazione metti usare impostazione dell'applicazione
Nel campo vsync setta sincronizzazione ottimizzata così sfrutti l'esync
Come mai tieni frtc a 142 e non 144?
ninety-five
19-08-2018, 14:50
Nel campo della modalità tessellazione metti usare impostazione dell'applicazione
Nel campo vsync setta sincronizzazione ottimizzata così sfrutti l'esync
Come mai tieni frtc a 142 e non 144?
Modificato.
Metto 142 perchè in tutte le gue del freesync ho letto di tenere gli Hz del monitor -1.
Però, se setto a 144 ogni tanto ho degli sbalzi a 146.
Se metto 142 al massimo arrivo a 144 quindi in pienbo range...tutto qui.
Credevo fosse giusto così :D
macchiaiolo
19-08-2018, 15:52
Niente di particolare, togli tutte le ottimizzazioni, metti impostazione applicazione, e qualità trama alta, togli la shader cache.Ciao come mai è meglio disattivare lo shader cache? Che fa?
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Ciao come mai è meglio disattivare lo shader cache? Che fa?
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
http://support.amd.com/en-us/kb-articles/Pages/DH-012.aspx
:D
Gyammy85
19-08-2018, 16:12
Ciao come mai è meglio disattivare lo shader cache? Che fa?
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
In parole povere dovrebbe precaricare alcuni shader o altre cose, per abbreviare i tempi di caricamento dei giochi, non dà vantaggi prestazionali, però di solito la si tiene disattivata...
Annamaria
19-08-2018, 16:39
Pure la mia 64 rientra nei 30 giorni, in teoria, potrei rimandarla da loro e prendermi una 2080 magari pagandola meno; in questi anni mi sono sempre trovato bene con AMD, con il loro supporto driver che supporta ancora, ufficialmente la 7870, vetusta, la stessa cosa non si può dire per la mia precedente Classy 980!
Economicamente e prospettive future, sarebbe una scelta nemmeno troppo azzardata rendere la 64 per una 2080 ma mi spaventa da qui a due anni, con l'ipotetica 3080 mi ritroverei come con la 980, con la Vega sto tranquillo almeno per 4 anni ancora, riguardo il supporto, altro che scheda legacy!
bagnino89
19-08-2018, 16:46
Pure la mia 64 rientra nei 30 giorni, in teoria, potrei rimandarla da loro e prendermi una 2080 magari pagandola meno; in questi anni mi sono sempre trovato bene con AMD, con il loro supporto driver che supporta ancora, ufficialmente la 7870, vetusta, la stessa cosa non si può dire per la mia precedente Classy 980!
Economicamente e prospettive future, sarebbe una scelta nemmeno troppo azzardata rendere la 64 per una 2080 ma mi spaventa da qui a due anni, con l'ipotetica 3080 mi ritroverei come con la 980, con la Vega sto tranquillo almeno per 4 anni ancora, riguardo il supporto, altro che scheda legacy!Questa è pura disinformazione. Al contrario, Nvidia supporta schede molto più vecchie di quanto faccia AMD. Il decadimento delle prestazioni via driver è una totale leggenda metropolitana, ideata dai fanboy Rossi per giustificare in qualche modo "l'arretratezza" di AMD rispetto ad Nvidia negli ultimi anni.
Annamaria
19-08-2018, 16:58
Questa è pura disinformazione. Al contrario, Nvidia supporta schede molto più vecchie di quanto faccia AMD. Il decadimento delle prestazioni via driver è una totale leggenda metropolitana, ideata dai fanboy Rossi per giustificare in qualche modo "l'arretratezza" di AMD rispetto ad Nvidia negli ultimi anni.
Non sono fan di nessuno, solo del mio portafogli, con la mia GTX 980 Classified mi sono ritrovato una scheda pseudo legacy e/o comunque, i difetti che avevo con Fallout 4, vari, me li sono portati dietro fino alla sua vendita nonostante aggiornassi sempre i driver alla versione successiva; quindi secondo te, uno che abbia una 1080 o 1080 ti che NVidia stessa con la sigla GTX rispetto alla nuova RTX, lascia capire siano sorpassate, con il supporto alle dx12 delle nuove rispetto alle precedenti, può starsene tranquillo?
Io la mia Evga 980 la venditti nonostante fosse una pseudo legacy e ne bech grazie anche all'overclock ("silenziosissimo" peraltro) facesse :eek: ma sono pieno di difetti io, con una vga voglio giocare!
Ciao e senza polemica.
Legolas84
19-08-2018, 17:10
Questa è pura disinformazione. Al contrario, Nvidia supporta schede molto più vecchie di quanto faccia AMD. Il decadimento delle prestazioni via driver è una totale leggenda metropolitana, ideata dai fanboy Rossi per giustificare in qualche modo "l'arretratezza" di AMD rispetto ad Nvidia negli ultimi anni.
Sul serio, non ti lanciare in questo discorso lascia perdere, non ne vale la pena. ;)
Leggiti le pagine indietro e capirai che direzioni ha preso questo thread fin dall'inizio.
Ci vorrebbe un avviso al primo post sull'onestà intellettuale :asd:
techfede
19-08-2018, 17:17
Pure la mia 64 rientra nei 30 giorni, in teoria, potrei rimandarla da loro e prendermi una 2080 magari pagandola meno; in questi anni mi sono sempre trovato bene con AMD, con il loro supporto driver che supporta ancora, ufficialmente la 7870, vetusta, la stessa cosa non si può dire per la mia precedente Classy 980!
Economicamente e prospettive future, sarebbe una scelta nemmeno troppo azzardata rendere la 64 per una 2080 ma mi spaventa da qui a due anni, con l'ipotetica 3080 mi ritroverei come con la 980, con la Vega sto tranquillo almeno per 4 anni ancora, riguardo il supporto, altro che scheda legacy!
Solo un appunto, ricordiamoci dei prezzi gonfiati a qualunque lancio di nuovo hardware, e nel caso della serie xx80 nvidia (se mancante la versione Ti), dell'ulteriore rincaro per "scheda più veloce sul mercato".
Questo per dire che sì, magari una 2080 la troverai a meno di una vega, ma chissà tra quanto tempo.
Legolas84
19-08-2018, 17:20
Solo un appunto, ricordiamoci dei prezzi gonfiati a qualunque lancio di nuovo hardware, e nel caso della serie xx80 nvidia (se mancante la versione Ti), dell'ulteriore rincaro per "scheda più veloce sul mercato".
Questo per dire che sì, magari una 2080 la troverai a meno di una vega, ma chissà tra quanto tempo.
Direi che è impossibile che una 2080 costi meno di una VEGA.... VEGA 64 è una 1080 liscia e la 2080 dovrebbe andare di più di una 1080 Ti (non si sa di quanto da poco di più a il 20% in più). Con l'uscita di Turing tutte le schede attuali scenderanno di prezzo. A meno che Turing non esca con prezzi superiori alla 1080Ti.....
bagnino89
19-08-2018, 17:35
Non sono fan di nessuno, solo del mio portafogli, con la mia GTX 980 Classified mi sono ritrovato una scheda pseudo legacy e/o comunque, i difetti che avevo con Fallout 4, vari, me li sono portati dietro fino alla sua vendita nonostante aggiornassi sempre i driver alla versione successiva; quindi secondo te, uno che abbia una 1080 o 1080 ti che NVidia stessa con la sigla GTX rispetto alla nuova RTX, lascia capire siano sorpassate, con il supporto alle dx12 delle nuove rispetto alle precedenti, può starsene tranquillo?
Io la mia Evga 980 la venditti nonostante fosse una pseudo legacy e ne bech grazie anche all'overclock ("silenziosissimo" peraltro) facesse :eek: ma sono pieno di difetti io, con una vga voglio giocare!
Ciao e senza polemica.
1) Le 980 e in generale le Maxwell vanno ancora benissimo e il discorso legacy è stato totalmente frainteso dai fanboy rossi. Per chiudere rapidamente la questione:
https://www.youtube.com/watch?v=GBkGu4Wd7vg&t=
2) Che difetti avevi con Fallout 4? Come fai a dire dipendessero dalle 980 in generale? Io con F4 non ho avuto problemi né con la 970, né con l'attuale 1080.
3) Io ho una 1080 e sto tranquillissimo, ogni nuova generazione di GPU porta migliori performance ma da domani la mia scheda non smette di funzionare con i giochi e le sue performance non verranno diminuite di proposito. Il supporto alle DX12 è ancora tutto da vedere, ad oggi non ci sono info a riguardo. Ma il discorso non cambia, stai facendo disinformazione.
Sul serio, non ti lanciare in questo discorso lascia perdere, non ne vale la pena. ;)
Leggiti le pagine indietro e capirai che direzioni ha preso questo thread fin dall'inizio.
Ci vorrebbe un avviso al primo post sull'onestà intellettuale :asd:
Hai ragione, ma è insopportabile leggere cose del genere. Purtroppo la moderazione c'è solo per i toni e cavolate varie come le firme, ma per le questioni tecniche è del tutto inesistente e si può scrivere di tutto.
Il downvolt su RX Vega è senz'altro il sistema giusto per migliorare l'efficienza di queste schede cioè migliorare il rapporto prestazioni/consumi, ammesso che il chip in nostro possesso abbia le qualità per consentirlo.
Ma da dirlo a farlo correttamente è necessario conoscere alcune caratteristiche del bios e l'articolo a cui fate riferimento per i settaggi è come minimo superficiale e non tiene conto appunto di come è strutturato il bios (mi riferisco alle schede reference) ed in particolare alla tabella Soft Power Play.
Il punto cruciale sta nel fatto che quella che in Wattman viene indicata come tensione delle HBM2 è in realtà la tensione minima a cui opererà la scheda (meno il Vdroop ovviamente) sotto carico pesante; ma anche e ancora più importante a quale Pstate della GPU verrà abbinato il relativo Pstate delle HBM2.
A questo punto intervengono le differenze fra 56 e 64 (parlo di quelle con il blower):
GPU 56________HBM2
P0__800 mV____P0__800 mV__167 MHz
P1__900 mv____P1__800 mV__500 MHz
P2__950 mV____P2__900 mV__700 MHz
P3_1000 mV____P3__950 mV__800 MHz
P4_1050 mV
P5_1100 mV
P6_1150 mV
P7_1200 mV
I valori di tensione per i vari Pstate delle HBM2 indicano che le memorie opereranno alle frequenze di 167 o 500 MHz quando la GPU opera al suo P0 (idle), alla frequenza di 700 MHz quando la GPU è al P1 e ad 800 MHz quando la GPU è al P2 o superiori.
Impostando su una RX 56 il P6 e il P7 (gli unici modificabili da Wattman) a 950 mV avremo un effettivo downvolt ma solo sotto carico pesante; se la GPU si trovasse ad operare dal P3 al P5 le tensioni sarebbero quelle stock cioè da 1000 a 1100 mV.
GPU 64________HBM2
P0__800 mV____P0__800 mV__167 MHz
P1__900 mv____P1__800 mV__500 MHz
P2__950 mV____P2__950 mV__800 MHz
P3_1000 mV____P3_1100 mV__945 MHz (in alcuni bios 1050 mV)
P4_1050 mV
P5_1100 mV
P6_1150 mV
P7_1200 mV
Impostando su una RX 64 il P6 e il P7 (gli unici modificabili da Wattman) a 950 mV in relatà il downvolt effettivo sotto carico pesante sarà a 1100 mV (P3 delle HBM2), se vogliamo scendere dobbiamo abbassare il falso voltaggio delle memorie (P3) ed il valore minimo sarà 951 che restituisce comunque un VID valido di 956,25 mV quindi tanto vale impostare 956 sia per il P6 che il P7 della GPU (ma quasi certamente dovremo abbassare le relative frequenze) sia per il P3 delle HBM2; se la GPU si trovasse ad operare dal P3 al P5 le tensioni sarebbero quelle stock cioè da 1000 a 1100 mV.
La tensione del P3 delle memorie (l'unica modificabile da Wattman) può essere impostata anche per esempio a 850 mV, questo ci consentirebbe di abbassare ancora i voltaggi del p6 e P7 GPU ma ci ritroveremo con un pò di confusione fra l'abbinamento dei Pstate HBM2 ai Pstate GPU.
Per quanto riguarda la versione Liquid Cooled posso solo affermare che gli abbinamenti HBM2 - GPU sono uguali alla 56!
In conclusione se si vuole eseguire un downvolt effettivo su tutti i Pstate di GPU e HBM2 l'unica soluzione (per ora) è inserire una tabella SoftPowerPlayTable nel registro di sistema (possiamo approfondire se volete).
Ultima nota e mi scuso per la lungaggine:
Relativamente alle schede reference con memorie Samsung la tabella del bios Vram Info contiene, sia per la 56 che per la 64, cinque frequenze con relativi timings:
3C 41 00 00> little-endian>__16700 = 167 MHz
30 75 00 00> little-endian>__30000 = 300 MHz
50 C3 00 00> little-endian>__50000 = 500 MHz
80 38 01 00> little-endian>__80000 = 800 MHz
A0 86 01 00> little-endian>_100000 = 1000 MHz
Sia chiaro che non è mia intenzione impartire lezioni a nessuno ma volevo semplicemente condividere le informazioni che ho reperito e le mie esperienze con la scheda che possiedo.
Ciao.
Legolas84
19-08-2018, 17:43
Hai ragione, ma è insopportabile leggere cose del genere. Purtroppo la moderazione c'è solo per i toni e cavolate varie come le firme, ma per le questioni tecniche è del tutto inesistente e si può scrivere di tutto.
Se questo fosse un forum tecnico servirebbe un moderatore con anche un minimo di competenza nella materia (ovvero gente come mikael o ren). Ma questo forum non ha più la pretesa di essere un forum tecnico da tanto tempo ormai. Quindi si, si può scrivere tutto quello che si vuole basta usare toni adeguati (e alle volte nemmeno questo).
Sta a chi si vuole informare essere in grado di farlo al di fuori di thread come questo ;)
ninety-five
19-08-2018, 17:51
Il downvolt su RX Vega è senz'altro il sistema giusto per migliorare l'efficienza di queste schede cioè migliorare il rapporto prestazioni/consumi, ammesso che il chip in nostro possesso abbia le qualità per consentirlo.
Ma da dirlo a farlo correttamente è necessario conoscere alcune caratteristiche del bios e l'articolo a cui fate riferimento per i settaggi è come minimo superficiale e non tiene conto appunto di come è strutturato il bios (mi riferisco alle schede reference) ed in particolare alla tabella Soft Power Play.
Il punto cruciale sta nel fatto che quella che in Wattman viene indicata come tensione delle HBM2 è in realtà la tensione minima a cui opererà la scheda (meno il Vdroop ovviamente) sotto carico pesante; ma anche e ancora più importante a quale Pstate della GPU verrà abbinato il relativo Pstate delle HBM2.
A questo punto intervengono le differenze fra 56 e 64 (parlo di quelle con il blower):
GPU 56________HBM2
P0__800 mV____P0__800 mV__167 MHz
P1__900 mv____P1__800 mV__500 MHz
P2__950 mV____P2__900 mV__700 MHz
P3_1000 mV____P3__950 mV__800 MHz
P4_1050 mV
P5_1100 mV
P6_1150 mV
P7_1200 mV
I valori di tensione per i vari Pstate delle HBM2 indicano che le memorie opereranno alle frequenze di 167 o 500 MHz quando la GPU opera al suo P0 (idle), alla frequenza di 700 MHz quando la GPU è al P1 e ad 800 MHz quando la GPU è al P2 o superiori.
Impostando su una RX 56 il P6 e il P7 (gli unici modificabili da Wattman) a 950 mV avremo un effettivo downvolt ma solo sotto carico pesante; se la GPU si trovasse ad operare dal P3 al P5 le tensioni sarebbero quelle stock cioè da 1000 a 1100 mV.
GPU 64________HBM2
P0__800 mV____P0__800 mV__167 MHz
P1__900 mv____P1__800 mV__500 MHz
P2__950 mV____P2__950 mV__800 MHz
P3_1000 mV____P3_1100 mV__945 MHz (in alcuni bios 1050 mV)
P4_1050 mV
P5_1100 mV
P6_1150 mV
P7_1200 mV
Impostando su una RX 64 il P6 e il P7 (gli unici modificabili da Wattman) a 950 mV in relatà il downvolt effettivo sotto carico pesante sarà a 1100 mV (P3 delle HBM2), se vogliamo scendere dobbiamo abbassare il falso voltaggio delle memorie (P3) ed il valore minimo sarà 951 che restituisce comunque un VID valido di 956,25 mV quindi tanto vale impostare 956 sia per il P6 che il P7 della GPU (ma quasi certamente dovremo abbassare le relative frequenze) sia per il P3 delle HBM2; se la GPU si trovasse ad operare dal P3 al P5 le tensioni sarebbero quelle stock cioè da 1000 a 1100 mV.
La tensione del P3 delle memorie (l'unica modificabile da Wattman) può essere impostata anche per esempio a 850 mV, questo ci consentirebbe di abbassare ancora i voltaggi del p6 e P7 GPU ma ci ritroveremo con un pò di confusione fra l'abbinamento dei Pstate HBM2 ai Pstate GPU.
Per quanto riguarda la versione Liquid Cooled posso solo affermare che gli abbinamenti HBM2 - GPU sono uguali alla 56!
In conclusione se si vuole eseguire un downvolt effettivo su tutti i Pstate di GPU e HBM2 l'unica soluzione (per ora) è inserire una tabella SoftPowerPlayTable nel registro di sistema (possiamo approfondire se volete).
Ultima nota e mi scuso per la lungaggine:
Relativamente alle schede reference con memorie Samsung la tabella del bios Vram Info contiene, sia per la 56 che per la 64, cinque frequenze con relativi timings:
3C 41 00 00> little-endian>__16700 = 167 MHz
30 75 00 00> little-endian>__30000 = 300 MHz
50 C3 00 00> little-endian>__50000 = 500 MHz
80 38 01 00> little-endian>__80000 = 800 MHz
A0 86 01 00> little-endian>_100000 = 1000 MHz
Sia chiaro che non è mia intenzione impartire lezioni a nessuno ma volevo semplicemente condividere le informazioni che ho reperito e le mie esperienze con la scheda che possiedo.
Ciao.Molto interessante...Se vuoi/puoi approfondire io sono contento :D
Andy1111
19-08-2018, 21:11
Il downvolt su RX Vega è senz'altro il sistema giusto per migliorare l'efficienza di queste schede cioè migliorare il rapporto prestazioni/consumi, ammesso che il chip in nostro possesso abbia le qualità per consentirlo.
…….
Sia chiaro che non è mia intenzione impartire lezioni a nessuno ma volevo semplicemente condividere le informazioni che ho reperito e le mie esperienze con la scheda che possiedo.
Ciao.
Verissimo oltre al SoftPowerPlayTable che magari può rimanere più ostico c'è OverdriveNT 0.2.7 Beta4 che integra appunto il softpowerplaytable
https://forums.guru3d.com/threads/overdriventool-tool-for-amd-gpus.416116/page-20#post-5562451
mia vega 56 col bios della 64
GPU_P0=852;800
GPU_P1=991;820
GPU_P2=1084;850
GPU_P3=1138;880
GPU_P4=1200;900
GPU_P5=1401;1030
GPU_P6=1600;1040
GPU_P7=1640;950
Mem_P0=167;800
Mem_P1=500;800
Mem_P2=800;850
Mem_P3=1100;950
Perché hai il p7 più basso del p6?Verissimo oltre al SoftPowerPlayTable che magari può rimanere più ostico c'è OverdriveNT 0.2.7 Beta4 che integra appunto il softpowerplaytable
https://forums.guru3d.com/threads/overdriventool-tool-for-amd-gpus.416116/page-20#post-5562451
mia vega 56 col bios della 64
GPU_P0=852;800
GPU_P1=991;820
GPU_P2=1084;850
GPU_P3=1138;880
GPU_P4=1200;900
GPU_P5=1401;1030
GPU_P6=1600;1040
GPU_P7=1640;950
Mem_P0=167;800
Mem_P1=500;800
Mem_P2=800;850
Mem_P3=1100;950
Inviato dal mio LG-H870 utilizzando Tapatalk
Andy1111
19-08-2018, 23:49
Perché hai il p7 più basso del p6?
Inviato dal mio LG-H870 utilizzando Tapatalk
Avevo provato a fare un po di prove ispirandomi a questo articolo
https://www.bitsandchips.it/9-hardware/10413-amd-vega-efficienza-di-una-gtx1080-possibile?showall=1
Dopo diverse prove ero arrivato a questo https://www.hwupgrade.it/forum/showpost.php?p=45674614&postcount=12859
Successivamente usando OverdriveNtool e modificato anche gli altri pstate se mettevo p7 e p3 delle mem a 950 avevo la combinazione migliore per me consumi buoni e frequenze che stavano sui 1600 con picchi a 1610
ninety-five
20-08-2018, 14:18
Verissimo oltre al SoftPowerPlayTable che magari può rimanere più ostico c'è OverdriveNT 0.2.7 Beta4 che integra appunto il softpowerplaytable
https://forums.guru3d.com/threads/overdriventool-tool-for-amd-gpus.416116/page-20#post-5562451
mia vega 56 col bios della 64
GPU_P0=852;800
GPU_P1=991;820
GPU_P2=1084;850
GPU_P3=1138;880
GPU_P4=1200;900
GPU_P5=1401;1030
GPU_P6=1600;1040
GPU_P7=1640;950
Mem_P0=167;800
Mem_P1=500;800
Mem_P2=800;850
Mem_P3=1100;950
Interessante, come si utilizza?
macchiaiolo
20-08-2018, 14:22
Giovani , ma un fx 9590 occato mi regge una vega 64? O è meglio lasciar perdere? Ho già una fury e vorrei fare il cambio... tenete presente che gioco dal 2k in su.. nn mi interessa fare 300 fps in fhd
Thanks!
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Roland74Fun
20-08-2018, 14:32
Alcuni titoli magari si. Quelli sfruttano bene le cpu ad es quelli in vulkan o vere dx12 (es the division tomb raider, hitman).
Per altri in dx11 ho scoperto che i drivers delle schede video delle altre marche riescono sfruttare meglio queste cpu.
Comunque intanto puoi prendere la scheda se vuoi cambiare.
Ma come lo reggi un sistema 9590 pc +Vega 64? :eek:
Angeland
20-08-2018, 14:53
Giovani , ma un fx 9590 occato mi regge una vega 64? O è meglio lasciar perdere? Ho già una fury e vorrei fare il cambio... tenete presente che gioco dal 2k in su.. nn mi interessa fare 300 fps in fhd
Thanks!
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Giocando in 2k sicuramente la GPU ne risentirebbe di meno (almeno che tu voglia sfruttare un pannello da 144 hz ad esempio).
Non otterresti il massimo potenziale dalla Vega, ma imho nulla di eccessivamente preoccupante (ovviamente la cpu sarebbe il prossimo upgrade da effettuare)
Questa è pura disinformazione. Al contrario, Nvidia supporta schede molto più vecchie di quanto faccia AMD. Il decadimento delle prestazioni via driver è una totale leggenda metropolitana, ideata dai fanboy Rossi per giustificare in qualche modo "l'arretratezza" di AMD rispetto ad Nvidia negli ultimi anni.
Nessun gombloddo
Sta storia usci con le prime rece di tw3 dove kepler sembrava una geforce 2 e un sacco di utenti verdi che non avevano la maxwell nuova ribaltarono l’internette minacciando cause legali boicottaggi (ovviamente poi mai avvenuti) vedendo una 780ti da mille euri sei mesi prima andare come una 960 da 200
La stessa nvidia si scuso mettendosi al riparo quindi qualcosa di sbagliato lo fecero
Poi si è capito come mai (tessellazione uber e architettura kepler inadatta)
Ma ormai la shitstorm parti e finì con molti che acquistarono maxwell (prendi la 970 al posto della 780 che hai anche un gb di ram in più!!!!:asd: )con il sorriso un’ora dopo aver annunciato di boicottare nvidia :asd:
ninety-five
20-08-2018, 15:15
Ne approfitto anch'io.
Tornato dalle vacanze sto finalmente provando il pc e la gpu nuova.
Probabilmente devo ancora trovare il settaggio ideale però noto che giocando a Bf1 e R6 siege a 144Hz in FHD ho dei cali di FPS che mi causano dei microlag.
È un problema della CPU (R5 1600 a 4.0Ghz) che non regge?
Sarebbe meglio passare ad un monitor 2K 144Hz?
O è altro?
:)
Gyammy85
20-08-2018, 15:22
Ne approfitto anch'io.
Tornato dalle vacanze sto finalmente provando il pc e la gpu nuova.
Probabilmente devo ancora trovare il settaggio ideale però noto che giocando a Bf1 e R6 siege a 144Hz in FHD ho dei cali di FPS che mi causano dei microlag.
È un problema della CPU (R5 1600 a 4.0Ghz) che non regge?
Sarebbe meglio passare ad un monitor 2K 144Hz?
O è altro?
:)
Che intendi dire?
Credo sia fisiologico...se per fare 60 fissi in media devi farne 90-100, per farne 144 fissi sempre e comunque dovresti stare tipo a 200 in media imho, normale qualche micro calo...certo a 2k sfrutteresti molto meglio la scheda.
Ne approfitto anch'io.
Tornato dalle vacanze sto finalmente provando il pc e la gpu nuova.
Probabilmente devo ancora trovare il settaggio ideale però noto che giocando a Bf1 e R6 siege a 144Hz in FHD ho dei cali di FPS che mi causano dei microlag.
È un problema della CPU (R5 1600 a 4.0Ghz) che non regge?
Sarebbe meglio passare ad un monitor 2K 144Hz?
O è altro?
:)
Giusto per....controlla la frequenza delle memorie quando ti capita.
Con RE7 ho lo stesso problema perchè le memorie scendono di pstate, risolvo mettendo l'ultimo pstate come min/max
ninety-five
20-08-2018, 15:28
Che intendi dire?
Credo sia fisiologico...se per fare 60 fissi in media devi farne 90-100, per farne 144 fissi sempre e comunque dovresti stare tipo a 200 in media imho, normale qualche micro calo...certo a 2k sfrutteresti molto meglio la scheda.
Il calo teoricamente non è un problema...inteso come numero di FPS.
Il problema è che durante questi casi c'è un microfreeze.
Succede passando da 144 a 130 quindi niente di enorme.
Con la vecchia Rx580 quando avevo dei casi anche grazie al freesync restavo sempre e comunque fluido...non vorrei fosse un limite della CPU :confused:
Giusto per....controlla la frequenza delle memorie quando ti capita.
Con RE7 ho lo stesso problema perchè le memorie scendono di pstate, risolvo mettendo l'ultimo pstate come min/max
Prima di smanettare ancora vorrei capire bene cosa fare :D
Angeland
20-08-2018, 15:36
Ne approfitto anch'io.
Tornato dalle vacanze sto finalmente provando il pc e la gpu nuova.
Probabilmente devo ancora trovare il settaggio ideale però noto che giocando a Bf1 e R6 siege a 144Hz in FHD ho dei cali di FPS che mi causano dei microlag.
È un problema della CPU (R5 1600 a 4.0Ghz) che non regge?
Sarebbe meglio passare ad un monitor 2K 144Hz?
O è altro?
:)
ot: un 1600 @4.00ghz a 1.275V è il miglior esemplare della storia :D
ninety-five
20-08-2018, 15:57
ot: un 1600 @4.00ghz a 1.275V è il miglior esemplare della storia :D
Abbastanza fortunato sì.
Posso tenerlo a 3.8Ghz a 1.125V o a 4.0Ghz a 1.275V.
il 1600 che ha mio fratello regge i 3.8 con 1.38V :muro:
-=K0B3=-
20-08-2018, 18:18
GEFORCE RTX 2080 Founders edition: 869 Euro!!!
AHAHHAHAHAHA :mc: :mc: :mc: :mc: :mc:
https://www.nvidia.it/geforce/graphics-cards/rtx-2080/
Jeetkundo
20-08-2018, 18:22
GEFORCE RTX 2080 Founders edition: 869 Euro!!!
AHAHHAHAHAHA :mc: :mc: :mc: :mc: :mc:
https://www.nvidia.it/geforce/graphics-cards/rtx-2080/Io punterei alla 2080ti ;)
Sent from my MI 6 using Tapatalk
-=K0B3=-
20-08-2018, 18:26
Io punterei alla 2080ti ;)
Sent from my MI 6 using Tapatalk
quella manco la linko per decenza. 1279 Euro
Con il prossimo anno che escono le 7 nm, e nessun gioco e/o monitor attuale con cui vale la pena usarla LOLOLOLOLOL
Gyammy85
20-08-2018, 18:29
Buonanotte, ora il thread diventa lo sfogatoio di quelli che la vogliono ma non possono...
Comunque dai, costa solo un terzo della titan a sto giro, di solito costa la metà.
Ovviamente neanche uno straccio di bench, mica è aemmeddi...
bagnino89
20-08-2018, 18:36
Buonanotte, ora il thread diventa lo sfogatoio di quelli che la vogliono ma non possono...
Comunque dai, costa solo un terzo della titan a sto giro, di solito costa la metà.
Ovviamente neanche uno straccio di bench, mica è aemmeddi...
Tranquillo, di là stanno già facendo preorder "sulla carta" :asd:
Gyammy85
20-08-2018, 18:45
Tranquillo, di là stanno già facendo preorder "sulla carta" :asd:
Andando avanti così possono mettere direttamente una mela sul pcb
Ma quindi ora il 3dmark serra può uscire o gli fp16 sono una feature riservata alle quadro?
Gyammy85
20-08-2018, 18:52
Fp16 1 gioco in due anni lol... Su RT mi pare ne abbiamo già annunciati 5.
Ma si dai, l'importante è continuare a negare l'evidenza
Roland74Fun
20-08-2018, 19:10
Ma si dai, l'importante è continuare a negare l'evidenzaPerché? Cosa è successo? Hanno presentato le nuove schede video? Io purtroppo non ho seguito tanto.... sto sempre a giocare... :( :(
bagnino89
20-08-2018, 19:14
Fp16 1 gioco in due anni lol... Su RT mi pare ne abbiamo già annunciati 5.
:asd:
AceGranger
20-08-2018, 19:16
Ma si dai, l'importante è continuare a negare l'evidenza
quale evidenza ? che parli di super feature che non conosci ? :asd:
Legolas84
20-08-2018, 19:19
Ma si dai, l'importante è continuare a negare l'evidenza
:vicini:
Lunar Wolf
20-08-2018, 19:25
Ma si dai, l'importante è continuare a negare l'evidenzaRitorno nel club... A breve mi arriva una Vega 56 svenduta da uno per le nuove Nvidia :)
Jeetkundo
20-08-2018, 19:29
Tranquillo, di là stanno già facendo preorder "sulla carta" :asd:
Alla fine sono adulti e vaccinati, possono decidere cosa comprare o no. Invece dell'iphone X comprano una 2080ti :)
Lunar Wolf
20-08-2018, 19:29
Ma sembra a me o costano uno sproposito ?Per un gamer si... Ce tanta potenza nascosta sotto quel cofano...
-=K0B3=-
20-08-2018, 19:31
Ma sembra a me o costano uno sproposito ?
la gente e' deficente.
Sul sito nvidia la 2070 a 650 euro e' gia esaurita. XDXD
Senza sapere NULLA riguardo le prestazioni :)
ma sai.. ha il ray tracing!!!! :fagiano: :fagiano: wowowowwo!!! su 3 giochi, che gireranno a 30 fps in 4k :ciapet:
Angeland
20-08-2018, 19:33
Ritorno nel club... A breve mi arriva una Vega 56 svenduta da uno per le nuove Nvidia :)
Questo è il momento migliore per fare affari (a chi serve una gpu)
Ricordo che all'uscita delle Pascal la gente passava dalla 980ti alla 1070 :sofico:
macchiaiolo
20-08-2018, 19:59
Appena comprato la vega 64 red devil !!!! Arriverà a breve... con il mio 9590 occato ho dovuto comprare delle barre di plutonio dal mercato nero per l'energia nucleare 😂😁😂😁
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Appena comprato la vega 64 red devil !!!! Arriverà a breve... con il mio 9590 occato ho dovuto comprare delle barre di plutonio dal mercato nero per l'energia nucleare 😂😁😂😁
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Occhio, che arriva il Dottor Emmett Brown e te le ruba per tornare nel passato ed evitarti l'acquisto della Vega :sofico:
Gyammy85
20-08-2018, 20:29
la gente e' deficente.
Sul sito nvidia la 2070 a 650 euro e' gia esaurita. XDXD
Senza sapere NULLA riguardo le prestazioni :)
ma sai.. ha il ray tracing!!!! :fagiano: :fagiano: wowowowwo!!! su 3 giochi, che gireranno a 30 fps in 4k :ciapet:
Eh ma il raytracing mica lo puoi fare con le cu, ci vogliono le unità dedicate, lisa se lo è segnato, lo sta scrivendo 1000 volte sulla lavagna
Roland74Fun
20-08-2018, 20:30
Ritorno nel club... A breve mi arriva una Vega 56 svenduta da uno per le nuove Nvidia :)
Appena comprato la vega 64 red devil !!!! Arriverà a breve.....
Ma daiii... buttate i soldi così proprio quando annunciano la robba nuovaaaa.... :eek: :eek:
Ma sembra a me o costano uno sproposito ?Finchè c'è gente a cui piace farsi spennare, quelli di nvidia fanno pure bene, affaristicamente parlando...
Notare anche gli 85euro per il "ponticello sli", senza dimenticare i 200 e passa euro sui monitor gsync...
:asd:
Inviato dal mio SM-G935F utilizzando Tapatalk
AceGranger
20-08-2018, 20:49
Eh ma il raytracing mica lo puoi fare con le cu, ci vogliono le unità dedicate, lisa se lo è segnato, lo sta scrivendo 1000 volte sulla lavagna
da bench AMD, la tua amata VEGA mediamente calcola fra i 300 e i 400 Milioni di raggi al secondo :asd:, e se li usi per quello, i tuoi amati cu non calcolano una fava di altro
pedala pedala
Gyammy85
20-08-2018, 20:49
Finchè c'è gente a cui piace farsi spennare, quelli di nvidia fanno pure bene, affaristicamente parlando...
Notare anche gli 85euro per il "ponticello sli", senza dimenticare i 200 e passa euro sui monitor gsync...
:asd:
Inviato dal mio SM-G935F utilizzando Tapatalk
EHHHHH????
No vabbè, non ci voglio credere.
Cioè amd è bridgeless da diversi anni, questi qui ti fanno pagare un ponticello da 2 cent 85 euro????
Ho capito tutto mi sa, proprio tutto, quando faranno magliette e genius store chiamatemi.
Gyammy85
20-08-2018, 20:51
da bench AMD, la tua amata VEGA mediamente calcola fra i 300 e i 400 Milioni di raggi al secondo :asd:, e se li usi per quello, i tuoi amati cu non calcolano una fava di altro
pedala pedala
Potremmo fare 32 cu che fanno il ray quando c'è da fare il ray, poi quando non c'è toh, di nuovo a renderizzare, e nella scena del bacio, toh possiamo usarle tutte per il ray. Ah già, con le unità dedicate non si può fare così, chiedo venia...
Gyammy85
20-08-2018, 20:54
Vabbè dai chiudiamo con le polemiche, inutile andare sempre OT
Il nabbo di turno
20-08-2018, 20:54
Potremmo fare 32 cu che fanno il ray quando c'è da fare il ray, poi quando non c'è toh, di nuovo a renderizzare, e nella scena del bacio, toh possiamo usarle tutte per il ray. Ah già, con le unità dedicate non si può fare così, chiedo venia...
Si e le altre cu a ballare il valzer...
Gyammy85
20-08-2018, 21:01
Si e le altre cu a ballare il valzer...
Pensala come vuoi ma il concetto è quello. Nel 2008 amd mostrò con la techdemo march of the froblins che con sole 800 alu di diverse generazioni fa, era possibile calcolare effetti volumetrici particellari e un gran numero (mi pare 10.000) di personaggi in movimento, compresa l'ia, che gravava sulla gpu (si evitavano a vicenda e reagivano in tempo reale in base agli stimoli esterni), il tutto condito con un sistema avanzato (per l'epoca) di rendering delle ombre sfruttando le dx10.1.
Pensa gli stessi principi applicati su un'architettura altamente parallelizzata come vega di diversi ordini di grandezza superiore ad una 4870.
Il nabbo di turno
20-08-2018, 21:05
Pensala come vuoi ma il concetto è quello. Nel 2008 amd mostrò con la techdemo march of the froblins che con sole 800 alu di diverse generazioni fa, era possibile calcolare effetti volumetrici particellari e un gran numero (mi pare 10.000) di personaggi in movimento, compresa l'ia, che gravava sulla gpu (si evitavano a vicenda e reagivano in tempo reale in base agli stimoli esterni), il tutto condito con un sistema avanzato (per l'epoca) di rendering delle ombre sfruttando le dx10.1.
Pensa gli stessi principi applicati su un'architettura altamente parallelizzata come vega di diversi ordini di grandezza superiore ad una 4870.
E' questione di ottimizzare le risorse che hai già non di aggiungerne sempre delle altre, aumentare le cu aumenta anche i consumi e la grandezza del die(+costi quindi).
Che poi il ray tracing non è che non si possa fare con le attuali amd o nvidia, ma non saranno mai a livello di avere unità dedicate solo a quello.
Il concetto di cu extra era se non sbaglio stato introdotto sulle apu, dove vega 11 in origine era più un 12 con un unità spenta o dedita ad altro.
AceGranger
20-08-2018, 21:05
Potremmo fare 32 cu che fanno il ray quando c'è da fare il ray, poi quando non c'è toh, di nuovo a renderizzare, e nella scena del bacio, toh possiamo usarle tutte per il ray. Ah già, con le unità dedicate non si può fare così, chiedo venia...
poi toh, vai a 4 fps :asd:
la prima demo raytracing su volta era fatta con i CUDA... ma erano 4 Tesla V100, mentre ora gira su singola GPU, quindi dove vuoi andare con i cu ? servirebbero 10 VEGA per far andare la stessa demo :asd:
no infatti con le unita dedicate faranno molto meglio visto che l'RT core si occupera anche di tracciare il suono, la parte Tensor si occuperra dell'anti aliasing, mentre i CUDA core in contemporanea potranno effettuare il calcolo degli shader.
Lunar Wolf
20-08-2018, 21:15
AMD nella sua vita ha presentato cosi tante cose che sono rimaste fuffa teorica da perderci il conto. E quest'ultima partnership nVidia/Microsoft per il RT mi fa temere che AMD si sia giocata il vantaggio tecnologico che era riuscita ad ottenere, e di fatto, a sfruttare con il contagocce, con mantle/dx12/vulkan.
Ho come il sentore che tutta la robba che attualmente fa girare forte le AMD (async, fp16) finirà nel dimenticatoio
Ma come hai detto, si continua a negare l'evidenza...
Dobbiamo solo attendere la riposta di AMD e vediamo che futuro ci attende.
Per me ne vedremmo delle belle...stile versante cpu!
Andy1111
20-08-2018, 21:17
AMD nella sua vita ha presentato cosi tante cose che sono rimaste fuffa teorica da perderci il conto. E quest'ultima partnership nVidia/Microsoft per il RT mi fa temere che AMD si sia giocata il vantaggio tecnologico che era riuscita ad ottenere, e di fatto, a sfruttare con il contagocce, con mantle/dx12/vulkan.
Ho come il sentore che tutta la robba che attualmente fa girare forte le AMD (async, fp16) finirà nel dimenticatoio
Ma come hai detto, si continua a negare l'evidenza...
Ogni tanto informarsi non fa male !!!!!
https://hardware.hdblog.it/2018/03/21/radeon-rays-amd-tecnologia-ray-tracing/
un po più tecnico
https://www.guru3d.com/news-story/amd-also-announces-support-for-real-time-ray-tracing.html
sto ancora finendo di leggere ma non c'è nulla di dedicato come su nvidia :sofico: :cry: :doh:
Andy1111
20-08-2018, 21:25
Ma hai letto quello che ho scritto o ti sei limitato alle figure? Su cosa mi dovrei informare, io non ho parlato mica del RT AMD.
E quest'ultima partnership nVidia/Microsoft per il RT mi fa temere che AMD si sia giocata il vantaggio tecnologico che era riuscita ad ottenere
è il forum che è troppo limitato per te :D
Io sono limitato però GPP poi NDA poi ste schede a prezzi assurdi di Nvidia ……………. a me fa pensare brutte cose
bagnino89
20-08-2018, 21:37
Ma sembra a me o costano uno sproposito ?Non sembra, è così purtroppo.
C'è da dire che c'è parecchia roba, sia come quantità di silicio che di "feature"...
Andy1111
20-08-2018, 22:11
Non sembra, è così purtroppo.
C'è da dire che c'è parecchia roba, sia come quantità di silicio che di "feature"...
https://www.notebookcheck.net/AMD-bringing-real-time-ray-tracing-to-its-GPUs-soon.290676.0.html
ma non è che per caso nvidia sta facendo la stessa cosa che ha fatto col g-sync e il nuovo g-sync hdr ?
bagnino89
20-08-2018, 22:18
https://www.notebookcheck.net/AMD-bringing-real-time-ray-tracing-to-its-GPUs-soon.290676.0.html
ma non è che per caso nvidia sta facendo la stessa cosa che ha fatto col g-sync e il nuovo g-sync hdr ?
Cosa intendi?
Riguardo AMD, vedremo come implementerà il RT.
Interessante sottolineare anche la parte Tensor delle nuove Nvidia, che sembra permetteranno di avere un filtro AA di elevatissima qualità.
SwatMaster
20-08-2018, 22:40
Amazon ha deciso di festeggiare la presentazione delle nuove Nvidia spedendo, finalmente, la mia Veghina 64. :cool:
Entro venerdì sarò dei vostri. :fagiano:
Sent from my Moto G (5) Plus using Tapatalk
AceGranger
21-08-2018, 01:21
Ogni tanto informarsi non fa male !!!!!
https://hardware.hdblog.it/2018/03/21/radeon-rays-amd-tecnologia-ray-tracing/
un po più tecnico
https://www.guru3d.com/news-story/amd-also-announces-support-for-real-time-ray-tracing.html
sto ancora finendo di leggere ma non c'è nulla di dedicato come su nvidia :sofico: :cry: :doh:
si ma.... non so se hai capito appieno quello che dicono... :stordita:
quei link riguardano il Ray-Tracing di Radeon Pro Render, quindi nulla che riguardi il mondo del gaming; fra l'altro, è una news mezza-supercazzola.... visto che si parla del loro motore di rendering era cristallino che di base fosse Ray-Tracing, visto che tutti i motori di rendering usati oggigiorno lo sono... ci mancava pure che facessero un motore di rendering non Ray-Tracing come nel 1990 :asd:; la parte ibrida invece probabilemtne riguardera la preview delel viewport.
mentre questo linkato in precedenza
https://blogs.unity3d.com/2018/03/29/amd-radeon-rays-integrated-into-unitys-gpu-progressive-lightmapper/
invece, riguarda il mondo del gaming MA, riguardera sempre il lato "Pro" interessando gli sviluppatori, e dice che il loro sistema di Ray-Tracing verra impiegato dagli sviluppatori per velocizzare il loro lavoro e NON direttamente in game....
"Radeon Rays can be used for lightmap baking and light probe calculation using ray tracing and is being integrated by a number of developers to improve the lighting effects in their games."
"Previous lightmapping solutions would take hours to compute even moderate sized scenes. Expansive outdoor environments could take days."
quindi verra usato durante il baking dell'illuminazione per accorciarne i tempi di calcolo, il che vuol dire che NON sara Ray-Tracing in real time come quello di nVidia con luci, ombre e riflessi dinamici, ma solo un sistema per accellerare e migliorare l'attuale fake calcolo dell'illuminazione, piu bello ma sempre fake rimarra, visto che la GPU nel momento in cui giocherai non fara nulla di diverso da quello che fa ora.
e notare che una VEGA calcola solo 300 Milioni di raggi/s facendo solo quello.
vedremo se presenteranno altro ma, per ora, questo che ha presentato NON è Ray-Tracing in real time all'interno di un Game Engine.
Vega ha supporto per le FP16 però.
AceGranger
21-08-2018, 01:59
Vega ha supporto per le FP16 però.
si, e quindi ? :mbe:
Gyammy85
21-08-2018, 06:13
A me sembra che, a parte l'hype smisurato, si sia visto ben poco.
Stanno vendendo schede sulla fiducia, fa un pò tu...
Inutile trollare amd con 300 megarays, se poi magari nvidia ne fa 301.
Sta storia mi ricorda tanto il tessmark, con la 480 che pushava forte "guardate a x789876543 spacca tutto", poi si era vista la realtà qual'era.
Gyammy85
21-08-2018, 06:26
Vega ha supporto per le FP16 però.
Eh ma gli sviluppatori mica possono sbattersi per supportare amd che ha solo il 40% del mercato no?
Avranno il loro bel software pre impacchettato e confezionato, i codici giusti, dovranno solo decidere il colore dei capelli.
Roland74Fun
21-08-2018, 07:23
Gli sviluppatori supportano AMD al 100% visto che programmano i giochi perché girino sulle console. Ecco perche taluni sostengono che le console rallentino il progresso dei giochi. Su pc, vista la potenza maggiore si possono aggiungere features grafiche extra, sempre che gli sviluppatori si vogliano sbattere ad aggiungerle.
Secondo me sì, a me pare una cosa simile, a parti invertite, con l'introduzione della tessellation. Con unità dedicate da AMD e gestione CUDA Cores da nVidia.https://www.notebookcheck.net/AMD-bringing-real-time-ray-tracing-to-its-GPUs-soon.290676.0.html
ma non è che per caso nvidia sta facendo la stessa cosa che ha fatto col g-sync e il nuovo g-sync hdr ?
Gyammy85
21-08-2018, 07:53
Secondo me sì, a me pare una cosa simile, a parti invertite, con l'introduzione della tessellation. Con unità dedicate da AMD e gestione CUDA Cores da nVidia.
Intanto hanno rimosso il supporto multigpu pure alla serie 70 a sto giro.
Strano che il battage sulle gddr6 si sia completamente spento (forse si aspettavano tutti o nvidia aveva promesso 100 giga di memoria a 10 TB di banda, non è stato così quindi facciamo finta che non ci sono), solo ed esclusivamente il raytracing. Di qualcosa bisognava pur parlare no?
PS la parte migliore dell'articolo è "Not only is AMD’s real-time ray tracing engine open source, it will also work with its current generation of GPUs".
Che orrore!
Giusto, che orrore supportare lato software Vega :) meglio fare come nVidia.
Comunque per me sarà come con lo shader model 3, all'epoca 2 texture x BioShock oggi un qualche effetto in metro exodus e poco altroIntanto hanno rimosso il supporto multigpu pure alla serie 70 a sto giro.
Strano che il battage sulle gddr6 si sia completamente spento (forse si aspettavano tutti o nvidia aveva promesso 100 giga di memoria a 10 TB di banda, non è stato così quindi facciamo finta che non ci sono), solo ed esclusivamente il raytracing. Di qualcosa bisognava pur parlare no?
PS la parte migliore dell'articolo è "Not only is AMD’s real-time ray tracing engine open source, it will also work with its current generation of GPUs".
Che orrore!
Gyammy85
21-08-2018, 08:12
Giusto, che orrore supportare lato software Vega :) meglio fare come nVidia.
Comunque per me sarà come con lo shader model 3, all'epoca 2 texture x BioShock oggi un qualche effetto in metro exodus e poco altro
No, Bioshock aveva il supporto per le dx10, era nativo dx9 sm3, una versione enormemente rivista dell'unreal 2.5, infatti era una sorta di anticamera del 3.
Aveva luci leggermente migliorate e l'acqua che si increspava quando ci passavi dentro rispetto alle dx9, solo che con le dx10 attive la 2900xt perdeva tanto (ma guarda un po' la sfortuna), mentre in dx9 non c'erano problemi e andava come la 8800gtx.
Per me il punto principale della presentazione di ieri è che - secondo le parole di Jensen - il Ray Tracing è più facile da implementare dell'attuale sistema di illuminazione globale usato nei giochi ora, specie con luci in movimento. Se è confermato - non sono un programmatore, non me ne rendo conto - allora l'isterismo per il Ray Tracing è più che giustificato, maggiore qualità e minore spesa (in sviluppo)? Win/win.
Bene che si usi uno standard (Directx), sviluppato sì da MS e nVidia, ma comunque standard, evitiamo di fare come con Physx magari.
Aspetto di sapere cosa farà AMD su Navi, se una implementazione puramente software sfruttando le capacità di calcolo delle schede, o se seguirà nVidia creando unità dedicate.
Onestamente, una volta implementata bene, è una tecnologia che può far fare un salto netto, stile DX9, stile DX10 (gli effetti li abbiamo visti solo più tardi, grazie console). A livello puramente grafico ben più di DX12 e Vulkan, che portano ottimizzazioni prestazionali evidenti dove usate correttamente, ma non implementano chissà quali effetti innovativi.
-=K0B3=-
21-08-2018, 09:51
Per me il punto principale della presentazione di ieri è che - secondo le parole di Jensen - il Ray Tracing è più facile da implementare dell'attuale sistema di illuminazione globale usato nei giochi ora, specie con luci in movimento. Se è confermato - non sono un programmatore, non me ne rendo conto - allora l'isterismo per il Ray Tracing è più che giustificato, maggiore qualità e minore spesa (in sviluppo)? Win/win.
Bene che si usi uno standard (Directx), sviluppato sì da MS e nVidia, ma comunque standard, evitiamo di fare come con Physx magari.
Aspetto di sapere cosa farà AMD su Navi, se una implementazione puramente software sfruttando le capacità di calcolo delle schede, o se seguirà nVidia creando unità dedicate.
Onestamente, una volta implementata bene, è una tecnologia che può far fare un salto netto, stile DX9, stile DX10 (gli effetti li abbiamo visti solo più tardi, grazie console). A livello puramente grafico ben più di DX12 e Vulkan, che portano ottimizzazioni prestazionali evidenti dove usate correttamente, ma non implementano chissà quali effetti innovativi.
Se pensi che i programmatori di videogiochi useranno il raytracing al posto delle tradizionali modalita', stai fresco.
1% di utenti con schede RTX, vs the world (consoles, amd, gtx<2060).
Forse tra 2-3 anni, SE le nuove console lo implementeranno.
Ad allora comunque la 2080ti che ora paghi 1300 euro, varra' la meta' (se va bene), e le 2070-2080 che paghi piu' di 600-800 euro saranno schede video di fascia bassa per il ray tracing (voglio proprio vederle muovere un gioco in 4k, con ray tracing attivato, a alti fps :p )
Vale quindi la pena acquistarla ora (una scheda RTX)? Assolutamente no.
Considerando
1)prezzo
2)che Nvidia e' stata MOLTO vaga (coda di paglia) sulle prestazioni al di fuori del ray tracing.
3)tdp 250watt a 1350Mhz per la ti....
4)assenza di software-giochi
5)che monitor usi per una scheda del genere? che il meglio attuale sono IPS (anno 2016) di merda.....dove i neri sono grigi.
Se pensi che i programmatori di videogiochi useranno il raytracing al posto delle tradizionali modalita', stai fresco.
1% di utenti con schede RTX, vs the world (consoles, amd, gtx<2060).
Forse tra 2-3 anni, SE le nuove console lo implementeranno.
Ad allora comunque la 2080ti che ora paghi 1300 euro, varra' la meta' (se va bene), e le 2070-2080 che paghi piu' di 600-800 euro saranno schede video di fascia bassa per il ray tracing (voglio proprio vederle muovere un gioco in 4k, con ray tracing attivato, a alti fps :p )
Vale quindi la pena acquistarla ora (una scheda RTX)? Assolutamente no.
Considerando
1)prezzo
2)che Nvidia e' stata MOLTO vaga (coda di paglia) sulle prestazioni al di fuori del ray tracing.
3)tdp 250watt a 1350Mhz per la ti....
4)assenza di software-giochi
5)che monitor usi per una scheda del genere? che il meglio attuale sono IPS (anno 2016) di merda.....dove i neri sono grigi.
Oh, ragazzi, io preferisco AMD, ma dire che le tecnologie avversarie sono sempre inutili, non è da persone intelligenti.
Il Raytracing diventerà uno standard, OVVIO che al lancio sarà poco supportato, come tutte le tecnologie nuove. Però chi preferisce AMD non si è forse lamentato nel tempo della mancanza di Directx 10.1? Della lentezza di adozione delle vere Directx 12 e di Vulkan? Qua che per il momento il RT è prerogativa nVidia, le auguriamo che venga usato il più tardi possibile? Meglio non avere FINALMENTE un cambiamento nella qualità di rendering in tempo reale?
Io prima di preferire AMD, nVidia o Intel (fra poco arriverà anche lei), sono un tifoso della tecnologia in generale. Sono sempre state belle le battaglie AMD/ATI vs nVidia, con una concorrenza che ha portato a soluzioni innovative ed aspettate, a parte periodi veramente di magra - e non parlo di 1080 (Ti) vs Vega, ma di GeForce 8800/9800 vs Radeon 2900/3800, con le 3870 a prezzo bassissimo per poter competere, o al contrario con le Radeon 9700/9800 vs le GeForce FX, dove nVidia ha veramente venduto solo per il nome, era un massacro in termini tecnologici.
Non capisco come pensare che i giochi saranno O tradizionali O Ray-tracing, sicuramente dovranno essere entrambe le cose, e la relativa facilità di introduzione del RT accennata da Jensen fa presupporre che la cosa sia fattibile.
Poi che come tutte le tecnologie, verrà migliorata e che le performance a riguardo di una RTX 2000 verranno superate nel giro di poco tempo, è normale e fisiologico.
Il discorso del monitor lo lascio perdere, come se il discorso cambiasse da una scheda video all'altra... ed è l'HDR dove magari ti interessa più lo schermo, in Ray-Tracing non ti servono pannelli rivoluzionari rispetto ad oggi.
-=K0B3=-
21-08-2018, 10:17
il discorso monitor centra eccome.
perche' se devo giocare su un semplice 1440p o 4k 60hz, che cosa cavolo vado a spendere 1300 Euro di scheda video?? per le ombre?? Su un IPS che ha un contrast ratio di 800:1 e dove i neri sono grigi? :doh: :doh:
Massi, tanto poi con la 2080Ti gioco a fortnite su un 24"......... :rolleyes:
Gyammy85
21-08-2018, 10:23
A livello puramente grafico ben più di DX12 e Vulkan, che portano ottimizzazioni prestazionali evidenti dove usate correttamente, ma non implementano chissà quali effetti innovativi.
Guarda l'acqua che si muove e si increspa in wolf 2, hai visto qualcosa del genere negli altri giochi? E gira a 60 fps a 3200x1800 su una 580, non ovunque ma il rendering dell'acqua è praticamente free.
La roba che ho visto nei giochi raytracing patchati non è niente di che, niente che non si possa fare senza tirare in ballo cose strane.
AceGranger
21-08-2018, 10:24
A me sembra che, a parte l'hype smisurato, si sia visto ben poco.
Stanno vendendo schede sulla fiducia, fa un pò tu...
pensa a quanto ha venduto sulla fiducia AMD su super-feature feature inesistenti mai viste, e ancora sei qui a parlarne :asd:
Inutile trollare amd con 300 megarays, se poi magari nvidia ne fa 301.
quale parte è cosi difficile da comprendere che l'RT parte da un minimo di 10 Miliardi di raggi, mentre normalmente di parla di Milioni di raggi :asd: ?
Sta storia mi ricorda tanto il tessmark, con la 480 che pushava forte "guardate a x789876543 spacca tutto", poi si era vista la realtà qual'era.
si bè, non dubitavo del fatto che avresti "capito" quello che vuoi tu :asd:
Eh ma gli sviluppatori mica possono sbattersi per supportare amd che ha solo il 40% del mercato no?
Avranno il loro bel software pre impacchettato e confezionato, i codici giusti, dovranno solo decidere il colore dei capelli.
eh certo, tutti cattivoni gli sviluppatori.
il discorso monitor centra eccome.
perche' se devo giocare su un semplice 1440p o 4k 60hz, che cosa cavolo vado a spendere 1300 Euro di scheda video?? per le ombre?? Su un IPS che ha un contrast ratio di 800:1 e dove i neri sono grigi? :doh: :doh:
Massi, tanto poi con la 2080Ti gioco a fortnite su un 24"......... :rolleyes:
Se la gente compra una 2080 Ti per Fortnite, problemi loro. Tra l'altro hanno presentato 3 schede, non solo la 2080 Ti, tu vedi la 2070 come esagerata per un 1440p o 4k 60Hz? Posto che non sappiamo come andranno (e non credo siano fulmini, tolto il RT, felice di sbagliarmi.)
Comunque io ho un 144Hz VA, le ombre le vedo, grazie. Ed è freesync, come VGA ho una RX 480 e come processore un Ryzen. Ormai bisogna specificare mi sembra, visto l'atteggiamento medio.
Cambierei la RX 480? Ormai sì, volentieri. Con una Vega? No, non ne vale la pena ai prezzi di oggi, forse potrei farlo con un usato trovato a buon prezzo. Con una GeForce 1000? Non direi. Con una RTX o Navi? Già più facile, che dici? Il problema è solo sapere quanti mesi di vantaggio ha nVidia su Navi, e le performance generali delle GeForce RTX. che si sapranno solo in sede di recensione. Spero di sapere presto se hanno implementato il resto delle feature DX12, cosa mai menzionata nella conferenza di ieri.
In ogni caso, ridurre il RT alle sole ombre è abbastanza riduttivo. Ovvio che ieri abbiano portato esempi esagerati per far sembrare il tutto meglio di quanto sia, ma il discorso generale rimane valido, guarda il discorso riflessi sul demo di Battlefield V o quello di illuminazione globale di Metro. Il discorso SOLO OMBRE portato su Shadow of the Tomb Raider è il meno evidente. Ma in generale, è davvero interessante il discorso che si può fare sulle fonti luminose in movimento.
Guarda l'acqua che si muove e si increspa in wolf 2, hai visto qualcosa del genere negli altri giochi? E gira a 60 fps a 3200x1800 su una 580, non ovunque ma il rendering dell'acqua è praticamente free.
La roba che ho visto nei giochi raytracing patchati non è niente di che, niente che non si possa fare senza tirare in ballo cose strane.
Il punto è che si può fare quell'acqua anche in DX11, semplicemente crolla prestazionalmente. Wolf 2 è un gioco GIUSTAMENTE sponsorizzato, e che quindi GIUSTAMENTE fa finalmente un uso corretto delle librerie nuove, tra l'altro standard, proprio come dovrebbe essere il RT. Non è PhysiX, per FORTUNA.
-=K0B3=-
21-08-2018, 10:35
ok quindi se prendi una 2070, pagandola 700 euro, e che andra' come una 1080 (ma anche se fosse 1080ti non cambia il discorso, dato che a quel prezzo la trovi gia' ADESSO, in una sheda di 2 anni fa), aggiungici pure altri 700-800 euro per un monitor gsync.
poi prossimo anno che escono le 7nm: nvidia, amd, intel, cambi nuovamente tutto?
idem per il monitor con uscita di nano-ips, hdr>400 o sperando oled?
il miglior rapporto qualita' prezzo attuale e': 1080liscia , oppure vega 64......entrambe acquistabili sui 400 Euro, con occasioni adesso, o sicuramente a grande offerta dopo settembre.
Spendere di piu' e' buttarli.
AceGranger
21-08-2018, 10:38
Se pensi che i programmatori di videogiochi useranno il raytracing al posto delle tradizionali modalita', stai fresco.
1% di utenti con schede RTX, vs the world (consoles, amd, gtx<2060).
Forse tra 2-3 anni, SE le nuove console lo implementeranno.
Ad allora comunque la 2080ti che ora paghi 1300 euro, varra' la meta' (se va bene), e le 2070-2080 che paghi piu' di 600-800 euro saranno schede video di fascia bassa per il ray tracing (voglio proprio vederle muovere un gioco in 4k, con ray tracing attivato, a alti fps :p )
Vale quindi la pena acquistarla ora (una scheda RTX)? Assolutamente no.
cioè, AMD ha campato gli ultimi anni vaneggiando sul supporto migliore a feature fantocce implementate nel duemilacredici e ora che nVidia ha integrato qualche cosa di veramente nuovo, fra l'altro pure con le DirectX di Microsoft, diventanto inutili :asd:
Considerando
1)prezzo
2)che Nvidia e' stata MOLTO vaga (coda di paglia) sulle prestazioni al di fuori del ray tracing.
3)tdp 250watt a 1350Mhz per la ti....
4)assenza di software-giochi
5)che monitor usi per una scheda del genere? che il meglio attuale sono IPS (anno 2016) di merda.....dove i neri sono grigi.
1) le 1080 costavano al lancio 799 euro, ora ne costano 869 ma le FE sono pure OC, e c'è gente che ha preso a piu di 600 euro le VEGA 64 :asd:, quindi di quali problemi di prezzo stai parlando ?
2) mica lo ordina il medico di fare il pre-order, basta aspettare le review
3) no seriamente stai parlando del TDP "elevato"della concorrenza in un thread AMD :rotfl: :rotfl:
4) ci sono piu giochi e patch annunciate ora sull'RT che veri DX12/Vulcan :asd:
5) gli stessi di chi usa ora ? se non ti aggrada l'HDR attuale non sei mica obbligato ad usarlo, e il resto offerto dall'RT si vedra meglio comunque.
ok quindi se prendi una 2070, pagandola 700 euro, e che andra' come una 1080 (ma anche se fosse 1080ti non cambia il discorso, dato che a quel prezzo la trovi gia' ADESSO, in una sheda di 2 anni fa)
Perché dovrei spendere 700 euro per una Founders, quando il prezzo ufficiale è 499 (diciamo 600 ivato, senza offerte) appena le avranno i negozi invede di nVidia stessa?
aggiungici pure altri 700-800 euro per un monitor gsync.
Non è obbligatorio, anche se Freesync e G-Sync sono una rivoluzione da cui è difficile tornare indietro. In ogni caso in sovrabbondanza di potenza si può andare di enhanced-sync (l'equivalente nvidia non ricordo come si chiami)
poi prossimo anno che escono le 7nm: nvidia, amd, intel, cambi nuovamente tutto?
Non te lo dice il medico di cambiare ogni generazione, chi ha una Vega o una 1080/Ti deve cambiare per forza?
idem per il monitor con uscita di nano-ips, hdr>400 o sperando oled?
E basta insistere con 'sti monitor o le TV, c'è chi cambia ogni anno, chi regge diversi anni. Sulla TV ho un plasma 1080p 60Hz e sto benissimo, come tanti staranno bene con i loro 4k LED, altri con i loro OLED. Ora fanno i 120Hz con TV Freesync, tutti a gettare nel cesso le proprie TV?
il miglior rapporto qualita' prezzo attuale e': 1080liscia , oppure vega 64......entrambe acquistabili sui 400 Euro, con occasioni adesso, o sicuramente a grande offerta dopo settembre.
Linkali i 400 euro per Vega 64, davvero, sarei interessato a quel punto.
In ogni caso, se la 2070 andasse come la 1080 Ti, io spenderei 600 euro ben più volentieri su una 2070 che è moderna. Poi anche io non credo che in uso "tradizionale" la 2070 passi la 1080 Ti, forse la 2080 sì.
Spendere di piu' e' buttarli.
Spendere soldi in hardware gaming in generale è QUASI buttare soldi per principio, se facciamo 'sto discorso perché non giochiamo tutti con una PS4 liscia in offerta a meno di 200 euro? Al di là che i giochi costano meno su PC... la mia è una provocazione, è chiaro.
-=K0B3=-
21-08-2018, 10:51
Contento tu a prenderti una 2070 a 600 euro (fermo restando che dovrai pure avere un bel :ciapet: a trovarla, viste le scimmie che ci sono in giro).
Con la stessa dose di :ciapet: ti trovi le 1080ti a 600 Euro gia' ora.
La vega 64 l'ho comprata io 10 giorni fa a 440 Euro.... ninetyfive a 420. red devil.. non gigabyte.
Contento tu a prenderti una 2070 a 600 euro (fermo restando che dovrai pure avere un bel :ciapet: a trovarla, viste le scimmie che ci sono in giro).
Con la stessa dose di :ciapet: ti trovi le 1080ti a 600 Euro gia' ora.
Ripeto, io non compro nulla ora prima di sapere le performance, e se andassero UGUALI, a 600 preferirei la 2070 30 volte alla 1080 Ti.
La vega 64 l'ho comprata io 10 giorni fa a 440 Euro.... ninetyfive a 420. red devil.. non gigabyte.
Sì, vi ho seguito, dal warehouse le avete prese, dove come sai ti può andare ANCHE molto male. Poi è un metodo legittimissimo per prendere le cose scontate, per carità. Ma mi insegni tu, tempo 1 mese e vediamo che prezzi avrà il warehouse, con tutti gli acquirenti last-minute a rimandare indietro le schede perché sono uscite quelle nuove.
AceGranger
21-08-2018, 10:58
La vega 64 l'ho comprata io 10 giorni fa a 440 Euro.... ninetyfive a 420. red devil.. non gigabyte.
fra un anno, tranquillo che troverai anche queste a meno di ora, visto che anche una 1080 al day one costava 800 euro....
non è che perchè escono vanno comprate subito in pre-order.... si aspettano le review, si aspetta un taglio di prezzi ( ne hanno sempre fatti, li faranno anche ora ).
nei primi mesi non si acquistano mai le GPU ;)
IlLucio1984
21-08-2018, 11:01
Contento tu a prenderti una 2070 a 600 euro (fermo restando che dovrai pure avere un bel :ciapet: a trovarla, viste le scimmie che ci sono in giro).
Con la stessa dose di :ciapet: ti trovi le 1080ti a 600 Euro gia' ora.
La vega 64 l'ho comprata io 10 giorni fa a 440 Euro.... ninetyfive a 420. red devil.. non gigabyte.
quasi quasi ci faccio anchio un pensierino :help:
-=K0B3=-
21-08-2018, 11:06
tanto la 2070 asus/evga, ecc sara' minimo a 700 Euro qui in Italia.
basta gaurdare su drako.it e akinformatica che prezzo hanno le 2080...2080ti :D
http://www.drako.it/drako_catalog/information.php?info_id=134
https://shop.akinformatica.it/ricerca/-rtx.aspx
-=K0B3=-
21-08-2018, 11:09
Sia chiaro, essendo ancora nei 30 giorni di reso della vega 64, sarei passato pure io a una nuova 2080, se questa fosse costata 500 massimo 600 Euro.
A quei prezzi ASSOLUTAMENTE no.
lascio ad altri il privilegio di investire per una tecnologia futura :D
Avranno il loro bel software pre impacchettato e confezionato, i codici giusti, dovranno solo decidere il colore dei capelli.
:asd: :asd: :asd:
Inviato dal mio SM-G935F utilizzando Tapatalk
Se Vega 56 si assesta ancora un po' sul costo, a mio giudizio, diventa il best buy.
Abbinata ad un monitor Freesync, va bene anche a 1440P.
Le.nuove nvidia non mi convincono, sbandierano tanto il RT, per poi avere seri dubbi sul.suo utilizzo, in quanto si parla di forti cali di framerate. Poi giocando si noterà questa feature o la si vedrà solo negli screen?
Ha poi senso spendere così tanri soldi con le 7nm di prossima uscita?
I prezzi, di tutte le schede video, sono a mio giudizio ancora troppo alti.
Inviato dal mio SM-G935F utilizzando Tapatalk
Contento tu a prenderti una 2070 a 600 euro (fermo restando che dovrai pure avere un bel :ciapet: a trovarla, viste le scimmie che ci sono in giro).
Con la stessa dose di :ciapet: ti trovi le 1080ti a 600 Euro gia' ora.
La vega 64 l'ho comprata io 10 giorni fa a 440 Euro.... ninetyfive a 420. red devil.. non gigabyte.
Ma dove le trovate a quei prezzi? Avendo una RX 480 ed un monitor 240hz vorrei cambiare GPU con la vega 56 ma parte da 510 euro.. mi aspetterei di trovarla a 350 francamente :( anche perché la 1070 si trova a 400 euro ed ora sono state presentate le RTX..
Gyammy85
21-08-2018, 13:34
Ma dove le trovate a quei prezzi? Avendo una RX 480 ed un monitor 240hz vorrei cambiare GPU con la vega 56 ma parte da 510 euro.. mi aspetterei di trovarla a 350 francamente :( anche perché la 1070 si trova a 400 euro ed ora sono state presentate le RTX..
Facciamo 200 e non se ne parla più :asd:
Chi si aspetta svendite delle amd "causa evidente fail del prodotto" sta fresco, a sto giro non si svende più niente, troppi calci in bocca presi in passato.
Ma dove le trovate a quei prezzi? Avendo una RX 480 ed un monitor 240hz vorrei cambiare GPU con la vega 56 ma parte da 510 euro.. mi aspetterei di trovarla a 350 francamente :( anche perché la 1070 si trova a 400 euro ed ora sono state presentate le RTX..
amazon warehouse ;)
Facciamo 200 e non se ne parla più :asd:
Chi si aspetta svendite delle amd "causa evidente fail del prodotto" sta fresco, a sto giro non si svende più niente, troppi calci in bocca presi in passato.
Quanto dovrebbe costare secondo te? Su trovaprezzi costa meno (e neanche di pochissimo) la 1080 rispetto alla 56. Tra le due non avrei dubbi su quale prendere. Tra la 1070 e la 56 prenderei la 56 per continuare ad usare il freesync ma di certo non la pagherei di più della 1070 visto che vanno uguali ma la vega consuma di più.
amazon warehouse ;)
Grazie mille, terrò d'occhio nei prossimi mesi :)
bagnino89
21-08-2018, 13:44
Facciamo 200 e non se ne parla più :asd:
Chi si aspetta svendite delle amd "causa evidente fail del prodotto" sta fresco, a sto giro non si svende più niente, troppi calci in bocca presi in passato.Quando fai certe uscite sembri un commerciale AMD :asd:
majinbu7
21-08-2018, 13:54
Quando fai certe uscite sembri un commerciale AMD :asd:
In realtà è un AMD influencer sottopagato, ecco perchè fa così male il suo lavoro :asd:
Gyammy85
21-08-2018, 14:13
:asd: :asd: :asd:
Inviato dal mio SM-G935F utilizzando Tapatalk
C'è gente che si è stupita guardando sto trailer, fa un po' tu…
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Videos/Nvidia-RTX-2080-Ti-Performance-in-Shadow-of-the-Tomb-Raider-1263244/
Magari accanto dovrebbero mettere uno screen preso da un vero raytracing, ma non necessariamente nuovo, uno del 1997 andrebbe bene.
bagnino89
21-08-2018, 14:15
In realtà è un AMD influencer sottopagato, ecco perchè fa così male il suo lavoro :asd::asd:
Legolas84
21-08-2018, 15:24
In realtà è un AMD influencer sottopagato, ecco perchè fa così male il suo lavoro :asd:
Si invece di fartela piacere ti porta a fartela odiare lol :asd:
In realtà non è certo colpa di AMD se qui dentro la situazione è questa.
Inviato dal mio iPhone utilizzando Tapatalk Pro
macchiaiolo
21-08-2018, 15:30
Scusate ma tra una chiacchierata e l'altra che leggo nn sto capendo 😂😂😂 sembra che o le nuove Nvidia siano una manna dal cielo o vega è un cesso o tutte due o nessuna delle due 😂😁
Cmq io la 64 reddevil l'ho pagata tramite buono sconto su ebay un usato nuovo in garanzia Amazon 420 euro... un bel culone
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Gyammy85
21-08-2018, 15:43
Scusate ma tra una chiacchierata e l'altra che leggo nn sto capendo 😂😂😂 sembra che o le nuove Nvidia siano una manna dal cielo o vega è un cesso o tutte due o nessuna delle due 😂😁
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Le nuovo sono un tentativo di inculcare nell'industria il rt come vuole nvidia. Poco importa se la 2080ti faccia 35 fps in fullhd, anzi meglio, significa vendere bene almeno altre 4 gen con uno sputino sopra l'un l'altra. Poco importa se amd fa navi da 30 tf, tanto è programmazione chiusa, andrà lo stesso forzatamente piano.
Vega non è un cesso, e se si vira sul computing non ha che da guadagnarne, pascal invece la vedo male, rimasta al "moar polygons these are games".
Cambiando i paradigmi dell'eccellenza, il risultato cambia molto.
Le nuovo sono un tentativo di inculcare nell'industria il rt come vuole nvidia. Poco importa se la 2080ti faccia 35 fps in fullhd, anzi meglio, significa vendere bene almeno altre 4 gen con uno sputino sopra l'un l'altra. Poco importa se amd fa navi da 30 tf, tanto è programmazione chiusa, andrà lo stesso forzatamente piano.
Vega non è un cesso, e se si vira sul computing non ha che da guadagnarne, pascal invece la vedo male, rimasta al "moar polygons these are games".
Cambiando i paradigmi dell'eccellenza, il risultato cambia molto.
Gyammy, 'sto giro la stai vedendo male. Il RT come lo vuole nVidia sarebbe se fosse con librerie proprietarie. Il RT proposto è standard Directx 12: https://blogs.msdn.microsoft.com/directx/2018/03/19/announcing-microsoft-directx-raytracing/
nVidia ha semplicemente deciso di implementare la cosa tramite unità dedicate, AMD sceglierà se farlo tramite la programmabilità e la potenza bruta di GCN, o se fare a sua volta unità dedicate - sì, il demo Vulkan ovviamente al momento usa gli shader tradizionali, ma non sappiamo Navi come s comporterà; in sostanza si stanno vedendo problemi che non ci sono, di esclusivo nVidia non ha presentato niente, o meglio, il discorso del nuovo anti-aliasing proprietario, ma sicuramente non il ray-tracing.
Che le schede video attuali siano in grado di reggere il ray-tracing a frame decenti, lo vedremo con le recensioni, così come la potenza in rendering tradizionale.
AceGranger
21-08-2018, 16:15
Gyammy, 'sto giro la stai vedendo male. Il RT come lo vuole nVidia sarebbe se fosse con librerie proprietarie. Il RT proposto è standard Directx 12: https://blogs.msdn.microsoft.com/directx/2018/03/19/announcing-microsoft-directx-raytracing/
non dirgli cosi, che poi ci rimane male :asd:
intanto hanno provato sia tomb raider sia bf5 con rt attivo e a 1080p la 2080ti non riusciva ad arrivare a 60fps, si che ancora non sono giochi finiti, si che i driver magari non sono ottimizzati, quindi prenderei con le molle il risultato.
Sicuramente saranno schede fantastiche e il prezzo lo conferma, nvidia e' tranquilla che su quei livelli non ha concorrenza e fa come vuole e sono certo che prestazionalmente siano al top.
Pero' arrivare a parlare come se l'rt sia la feature insostituibile, e aver fieramente preordinato ad occhi chiusi dovrebbe darci un'idea di come si possa arrivare ad amare un'azienda... come si diceva? Appletizzati? Iphonologizzati? Non ricordo....
Bhe l'effetto e' notevole, di rt se ne parla da anni, sicuramente e' il futuro, pero' finche' non sara' nelle console possiamo immaginare quanto sara' utilizzato, sicuramente sara' limitato nei pochi titoloni...
AceGranger
21-08-2018, 16:28
intanto hanno provato sia tomb raider sia bf5 con rt attivo e a 1080p la 2080ti non riusciva ad arrivare a 60fps, si che ancora non sono giochi finiti, si che i driver magari non sono ottimizzati, quindi prenderei con le molle il risultato.
Sicuramente saranno schede fantastiche e il prezzo lo conferma, nvidia e' tranquilla che su quei livelli non ha concorrenza e fa come vuole e sono certo che prestazionalmente siano al top.
Pero' arrivare a parlare come se l'rt sia la feature insostituibile, e aver fieramente preordinato ad occhi chiusi dovrebbe darci un'idea di come si possa arrivare ad amare un'azienda... come si diceva? Appletizzati? Iphonologizzati? Non ricordo....
questa generazione con RT abilitato sara al limite, è la prima integrazione, e come tutte le prime interazioni ci vorra il tempo per sfruttarla, come appena introdotto il 4K non c'era GPU in grado di tenerlo ( e anche ora siamo al pelo ) eppure c'è chi lo usa comunque; se uno vuole il TOP andra di doppia GPU.
l'RT non è insostituibile ma è il futuro per ottenere il fotorealismo e andra a braccetto con la nuova serie di materiali fisicamente corretti.
Io non riesco a capirci più niente, fino ieri il top erano i 265fps, adesso questo RT, di cui non vedo nessuna utilità in giochi stile bf, dal momento che vengono tolte ombre e altri fronzoli per avere una visibilità migliore dei Player, mi spiegate a che servono realmente ?
ti svelero un segreto è, c'è a chi piace giocare al massimo della grafica, e non solo a chi piace giocare a 800x600 no texture per fraggare meglio.
questa generazione con RT abilitato sara al limite, è la prima integrazione, e come tutte le prime interazioni ci vorra il tempo per sfruttarla, come appena introdotto il 4K non c'era GPU in grado di tenerlo ( e anche ora siamo al pelo ) eppure c'è chi lo usa comunque; se uno vuole il TOP andra di doppia GPU.
l'RT non è insostituibile ma è il futuro per ottenere il fotorealismo e andra a braccetto con la nuova serie di materiali fisicamente corretti.
ti svelero un segreto è, c'è a chi piace giocare al massimo della grafica, e non solo a chi piace giocare a 800x600 per fraggare meglio.
Pienamente ragione, pero' abboccare come feature definitiva... sarebbe meglio dargli il giusto peso, cioe' non voglio dire che sia inutile tutt'altro bene nvidia che parte con una simile tecnologia, ma non so se valga la pena solo questo per acquistare una scheda ad occhi chiusi senza bench ne test... oppure e' solo invidia di non poter buttare 1300 euro come se nulla fosse :D
va bene giocare ad alti dettagli pero' capisci che se devo fare 20fps....
Quando fai certe uscite sembri un commerciale AMD :asd:
Ma infatti, una scheda che è uscita un anno fa a 400 euro, potrebbe pure costare 350 adesso, non mi pare svendere
Legolas84
21-08-2018, 16:45
Gyammy, 'sto giro la stai vedendo male. Il RT come lo vuole nVidia sarebbe se fosse con librerie proprietarie. Il RT proposto è standard Directx 12: https://blogs.msdn.microsoft.com/directx/2018/03/19/announcing-microsoft-directx-raytracing/
nVidia ha semplicemente deciso di implementare la cosa tramite unità dedicate, AMD sceglierà se farlo tramite la programmabilità e la potenza bruta di GCN, o se fare a sua volta unità dedicate - sì, il demo Vulkan ovviamente al momento usa gli shader tradizionali, ma non sappiamo Navi come s comporterà; in sostanza si stanno vedendo problemi che non ci sono, di esclusivo nVidia non ha presentato niente, o meglio, il discorso del nuovo anti-aliasing proprietario, ma sicuramente non il ray-tracing.
Che le schede video attuali siano in grado di reggere il ray-tracing a frame decenti, lo vedremo con le recensioni, così come la potenza in rendering tradizionale.
Ora se capisce quanto hai scritto, il RT diventerà improvvisamente una cosa bella....
Inviato dal mio iPhone utilizzando Tapatalk Pro
Gyammy sta semplicemente dicendo che il fatto di avere hardware specifico lui ha il timore che la cosa diventi di parte, ovvero che gli sviluppatori programmino per nVidia invece che per AMD nell'eventualità che questa faccia girare tutto via SP, ma mettiamo poi che anche AMD faccia un motore RT, secondo voi gli sviluppatori se la cagheranno? uhm... boh.
AMD non può di certo cacciare la grana con le mazzette per far ottimizzare le proprie architetture, si è sempre detto così, a prescindere dal mondo console...
Invece di fare sempre i simpaticoni, basterebbe un attimo capire il senso delle cose.
Ok, e questo può valere come per esempio sui valori di tessellation sparati un po' a caso in alcuni titoli, ma sul discorso Ray-Tracing vedo la cosa diversamente, nel senso che comunque devi avere un certo numero di raggi calcolabili altrimenti diventa inutile. La forza che può avere nVidia uscendo ora è dare degli standard di capacità di calcolo, che sarebbero 6/8/10 miliardi di raggi al secondo. Se poi la 2080 Ti faticasse a tenere i 60fps a 1080p in RT, aivoglia tu a sparare più raggi...
Altrimenti varrebbe anche il discorso contrario, ovvero gli sviluppatori che mettono FP16 e Async Compute sfavorendo le GeForce, ma siccome sono standard DX12 e Vulkan, è legittimo usarli dove conviene. Tra l'altro, se parliamo di limiti computazionali delle schede odierne, usare Async e FP16 in determinate aree per avere più potenza da dedicare al RT sarebbe anche una cosa corretta... insomma, usare TUTTE le tecnologie a disposizione ad oggi, 21 agosto 2018 :)
Lunar Wolf
21-08-2018, 17:25
Gyammy sta semplicemente dicendo che il fatto di avere hardware specifico lui ha il timore che la cosa diventi di parte, ovvero che gli sviluppatori programmino per nVidia invece che per AMD nell'eventualità che questa faccia girare tutto via SP, ma mettiamo poi che anche AMD faccia un motore RT, secondo voi gli sviluppatori se la cagheranno? uhm... boh.
AMD non può di certo cacciare la grana con le mazzette per far ottimizzare le proprie architetture, si è sempre detto così, a prescindere dal mondo console...
Invece di fare sempre i simpaticoni, basterebbe un attimo capire il senso delle cose.
non avrebbe senso...se non erro amd è uscita per prima col supporto via api e emulazione software del rt per sfruttare le dx12 quindi che sia amd o nvidia e hai un hardware dedicato a tale scopo ben venga in quanto lo sviluppatore basta che usa le librerie ms (dx12) per tale tecnologia e i driver rispettivi penseranno al resto.
non è una tecnologia chiusa come physix ma semplicemente una delle tante cose delle librerie dx12 di microsoft.
e se non sbaglio sono supportate anche da vulkan...quindi gia piu di un anno fa amd e nvidia sapevano cosa dovevano integrare nelle loro gpu...non è che uno dei due si sveglia domani e pensa: toh mettiamo una roba nuova ...tocca progettare disegnare produrre e testare...minimo penso 1/2 anni di lavoro prima che venga sfornata una roba simile
AceGranger
21-08-2018, 17:38
Gyammy sta semplicemente dicendo che il fatto di avere hardware specifico lui ha il timore che la cosa diventi di parte, ovvero che gli sviluppatori programmino per nVidia invece che per AMD nell'eventualità che questa faccia girare tutto via SP, ma mettiamo poi che anche AMD faccia un motore RT, secondo voi gli sviluppatori se la cagheranno? uhm... boh.
AMD non può di certo cacciare la grana con le mazzette per far ottimizzare le proprie architetture, si è sempre detto così, a prescindere dal mondo console...
Invece di fare sempre i simpaticoni, basterebbe un attimo capire il senso delle cose.
ma se si appoggia sulle Dx e su Vulkan..... non hanno inventato un motore, hanno creato l'RT core e l'SDK per adattarsi alle Dx e a Vulkan....
quindi non vanno piu bene nemmeno gli standard Open ora :asd:
amd aveva un grosso vantaggio lato dx12/vulkan e per giunta ha il monopolio console e nonostante tutto sembra che a parte "l'aguaa di farcraiii" e poco altro, la situazione rimane quasi sempre invariata lato sviluppatori. Nvidia qualsiasi puxxanata partorisce, mazzette o non mazzette, è subito presa e supportata e chiaramente non è bello per tutti, ma questa è la realtà dei fatti. AMD o non sa o non riesce ad imporre le sue tecnologie anche se queste sono migliori o peggio ancora standard!
si ma, quando nVidia partorisce le sue puxxanante, partorisce istantaneamente anche l'SDK e le plugin, tutte accessibili da una singola pagina con login; se sono completamente open le scarichi, se sono chiuse fai richiesta pigiando su un semplicissimo pulsante.
quando AMD sbandiera le sue feature della min...a, passano mesi e non vedi nulla, non esiste un luogo per i developer, trovi qualche cosa su github ma è di difficile impiego, plugin per i software manco con il binocolo...
stanno su 2 pianeti differenti, e vieni anche a chiederti perchè gli sviluppatori adottano lentamente AMD ?
adesso è arrivato il nuovo mantra dell'FP16, ma tutti quelli che lo sbandierano ho idea che non si siano mai chiesti dove veramente possono essere impiegati i calcoli a precisione dimezzata all'interno dei Game Engine e il rapporto fra sbattimento per farlo e reali benefici....
MorrisADsl
21-08-2018, 19:28
Io tra spendere 1200 euro per stare a 60 fps e vedermi i bei raggietti di Nvidia o l'accoppiata vega 64 nitro +monitor 144hz 1ms freesync ho scelto la seconda. Sempre stesso prezzo..
Inviato dal mio SM-G955F utilizzando Tapatalk
Io tra spendere 1200 euro per stare a 60 fps e vedermi i bei raggietti di Nvidia o l'accoppiata vega 64 nitro +monitor 144hz 1ms freesync ho scelto la seconda. Sempre stesso prezzo..
Inviato dal mio SM-G955F utilizzando TapatalkBeh, è preoccupante chi sceglierebbe la prima...
Tu hai fatto la scelta più saggia 😉
Inviato dal mio SM-G935F utilizzando Tapatalk
Roland74Fun
21-08-2018, 21:04
Io tra spendere 1200 euro per stare a 60 fps e vedermi i bei raggietti di Nvidia o l'accoppiata vega 64 nitro +monitor 144hz 1ms freesync ho scelto la seconda. Sempre stesso prezzo..
Beh, è preoccupante chi sceglierebbe la prima...
Tu hai fatto la scelta più saggia
Eh si... ma comunque non hai i raggi però.... :( :(
https://s15.postimg.cc/lh39astyj/20180821185413_1.jpg (https://postimg.cc/image/tmlb8yi7b/)
https://s15.postimg.cc/r59k1pt63/20180821185556_1.jpg (https://postimg.cc/image/y8hfhbylj/)
https://s15.postimg.cc/veea3wraj/20180821194100_1.jpg (https://postimg.cc/image/5iujkppgn/)
https://s15.postimg.cc/yl8tnjjgb/20180821194324_1.jpg (https://postimg.cc/image/h7yj8oo53/)
Gyammy85
21-08-2018, 21:20
https://www.mail-archive.com/amd-gfx@lists.freedesktop.org/msg24458.html
Qualcosa che dico da secoli ha la sua conferma
Comunque era già trapelato il fatto che il supporto doveva venire anche dagli sviluppatori, non funzionava in automatico. Questi non hanno voglia di usarlo, così come ue4 va molto più veloce usando vulkan con amd, ma chissenefrega, everything is fine here.
Probabilmente con navi faranno in modo di far funzionare tutto in maniera trasparente, son proprio curioso di vedere come implementeranno il raytracing.
Io credo in un potenziamento delle ncu
Ora che ci penso, vega ha il massimo supporto a livello di dx12, dato che a quanto pare il raytracing di nvidia è basato su quelle api, vega dovrebbe essere comunque in vantaggio rispetto a pascal, quindi a metà fra pascal e turing.
AceGranger
21-08-2018, 21:57
Solo che si tratta degli sviluppatori del driver
:rotfl: :sofico:
oddio sto morendo, quasi quasi salvo lo screen.
Gyammy85
21-08-2018, 22:02
Solo che si tratta degli sviluppatori del driver
Non avevo capito, boh qualcosa sarà andato storto, dicono che con la prossima gen andrà tutto a posto...
Non per fare polemica, ma da dove si capisce che sono gli sviluppatori dei driver?
:rotfl: :sofico:
Hai visto? ho toppato! :D :D
AceGranger
21-08-2018, 22:08
.
Gyammy85
21-08-2018, 22:09
https://twitter.com/CatalystMaker/status/1031561285475950592
Sembra che la release di fine anno porterà grosse novità
Sono angosciato, stamattina ho giocato un po' e mi sono accorto che non ho il RayTracing:help: Penso che farò un gesto estremo.:sofico:
così parlò quello che ha aggiunto una miserrima nvidia alla sua amd nella vana speranza di non rimanere angosciato dalla mancanza di physx :asd:
Sbagliato, la uso per vecchi giochi con simpatici effetti physx (per quelli nuovi ci ha pensato la graziosa nvidia ad impedire l'uso legittimo di future a proprietari nvidia che però hanno avuto l'ardire di comprare anche amd ed anche come scheda video muletto quando vendo una AMD e mi ricompro un'altra AMD (sfregazzandomene di ogni qualsivoglia sbruffonata prodotta da Nvidia per l'utonto celolunghista).
ti rendi conto di quanto sia assurdo il tuo discorso a tal punto da rendere vana qualsiasi spiegazione sulle contraddizioni? cioè physx si, rt no... lol :doh:
Potete parlare per altri 10 anni, mai comprerò una nvidia, a meno che AMD non sparisca dal mercato e non vi siano altre schede video per accendere il mio pc e far girare decentemente il software del momento in questione. Ne ha fatte troppe Nvidia e io la boicotto.
majinbu7
22-08-2018, 09:29
amd aveva un grosso vantaggio lato dx12/vulkan e per giunta ha il monopolio console e nonostante tutto sembra che a parte "l'aguaa di farcraiii" e poco altro, la situazione rimane quasi sempre invariata lato sviluppatori. Nvidia qualsiasi puxxanata partorisce, mazzette o non mazzette, è subito presa e supportata e chiaramente non è bello per tutti, ma questa è la realtà dei fatti. AMD o non sa o non riesce ad imporre le sue tecnologie anche se queste sono migliori o peggio ancora standard!
per quanto mi riguarda questa serie 20x0 senza rt andrà ben poco di più di pascal e l'rt forse non sarà neanche granchè utilizzabile e personalmente mi sta più balenando l'idea di prendere una vega 64 (sposto la 1080 sull'fx) piuttosto che andare su una turing.... ma mi vien da ridere quando leggo "spendi di più per andare come una scheda di 1 anno fa" e di fatto con vega non si è fatto altro dalla sua uscita, poi "vega ormai costa 400€" --> "ho comprato vega a 440€ su wharehouse" e per finire "questo tdp da ridere di ben 250w" --> vega 64 295w tdp, vega 64 liquid 345w tdp
cioè lol ok ci possiamo prendere in giro e trollare quanto vogliamo però caxxo alla decenza c'è un limite :asd:
Io proprio ieri dopo la presentazione delle Turing , ho acquistato da amazon una Vega sapphire nitro+ a 640 € per sfruttare a pieno il mio monitor...poi mi sono guardato un pò di bench, e non pensavo che su Destiny 2 la 1080 gli fosse così superiore...e visto che ci dovevo pure rimettere 150 € ho annullato l'ordine, aspetto tempi migliori e di vedere come andrà su The division 2 o Anthem, da li deciderò se vale la pena o meno rimetterci dei soldi nel passare dalla 1080 a Vega64
Ps:
Quella del .... ora una Vega64 te la prendi a 400€ è stata proprio bella...peccato che devi aspettare l'occasione dell'usato su amazon :doh:
MorrisADsl
22-08-2018, 09:35
PhysX mi ricorda il pelo del cane di Cod: ghost.....
Inviato dal mio SM-G955F utilizzando Tapatalk
Gyammy85
22-08-2018, 09:50
PhysX mi ricorda il pelo del cane di Cod: ghost.....
Inviato dal mio SM-G955F utilizzando Tapatalk
A sto giro è diverso, il raytracing è fondamentale per il rendering delle ombre blurrate, qualsiasi ingegnere te lo può confermare
Roland74Fun
22-08-2018, 09:56
così parlò quello che ha aggiunto una miserrima nvidia alla sua amd nella vana speranza di non rimanere angosciato dalla mancanza di physx :asd:Cosa c'entra? Anche io oltre alla RX 480 ho anche una GT 1030 che apprezzo per la sua efficienza e leggerezza....
Non per questo sono un "infame". :D
A sto giro è diverso, il raytracing è fondamentale per il rendering delle ombre blurrate, qualsiasi ingegnere te lo può confermare
Il Ray-tracing è fondamentale per iniziare a fare illuminazioni migliori di quanto si fa ora, e con meno sforzo una volta che tutti i meccanismi saranno oliati. Continuo a non capirti Gyammy, non è PhysX, non è una tecnologia proprietaria nVidia, solo il loro modo di renderizzarli è proprietario, AMD potrà implementarli TALI E QUALI non appena vorrà. È standard Directx e presto anche Vulkan, come sono standard gli Async Compute. Gli AC li aveva AMD e non nVidia e non sono stati implementati in modo diffuso, e questo può non essere corretto - vedi anche Directx 10.1 quasi mai utilizzate o addirittura con supporto eliminato in certi giochi. Ma sparare a zero sul ray-tracing, che NON È OMBRE BLURRATE O RIFLESSINI O RAGGETTI, ma semplicemente il prossimo step per calcolare tutta la parte relativa all'illuminazione, è veramente assurdo.
Le RTX non saranno in grado di reggerla a frame decenti? Perfetto, meglio per AMD no? Se i motori grafici inizieranno ad implementarle e AMD sarà in grado per prima di renderizzarle a 60+ fps, non ne vedi un vantaggio? Se nelle RTX c'è finalmente il supporto completo alle DX12 (come Vega), e gli sviluppatori finalmente inizieranno a supportare Async Compute etc. non sei contento? Polaris e Vega a quel punto scaverebbero un bel margine sulle GeForce 1000, risultando più longeve. Non è un vantaggio?
Per avere grafica migliore, servono T-U-T-T-E le tecnologie sviluppate, l'importante è che siano standard e siano utilizzabili sia dai possessori di Radeon che di GeForce, e delle VGA Intel quando usciranno.
Gyammy85
22-08-2018, 10:11
Io non ho dato dell'infame a nessuno, ho solo detto che mi vien da ridere a leggere che si snobba il raytracing, a detta di tutti il futuro della grafica e poi si cerca di fare un accrocco per lo più non funzionante per avere physx il quale è stato snobbato anche da molti utenti nVidia... È una contraddizione bella e buona
Ma tu credi seriamente che quelle lucine e le ombremostrate siano inarrivabili senza nvidia rt??
majinbu7
22-08-2018, 10:35
https://www.amazon.it/Asus-ROG-STRIX-RXVEGA64-O8G-GAMING-Scheda-Video-Nero/dp/B0781VL2HB/ref=sr_1_21?m=A1HO9729ND375Y&s=warehouse-deals&ie=UTF8&qid=1534926889&sr=1-21
640€ - 566€ = 74€ così ci rimetti solo 70€ vaiiiiii :asd:
Si però non credo proprio di riuscire a vendere a 566€ la mia 1080 msi gaming 8g , pensavo intorno ai 500 € :D
640€ - 490 o 500 € = 140/150 i conti tornano :Prrr:
Io non ho dato dell'infame a nessuno, ho solo detto che mi vien da ridere a leggere che si snobba il raytracing, a detta di tutti il futuro della grafica e poi si cerca di fare un accrocco per lo più non funzionante per avere physx il quale è stato snobbato anche da molti utenti nVidia... È una contraddizione bella e buona
L'accrocco perlopiù non funzionante funzionava benissimo e lo presi anni fa. Poi vista l'ulteriore porcata di Nvidia di non farmelo più usare sui giochi nuovi ho rinforzato la mia idea di fanculeggiare sta società molto scorretta.
AceGranger
22-08-2018, 11:06
Ma tu credi seriamente che quelle lucine e le ombremostrate siano inarrivabili senza nvidia rt??
saranno possibili con la nuova feature di AMD che arrivera nel duemilacredici.
SwatMaster
22-08-2018, 12:21
Io proprio ieri dopo la presentazione delle Turing , ho acquistato da amazon una Vega sapphire nitro+ a 640 € per sfruttare a pieno il mio monitor...poi mi sono guardato un pò di bench, e non pensavo che su Destiny 2 la 1080 gli fosse così superiore...e visto che ci dovevo pure rimettere 150 € ho annullato l'ordine, aspetto tempi migliori e di vedere come andrà su The division 2 o Anthem, da li deciderò se vale la pena o meno rimetterci dei soldi nel passare dalla 1080 a Vega64
Ps:
Quella del .... ora una Vega64 te la prendi a 400€ è stata proprio bella...peccato che devi aspettare l'occasione dell'usato su amazon :doh:
Su amazon.co.uk c'è la Red Devil a 449 Sterline in preordine (spedita sono circa 540€);
su amazon.de c'è la Gigabyte a 528€;
su amazon.fr c'è la Asus Strix a 535€.
Su overclockers.co.uk ci sono prezzi simili a quelli di Amazon.
Il top sarebbe la Nitro su mindfactory.de a 520€, ma purtroppo non spediscono in Italia... :(
Sono angosciato, stamattina ho giocato un po' e mi sono accorto che non ho il RayTracing:help: Penso che farò un gesto estremo.:sofico:Giocato un po' prima di accorgetene?
Lo avresti visto subito, avresti avuto 20 fps contro i normali 60 😂😂😂
Inviato dal mio SM-G935F utilizzando Tapatalk
Free Gordon
22-08-2018, 13:17
Non lo sapremo mai, come dissi quasi un anno fa quelle funzioni non verranno abilitate mai.
Il motivo è uno dei due:
- l'hardware è broken
- hanno pesantemente mancato il time to market del software e quindi non ha senso abilitarle su prodotti vecchi
- le hanno provate su alcuni giochi ma non danno i risultati sperati. Probabile che il design di Vega non sia veramente completo, Raja questa cosa la affermava dopo la Vega10 celebration...
Credo che con Vega abbiano rifondato varie cose (che hanno basso impatto sulle performance però..) ma che era necessario fare per svecchiare quel carrozzone di GCN.
Se con Navi riescono a chiudere il cerchio, potranno competere con le Nvidia di pari fascia (senza però andare a combattere sulle TI di fascia alta, lì non ce la faranno sicuramente).
Io intanto aspetto una scheda dalle performance della 1080, a 300€... By AMD.
Gyammy85
22-08-2018, 13:27
- le hanno provate su alcuni giochi ma non danno i risultati sperati. Probabile che il design di Vega non sia veramente completo, Raja questa cosa la affermava dopo la Vega10 celebration...
Credo che con Vega abbiano rifondato varie cose (che hanno basso impatto sulle performance però..) ma che era necessario fare per svecchiare quel carrozzone di GCN.
Se con Navi riescono a chiudere il cerchio, potranno competere con le Nvidia di pari fascia (senza però andare a combattere sulle TI di fascia alta, lì non ce la faranno sicuramente).
Io intanto aspetto una scheda dalle performance della 1080, a 300€... By AMD.
Anche solo shrinkando una vega 56 ci riesci, mettici pure le hbm2 più veloci e non si hanno neanche i colli di bottiglia tipici.
Io mi aspetto piacevoli sorprese
Lunar Wolf
22-08-2018, 13:30
Io intanto aspetto una scheda dalle performance della 1080, a 300€... By AMD.
c'è lhai gia...vega 56....350 usate reference iniziano a trovarsi...metti che hai una vga da vendere minimo 50euro o salire ecco che con meno di 30 hai una signor scheda, con un po di downvolt e bios della 64 con hbm sui 1000mhz ti ritrovi una gran scheda fino ai 7nm
majinbu7
22-08-2018, 13:49
566 era il costo della Vega e quella era la nuova differenza, se prima ci rimettevi 150€, ora ce ne rimettevi 70€ circa :D
Ho guardato ma a 566 ci sta quella usata....boh...beh lascio cmq passare 1 mesetto e vedo che fare :)
Su amazon.co.uk c'è la Red Devil a 449 Sterline in preordine (spedita sono circa 540€);
su amazon.de c'è la Gigabyte a 528€;
su amazon.fr c'è la Asus Strix a 535€.
Su overclockers.co.uk ci sono prezzi simili a quelli di Amazon.
Il top sarebbe la Nitro su mindfactory.de a 520€, ma purtroppo non spediscono in Italia... :(
Ho 460 € sul conto amazon.it che intenderei sfruttare ;)
bagnino89
22-08-2018, 15:02
Io intanto aspetto una scheda dalle performance della 1080, a 300€... By AMD.
AMD non svende nulla, i bei vecchi tempi sono finiti! -cit. :asd:
macchiaiolo
22-08-2018, 16:10
Allora, mi è arrivata la 64 red devil, una bomba nonostante il mio fx, tuttavia sia in Balance che turbo mode è veramente un aeroplano (mantiene le temperature intorno ai 60 gradi) , magari preferirei temperature più alte ma sistema più silenzioso.
Che posso modificare nelle impostazioni?
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Annamaria
22-08-2018, 17:02
Allora, mi è arrivata la 64 red devil, una bomba nonostante il mio fx, tuttavia sia in Balance che turbo mode è veramente un aeroplano (mantiene le temperature intorno ai 60 gradi) , magari preferirei temperature più alte ma sistema più silenzioso.
Che posso modificare nelle impostazioni?
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
La mia 64 Nitro+ è comparabile alla tua, io preferisco impostarla come sotto, in barba a benchmark con qualche punto in più ma pieno di artefatti, sempre negati e non utilizzabile realmente!
https://ibb.co/ns2Pxe
Nel mio caso il rumore maggiore proviene dalla ventola singola del Noctua D15 S.
Gyammy85
22-08-2018, 18:40
Allora, mi è arrivata la 64 red devil, una bomba nonostante il mio fx, tuttavia sia in Balance che turbo mode è veramente un aeroplano (mantiene le temperature intorno ai 60 gradi) , magari preferirei temperature più alte ma sistema più silenzioso.
Che posso modificare nelle impostazioni?
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Dovresti impostare come temperatura target 75 gradi
Angeland
22-08-2018, 20:12
Allora, mi è arrivata la 64 red devil, una bomba nonostante il mio fx, tuttavia sia in Balance che turbo mode è veramente un aeroplano (mantiene le temperature intorno ai 60 gradi) , magari preferirei temperature più alte ma sistema più silenzioso.
Che posso modificare nelle impostazioni?
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Per prima cosa scordati il turbo mode che non serve ad una ceppa :D
Seconda cosa ti consiglio un bel profilo custom con undervolt ed oc delle hbm2 (ad aria ipotizzo che i 1000mhz siano sostenibili).
Migliori temp e performance, meno rumore e consumi.
macchiaiolo
22-08-2018, 20:21
Allora ho notato che al turbo nn ci va mai (stato 7 max) ma neanche se lo stesso valore lo riporto sullo stato 6 cioè nn va oltre 1537 anche se imposto manualmente 1632 nn ci va
Poi si la ram regge tranquillamente 1000 e il suo voltaggio default è 1100
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Angeland
22-08-2018, 20:28
Allora ho notato che al turbo nn ci va mai (stato 7 max) ma neanche se lo stesso valore lo riporto sullo stato 6 cioè nn va oltre 1537 anche se imposto manualmente 1632 nn ci va
Poi si la ram regge tranquillamente 1000 e il suo voltaggio default è 1100
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Perché a voltaggio stock dovresti alzare il Power limit.
Prova a settare il p6 a 1100 e p7 a 1150mv (lasciando le frequenze stock) con pl +10% (se va male crasha il benchmark/gioco) se regge scendiamo ancora di mv :)
Per le hbm2 il mio dubbio riguardava la dissipazione ad aria, perché se sono Samsung arrivano anche a 1100mhz
macchiaiolo
22-08-2018, 23:28
La situazione si sta facendo complicata, faccio altre prove e vediamo, xké sembra che come aumento il power limit a 20 % e il p6 da 1537 a 1600 (come se cercassi di forzare il p7 che nn ci va mai) nei benchmarck dopo un po si spegne tutto tt il pc 😂😂
Secondo me sfora la portata del cavo 8 pin della psu che se nn erro dovrebbe essere 250w
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Lunar Wolf
23-08-2018, 06:40
La situazione si sta facendo complicata, faccio altre prove e vediamo, xké sembra che come aumento il power limit a 20 % e il p6 da 1537 a 1600 (come se cercassi di forzare il p7 che nn ci va mai) nei benchmarck dopo un po si spegne tutto tt il pc 😂😂
Secondo me sfora la portata del cavo 8 pin della psu che se nn erro dovrebbe essere 250w
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
che psu hai?
ninety-five
23-08-2018, 10:15
Approfitto della vostra sapienza.
Considerando il mio Ryzen 1600 e la Vega 64.
Quale risoluzione del monitor mi consigliate per i prossimi 3 anni (vorrei cambiare cpu dopo Matisse)?
Attualmente sono su FHD 144Hz...
Approfitto della vostra sapienza.
Considerando il mio Ryzen 1600 e la Vega 64.
Quale risoluzione del monitor mi consigliate per i prossimi 3 anni (vorrei cambiare cpu dopo Matisse)?
Attualmente sono su FHD 144Hz...
Un 2K, almeno 75hz e possibilmente con un buon range Freesync.
Approfitto della vostra sapienza.
Considerando il mio Ryzen 1600 e la Vega 64.
Quale risoluzione del monitor mi consigliate per i prossimi 3 anni (vorrei cambiare cpu dopo Matisse)?
Attualmente sono su FHD 144Hz...
io dal mio asus 34'' wide 3440x1440@100Hz non torno più indietro :O e ho una fury oc scrausa, con la tua te lo godresti veramente.....mi sembra si trovi sui 700 euri, 100 in meno di quanto lo avevo pagato io 15 mesi fa....
-=K0B3=-
23-08-2018, 11:37
Approfitto della vostra sapienza.
Considerando il mio Ryzen 1600 e la Vega 64.
Quale risoluzione del monitor mi consigliate per i prossimi 3 anni (vorrei cambiare cpu dopo Matisse)?
Attualmente sono su FHD 144Hz...
1440p.......
Il problema e' quale monitor prendere.... dato che sia gli IPS che i VA attuali sono vecchiotti e con problemi vari.
I monitor con freesync 2 sono usciti da poco e sono solo hdr 400.
Al momento il migliore sulla carta pare essere il LG 32GK850F
che si trova a 600 Euro su amazon.de
Non e' 21:9, ma e' un ottimo VA con contrasto di 3000:1 REALI
(qui la recensione del modello g.sync: http://www.tftcentral.co.uk/reviews/lg_32gk850g.htm )
Sui forum/reddit molti connsigliano il Dell aw3418dw , etichettandolo come il meglio............ ma a me sincramente non ispira per niente.
Da noi costa 1200Euro (in america 900$ con le offerte.....)......e' 120Hz, e sopratutto e' IPS......con neri che sono grigi (contrasto di 800:1) e lotteria lightbleeding.
ninety-five
23-08-2018, 11:49
Un 2K, almeno 75hz e possibilmente con un buon range Freesync.
Ci avevo pensato, non c'è molta differenza di prezzo con i 144Hz.
Il problema è che non riesco nulla che mi piaccia..
io dal mio asus 34'' wide 3440x1440@100Hz non torno più indietro :O e ho una fury oc scrausa, con la tua te lo godresti veramente.....mi sembra si trovi sui 700 euri, 100 in meno di quanto lo avevo pagato io 15 mesi fa....
Il mio monitor è a 70/80cm...non rischia di essere troppo grande? :D
1440p.......
Il problema e' quale monitor prendere.... dato che sia gli IPS che i VA attuali sono vecchiotti e con problemi vari.
I monitor con freesync 2 sono usciti da poco e sono solo hdr 400.
Al momento il migliore sulla carta pare essere il LG 32GK850F
che si trova a 600 Euro su amazon.de
Non e' 21:9, ma e' un ottimo VA con contrasto di 3000:1 REALI
(qui la recensione del modello g.sync: http://www.tftcentral.co.uk/reviews/lg_32gk850g.htm )
Sui forum/reddit molti connsigliano il Dell aw3418dw , etichettandolo come il meglio............ ma a me sincramente non ispira per niente.
Da noi costa 1200Euro (in america 900$ con le offerte.....)......e' 120Hz, e sopratutto e' IPS......con neri che sono grigi (contrasto di 800:1) e lotteria lightbleeding.
Concordo con te...ho fatto una breve ricerca di alcuni monitor 27" 144Hz ma tutto hanno dei piccoli problemi.
Mi sembra ci sia molta meno scelta di qualità rispetto ai monitor FHD :rolleyes:
MorrisADsl
23-08-2018, 12:06
Anch'io 27" 2k 144hz 1ms freesync. Il mio è pannello TN. Se vuoi solo prestazioni e del resto non ti interessa si trovano ormai anche a meno di 500 euro.
Inviato dal mio SM-G955F utilizzando Tapatalk
macchiaiolo
23-08-2018, 12:20
che psu hai?Corsair rm1000i
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
ninety-five
23-08-2018, 12:28
Anch'io 27" 2k 144hz 1ms freesync. Il mio è pannello TN. Se vuoi solo prestazioni e del resto non ti interessa si trovano ormai anche a meno di 500 euro.
Inviato dal mio SM-G955F utilizzando TapatalkModello?
Lunar Wolf
23-08-2018, 13:01
1440p.......
Il problema e' quale monitor prendere.... dato che sia gli IPS che i VA attuali sono vecchiotti e con problemi vari.
I monitor con freesync 2 sono usciti da poco e sono solo hdr 400.
Al momento il migliore sulla carta pare essere il LG 32GK850F
che si trova a 600 Euro su amazon.de
Non e' 21:9, ma e' un ottimo VA con contrasto di 3000:1 REALI
(qui la recensione del modello g.sync: http://www.tftcentral.co.uk/reviews/lg_32gk850g.htm )
Sui forum/reddit molti connsigliano il Dell aw3418dw , etichettandolo come il meglio............ ma a me sincramente non ispira per niente.
Da noi costa 1200Euro (in america 900$ con le offerte.....)......e' 120Hz, e sopratutto e' IPS......con neri che sono grigi (contrasto di 800:1) e lotteria lightbleeding.
Grazie per le info...bellino quel lg...sono alla ricerca di un buon 4k sia gaming che foto e mi pare un buon compromesso.
Lunar Wolf
23-08-2018, 13:02
Corsair rm1000i
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
allora non hai problemi di cavi...moltro strano....
MorrisADsl
23-08-2018, 13:28
Modello?Mg278q Asus.
Inviato dal mio SM-G955F utilizzando Tapatalk
macchiaiolo
23-08-2018, 13:44
allora non hai problemi di cavi...moltro strano....Questo non saprei... ogni cavo pciex ha una portata di 200/250w se nn erro più da aggiungere i 75w dello slot, la scheda a default gira sui 230w ma come la tiro supera i 300 di poco . Diciamo che me lo fa se forzo il p6 , il p7 manco lo guardo tanto non ci va e nn ho capito la sua utilità
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Questo non saprei... ogni cavo pciex ha una portata di 200/250w se nn erro più da aggiungere i 75w dello slot, la scheda a default gira sui 230w ma come la tiro supera i 300 di poco . Diciamo che me lo fa se forzo il p6 , il p7 manco lo guardo tanto non ci va e nn ho capito la sua utilità
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Il p7 consideralo come turbo massimo, difficilmente vedrai quella frequenza, per non dire mai.
Piuttosto, downvolta e via, lascia perdere la frequenza, non ti cambia di 10 fps, se te ne cambia 2-3 è già tanto
ninety-five
23-08-2018, 14:01
Mg278q Asus.
Inviato dal mio SM-G955F utilizzando TapatalkAh ok, credo sia il più venduto :DPer spendere una cifra giusta io ho preso un AOC AGON AG271QX a 379 e pur essendo un pannello TN ha un ottima resa anche in confronto ad un ips 144hz 1ms 2kAnche questo era nella mia lista.
Insieme all'Acer XF270HUA sono i 3 più interessanti...di quest'ultimo non mi piace la base davvero troppo piccola.
Alla fine meglio puntare ai 144Hz?
Angeland
23-08-2018, 14:05
Il mio monitor è a 70/80cm...non rischia di essere troppo grande? :D
Vai tranquillo, io il predator lo tengo pure a 60 cm :asd:
MorrisADsl
23-08-2018, 15:09
Ah ok, credo sia il più venduto :DAnche questo era nella mia lista.
Insieme all'Acer XF270HUA sono i 3 più interessanti...di quest'ultimo non mi piace la base davvero troppo piccola.
Alla fine meglio puntare ai 144Hz?Credo che avevamo la lista dei monitor praticamente la stessa. L' Asus costa un pochettino di più ma le recensioni che ho letto sono largamente positive.
I 144 se non li sfrutti tutti adesso vengono buoni per il futuro..
Inviato dal mio SM-G955F utilizzando Tapatalk
-=K0B3=-
23-08-2018, 15:25
un monitor...cosi' come la televisione non potra' mai essere troppo grande.....
Io ho un 34" 21:9 che appena arrivato mi sembrava enorme.
Ora lo trovo appena sufficente :)
Idem per la televisione.....60" e ne vorrei una da 80" , ma la moglie mi uccide :rolleyes: :rolleyes: eheh.
Il monitor lo devo cambiare perche' il mio e' 1080p 75Hz...e lo tengo come secondo monitor per navigare su internet con le mie 100 schede aperte di Chrome :D
Pero' l'idea di passare a un 27" mi fa piangere solo al pensiero.
Ci fossero dei monitor giganti 16:9/21:9 buoni, ne prenderei subito uno hehe
ma mis a che mi accontentero' del 32" 16:9....perche' i 34" 21:9 son vecchi/cari e non esenti da problemi.
Gyammy85
23-08-2018, 15:29
Pigliatevi un tivvù e non ci pensate più.
Io mi godo i colori vividi e le luci forti del mio lg 32 pollici.
Poi ci attaccate un sintoampli Marantz e state a posto.
MorrisADsl
23-08-2018, 15:35
Dipende molto dalla distanza di visione. Se devo spostare gli occhi da una parte all'altra affatica solo gli occhi. Io ho tutto su scrivania a circa 50-60 cm.
Inviato dal mio SM-G955F utilizzando Tapatalk
Gyammy85
23-08-2018, 15:38
Dipende molto dalla distanza di visione. Se devo spostare gli occhi da una parte all'altra affatica solo gli occhi. Io ho tutto su scrivania a circa 50-60 cm.
Inviato dal mio SM-G955F utilizzando Tapatalk
Certo dipende da quello, considera che il tv fa completamente schifo per uso desktop, per i giochi invece è molto molto valido. il mio pc è messo in un mobiletto ma lo collego col cavo HDMI al tv che è sul lato opposto...
ninety-five
23-08-2018, 16:02
Credo che avevamo la lista dei monitor praticamente la stessa. L' Asus costa un pochettino di più ma le recensioni che ho letto sono largamente positive.
I 144 se non li sfrutti tutti adesso vengono buoni per il futuro..
Inviato dal mio SM-G955F utilizzando TapatalkHo messo questi 3 in lista con Keepa.
Aspetto l'offerta (ogni tanto sembrano esserci) perché non vorrei spendere più 350€...gli altri modelli costano decisamente troppo! :D
SpongeJohn
23-08-2018, 19:19
un monitor...cosi' come la televisione non potra' mai essere troppo grande.....
Io ho un 34" 21:9 che appena arrivato mi sembrava enorme.
Ora lo trovo appena sufficente :)
Idem per la televisione.....60" e ne vorrei una da 80" , ma la moglie mi uccide :rolleyes: :rolleyes: eheh.
Il monitor lo devo cambiare perche' il mio e' 1080p 75Hz...e lo tengo come secondo monitor per navigare su internet con le mie 100 schede aperte di Chrome :D
Pero' l'idea di passare a un 27" mi fa piangere solo al pensiero.
Ci fossero dei monitor giganti 16:9/21:9 buoni, ne prenderei subito uno hehe
ma mis a che mi accontentero' del 32" 16:9....perche' i 34" 21:9 son vecchi/cari e non esenti da problemi.
Un monitor deve essere sempre relazionato alla risoluzione, ma sopratutto: all'uso.
Per tanti giochi on line piú di 27 pollici 1440p non sono affatto indicati. Per i giochi single player/scenografici invece ok. Piú grande é, meglio é (that's what she said).
Es. bf1,pubg,fortinite, csgo, insurgency etc. conta molto il dover individuare i nemici nel minor tempo possiibile. Se hai un 42 pollici davanti allaa faccia: devi muovere la testa per coprire tuttii glli angoli di visuale, con un 27 pollici (ma già é al limite) muovi solo gli occhi.
ridete pure, ma funziona cosí.
MorrisADsl
23-08-2018, 19:59
Un monitor deve essere sempre relazionato alla risoluzione, ma sopratutto: all'uso.
Per tanti giochi on line piú di 27 pollici 1440p non sono affatto indicati. Per i giochi single player/scenografici invece ok. Piú grande é, meglio é (that's what she said).
Es. bf1,pubg,fortinite, csgo, insurgency etc. conta molto il dover individuare i nemici nel minor tempo possiibile. Se hai un 42 pollici davanti allaa faccia: devi muovere la testa per coprire tuttii glli angoli di visuale, con un 27 pollici (ma già é al limite) muovi solo gli occhi.
ridete pure, ma funziona cosí.Ma infatti. Io un po per mancanza di modelli più piccoli. Avevo già un 25".. Alla fine sono andato sul 27. Ma onestamente più di quello mi sembrava un peggiorare la vista...
Inviato dal mio GT-P7500 utilizzando Tapatalk
SwatMaster
23-08-2018, 23:33
Stamattina mi è arrivata la Vega 64 Red Devil da Amazon UK... Bellissima, è una bestia enorme.
...Talmente enorme che non mi ci sta nel case, non riesco nemmeno ad attaccarla alla mobo per provarla.
Non potete immaginare quanto stia rosicando. Ora vorrei aver preso una reference un anno fa.
Il problema non è la lunghezza, siamo sui livelli della mia 290x, ma lo spessore: sono più di 5cm, mentre il mio case supporta massimo 44mm... Colpa mia che non ho controllato anche questo parametro, ho un case mini itx da poco e non ci avevo proprio pensato.
Domani dovrò fare il reso.
Chi è interessato all'acquisto farebbe bene a tenere d'occhio Amazon nei prossimi giorni, magari la rimettono in vendita come usato a qualche euro in meno.
Sent from my Moto G (5) Plus using Tapatalk
Stamattina mi è arrivata la Vega 64 Red Devil da Amazon UK... Bellissima, è una bestia enorme.
...Talmente enorme che non mi ci sta nel case, non riesco nemmeno ad attaccarla alla mobo per provarla.
Non potete immaginare quanto stia rosicando. Ora vorrei aver preso una reference un anno fa.
Il problema non è la lunghezza, siamo sui livelli della mia 290x, ma lo spessore: sono più di 5cm, mentre il mio case supporta massimo 44mm... Colpa mia che non ho controllato anche questo parametro, ho un case mini itx da poco e non ci avevo proprio pensato.
Domani dovrò fare il reso.
Chi è interessato all'acquisto farebbe bene a tenere d'occhio Amazon nei prossimi giorni, magari la rimettono in vendita come usato a qualche euro in meno.
Sent from my Moto G (5) Plus using Tapatalk
non fai prima a rivenderla a qualcuno accolandoti giusto le spese di spedizione? Io purtroppo ho finito i dindini :stordita:
Zodd_Il_nosferatu
24-08-2018, 08:44
Stamattina mi è arrivata la Vega 64 Red Devil da Amazon UK... Bellissima, è una bestia enorme.
...Talmente enorme che non mi ci sta nel case, non riesco nemmeno ad attaccarla alla mobo per provarla.
Non potete immaginare quanto stia rosicando. Ora vorrei aver preso una reference un anno fa.
Il problema non è la lunghezza, siamo sui livelli della mia 290x, ma lo spessore: sono più di 5cm, mentre il mio case supporta massimo 44mm... Colpa mia che non ho controllato anche questo parametro, ho un case mini itx da poco e non ci avevo proprio pensato.
Domani dovrò fare il reso.
Chi è interessato all'acquisto farebbe bene a tenere d'occhio Amazon nei prossimi giorni, magari la rimettono in vendita come usato a qualche euro in meno.
Sent from my Moto G (5) Plus using Tapatalk
Se vuoi la compro io :stordita:
Lunar Wolf
24-08-2018, 08:51
raga un consiglio sul qualche monitor? non trovo nulla che mi ispiri.
minimo un 27, attualmente ho un 24 144z freesync ma purtroppo è un TN..mi serve qualcosa sia per gaming che per foto in quanto ogni volta che metto mano alle foto delle ferie mi vien da piangere.
poi è un full hd quindi mi andrebbe bene un qhd o gia che ci siamo un 4 basta che non sia sotto i 100hz
p.s la 56 rulla molto bene col bios della 64 ma attendo che arrivi il wiubbo anche per questa...ad aria 80gradi non li posso vedere
SwatMaster
24-08-2018, 08:56
non fai prima a rivenderla a qualcuno accolandoti giusto le spese di spedizione? Io purtroppo ho finito i dindini :stordita:
L'ideale sarebbe trovare qualcuno con una reference e scambiarla (più piccolo conguaglio, chiaramente)...
Se vuoi la compro io :stordita:
Se vuoi te la dò allo stesso prezzo cui l'ho pagata :p
raga un consiglio sul qualche monitor? non trovo nulla che mi ispiri.
minimo un 27, attualmente ho un 24 144z freesync ma purtroppo è un TN..mi serve qualcosa sia per gaming che per foto in quanto ogni volta che metto mano alle foto delle ferie mi vien da piangere.
poi è un full hd quindi mi andrebbe bene un qhd o gia che ci siamo un 4 basta che non sia sotto i 100hz
p.s la 56 rulla molto bene col bios della 64 ma attendo che arrivi il wiubbo anche per questa...ad aria 80gradi non li posso vedere
Io col mio Dell mi trovo benissimo, l'IPS è fantastico per le foto; non sarà più un modello recentissimo ma so che esiste anche il 27"... Magari c'è anche la versione 2017 o 2018.
raga un consiglio sul qualche monitor? non trovo nulla che mi ispiri.
minimo un 27, attualmente ho un 24 144z freesync ma purtroppo è un TN..mi serve qualcosa sia per gaming che per foto in quanto ogni volta che metto mano alle foto delle ferie mi vien da piangere.
poi è un full hd quindi mi andrebbe bene un qhd o gia che ci siamo un 4 basta che non sia sotto i 100hz
p.s la 56 rulla molto bene col bios della 64 ma attendo che arrivi il wiubbo anche per questa...ad aria 80gradi non li posso vedere
34'' 21:9 VA 100Hz samsung o asus :O
Stamattina mi è arrivata la Vega 64 Red Devil da Amazon UK... Bellissima, è una bestia enorme.
...Talmente enorme che non mi ci sta nel case, non riesco nemmeno ad attaccarla alla mobo per provarla.
Non potete immaginare quanto stia rosicando. Ora vorrei aver preso una reference un anno fa.
Il problema non è la lunghezza, siamo sui livelli della mia 290x, ma lo spessore: sono più di 5cm, mentre il mio case supporta massimo 44mm... Colpa mia che non ho controllato anche questo parametro, ho un case mini itx da poco e non ci avevo proprio pensato.
Domani dovrò fare il reso.
Chi è interessato all'acquisto farebbe bene a tenere d'occhio Amazon nei prossimi giorni, magari la rimettono in vendita come usato a qualche euro in meno.
Sent from my Moto G (5) Plus using TapatalkUn altro case?
Inviato dal mio LG-H870 utilizzando Tapatalk
SwatMaster
24-08-2018, 09:02
Un altro case?
Inviato dal mio LG-H870 utilizzando Tapatalk
L'idea mi è balenata nella mente per qualche secondo, poi mi sono ricordato che l'ho appena cambiato :ciapet: e di spendere un'altra centella non mi va proprio.
majinbu7
24-08-2018, 10:14
L'ideale sarebbe trovare qualcuno con una reference e scambiarla (più piccolo conguaglio, chiaramente)...
************************************* :p
Io col mio Dell mi trovo benissimo, l'IPS è fantastico per le foto; non sarà più un modello recentissimo ma so che esiste anche il 27"... Magari c'è anche la versione 2017 o 2018.
Consiglio, edita il post , io per una frase simile sono stato sospeso per 15 gg , edit.
Ciao
Lunar Wolf
24-08-2018, 10:52
34'' 21:9 VA 100Hz samsung o asus :O
i VA come sono? cioè lato colori dicono che sono abbastanza precisi ma soffrono di effetti ghost ecc in stile oled? non vorrei spendere 500€ per un monitor e ritrovarmi le carte di solitario sul desktop...poi 34 son troppi.
macchiaiolo
24-08-2018, 17:12
Il p7 consideralo come turbo massimo, difficilmente vedrai quella frequenza, per non dire mai.
Piuttosto, downvolta e via, lascia perdere la frequenza, non ti cambia di 10 fps, se te ne cambia 2-3 è già tantoBene bene, pazzesco ho downvoltato il core da 1200 millivolt a 850, poi la ram l'ho portata da 940(mi pare) a 1100MHz con downvolt da 1100 a 970
Insomma da che consumava 330w di picco adesso di picco arriva scarso a 220w con power limit +30% e ovviamente è più fresca e veloce
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
MorrisADsl
24-08-2018, 17:16
Bene bene, pazzesco ho downvoltato il core da 1200 millivolt a 850, poi la ram l'ho portata da 940(mi pare) a 1100MHz con downvolt da 1100 a 970
Insomma da che consumava 330w di picco adesso di picco arriva scarso a 220w con power limit +30% e ovviamente è più fresca e veloce
Inviato dal mio HUAWEI VNS-L31 utilizzando TapatalkUmh downvoltare e aumentare il power limit..
Ci avevo pensato anche io facendo alcune prove, avevo qualche timore.
Inviato dal mio SM-G955F utilizzando Tapatalk
ombramortale
24-08-2018, 17:51
i VA come sono? cioè lato colori dicono che sono abbastanza precisi ma soffrono di effetti ghost ecc in stile oled? non vorrei spendere 500€ per un monitor e ritrovarmi le carte di solitario sul desktop...poi 34 son troppi.
Io nei VA ho sempre trovato due limiti:
1. Nero "misurato" profondo ma dettagli in ombra annegati su fondi scuri ("Black Crush")
2.Pessimi tempi di risposta nei passaggi tra toni scuri
macchiaiolo
24-08-2018, 18:01
Umh downvoltare e aumentare il power limit..
Ci avevo pensato anche io facendo alcune prove, avevo qualche timore.
Inviato dal mio SM-G955F utilizzando TapatalkHo avuto nn si sa quante radeon, ma ancora nn ho ben capito il power limit, io l'ho aumentato per favorire il turbo se ho capito bene il suo uso, ma secondo me nn ho riscontrato una cippa a riguardo.
Qualcuno più esperto ti saprà spiegare meglio
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Annamaria
24-08-2018, 18:03
Bene bene, pazzesco ho downvoltato il core da 1200 millivolt a 850, poi la ram l'ho portata da 940(mi pare) a 1100MHz con downvolt da 1100 a 970
Insomma da che consumava 330w di picco adesso di picco arriva scarso a 220w con power limit +30% e ovviamente è più fresca e veloce
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Hai provato qualche benchmark?
Sarebbe interessante sapere quanto sia più lenta la 64 su un sistema old come AMD fx rispetto agli attuali 8700k o 2700x!
Con 4790k @ 4400MHz o 9590 @ 4700MHz e 580 powercolor nessuna differenza di fps ma parliamo di fascia media!
.Diablo.
24-08-2018, 18:30
Ragazzi finalmente ce l'ho fatta! :D
Dopo aver setacciato ogni anfratto di internet, dai siti più incul8 (:D ) ai principali motori di ricerca per prezzi, ci sono riuscito e mi sono accaparrato una Vega 56 reference della AsRock! ;)
Presa da ebay, usata ma tenuta come nuova, con lo sconto del 15% e pagata poco meno di 360 euro :cool:
Mi sembra di aver scalato l'everest porca miseria... :D
Ce l'ho fattaaaaaa!!! ;)
Non è normale che il mercato delle GPU si sia ridotto così però...farsi un pc, ai prezzi del nuovo, sta diventando un fottu*o lusso :(
macchiaiolo
24-08-2018, 18:55
Hai provato qualche benchmark?
Sarebbe interessante sapere quanto sia più lenta la 64 su un sistema old come AMD fx rispetto agli attuali 8700k o 2700x!
Con 4790k @ 4400MHz o 9590 @ 4700MHz e 580 powercolor nessuna differenza di fps ma parliamo di fascia media!Ecco ne ho fatti un paio al volo per provare l'undervolt overclock ram
Qualcuno mi sa dire come fare overclock frequenza gpu? Questi p6/p7 anche aumentandoli nn cambiahttps://uploads.tapatalk-cdn.com/20180824/0d6699d70a4b0fa51cc0af4deee0dc73.jpghttps://uploads.tapatalk-cdn.com/20180824/ce8b5b5817acd53965ea65ba88c635d7.jpg
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.