View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
Ale55andr0
26-09-2018, 20:10
Insomma amd non cha i soldi e per questo che fa così, ms sony e apple non channo i soldi e per questo scelgono amd, analisi approfondita come al solito :asd:
l'hanno scelta perchè è l'unica a poter fare una apu con cpu e gpu senza squilibri particolari (intel gpu schifosa e buona cpu, nvidia l'inverso*, anzi non fa nemmeno proci x86 mi pare). Ovvio che poi una apu è più economica di una soluzione discreta e quindi a loro volta avevano più margine di guadagno oltre che una semplificazione del layout (che vuol dire altro risparmio e pure "praticità")
*non che jaguar sia un drago :asd:, ma in quel caso meglio quella soluzione che non un i7 con una integrata intel :asd: e cmq il pp a 28nm non permetteva di avere una cpu mostruosa + ottima gpu, coi 7nm invece potrebbero tranquillamente far stare 8 core ryzen in più o meno lo stesso spazio di jaguar e senza nemmeno frequenze troppo basse (considerando che un 1700 fa 3.2ghz effettivi al core in 65w di tdp su 14nm) e avere una gpu col doppio delle cu attuali
Ton90maz
26-09-2018, 20:52
l'hanno scelta perchè è l'unica a poter fare una apu con cpu e gpu senza squilibri particolari (intel gpu schifosa e buona cpu, nvidia l'inverso*, anzi non fa nemmeno proci x86 mi pare). Ovvio che poi una apu è più economica di una soluzione discreta e quindi a loro volta avevano più margine di guadagno oltre che una semplificazione del layout (che vuol dire altro risparmio e pure "praticità")
*non che jaguar sia un drago :asd:, ma in quel caso meglio quella soluzione che non un i7 con una integrata intel :asd: e cmq il pp a 28nm non permetteva di avere una cpu mostruosa + ottima gpu, coi 7nm invece potrebbero tranquillamente far stare 8 core ryzen in più o meno lo stesso spazio di jaguar e senza nemmeno frequenze troppo basse (considerando che un 1700 fa 3.2ghz effettivi al core in 65w di tdp su 14nm) e avere una gpu col doppio delle cu attuali80-88 CU? :sofico:
Ripeto, una ps4 nel 2013 ne aveva meno della metà di hawaii, se vendono a 4-500 euro console con 80-88 CU come minimo esigo 180 CU a massimo 600 euro :sofico:
Ale55andr0
26-09-2018, 21:09
80-88 CU? :sofico:
Ripeto, una ps4 nel 2013 ne aveva meno della metà di hawaii, se vendono a 4-500 euro console con 80-88 CU come minimo esigo 180 CU a massimo 600 euro :sofico:
non esageriamo, io mi gioco le 72 per la ps 4 e le 80 per la one, anzi, la two :asd:, ovvero, il doppio esatto rispetto a prima :D, con otto core ryzen lato cpu per entrambe. Mi chiedo solo che faranno lato rtx, ammesso facciano qualcosa e se riusciranno mai potenziare ste gpu lato geometrico che sono ferme a 4 triangoli "effettivi" per clock dal 1914
Ton90maz
26-09-2018, 22:49
non esageriamo, io mi gioco le 72 per la ps 4 e le 80 per la one, anzi, la two :asd:, ovvero, il doppio esatto rispetto a prima :D, con otto core ryzen lato cpu per entrambe. Mi chiedo solo che faranno lato rtx, ammesso facciano qualcosa e se riusciranno mai potenziare ste gpu lato geometrico che sono ferme a 4 triangoli "effettivi" per clock dal 1914
Per me hai aspettative un po' alte, non dico che sia impossibile ma sono molto scettico al riguardo. Anche con le console possono inventarsi chipponi assurdi o abbandonare le apu ma i prezzi salirebbero.
La ps4 pro ha effettivamente raddoppiato la gpu (controller di memoria a parte) ma a spese dello spazio in meno che la versione a 16 nm di jaguar occupava. E' vero che promettono mirabolanti salti maggiori con questi 7 nm ma è ancora tutto da verificare.
Senza contare che CU vuol dire tutto e niente, se sono come quelle mostruosità delle Baraccheon Vega manco a martellate fai stare tutta quella roba nelle APU da console.
Free Gordon
26-09-2018, 23:46
Potrebbero anche essere dei quad Ryzen, visto che hanno l'SMT, ma i 16th sono daccordo siano un'opzione, che sceglieranno solo se vorranno davvero spingerci tanto, perche' gia' da 8c Jaguar a 4c/8t Zen il salto e' epocale.
Imho andranno di 16Threads perché su console l'ottimizzazione del codice (e quindi un'eventuale parallelizzazione) è molto migliore.
Sulle nuove console, in prospettiva quinquennale, avrebbe senso puntare sui 16threads.
Lato GPU non mi esprimo, il problema sarà la banda vera e propria a disposizione.
Con bus a 384bit e le 14gbs sarebbero 672GB/s...e 24GB di GDDR6. :sofico:
Gyammy85
27-09-2018, 07:52
Dopo Navi verrà Arcturus, Arturooooooo
https://www.phoronix.com/scan.php?page=news_item&px=AMD-Radeon-Arcturus
:cool: :cool: :cool: :cool:
ninja750
27-09-2018, 09:01
OT per OT.. perchè i core "virtuali" possono solo essere in pari numero rispetto ai core fisici? cioè perchè non possono fare un 4c/16t? :fagiano:
Gyammy85
27-09-2018, 09:04
OT per OT.. perchè i core "virtuali" possono solo essere in pari numero rispetto ai core fisici? cioè perchè non possono fare un 4c/16t? :fagiano:
Perché in questo caso un core dovrebbe lavorare su ben 4 thread, sarebbe un pò come fare un quad cross con ogni gpu che fa un pezzetto di frame, non credo sarebbe il massimo dell'efficienza imho
ninja750
27-09-2018, 09:07
OT per OT perchè nessun produttore di VGA ha pensato di fare che so 2000 stream processor fisici e 2000 stream processor virtuali se lato cpu la cosa sembra funzionare? :fagiano:
Gyammy85
27-09-2018, 09:12
OT per OT perchè nessun produttore di VGA ha pensato di fare che so 2000 stream processor fisici e 2000 stream processor virtuali se lato cpu la cosa sembra funzionare? :fagiano:
Non credo sia possibile, la cpu emula qualsiasi cosa, la grafica è un pò più rognosa, poi già ora amd ha i suoi bei problemi di immagine con tutti quegli sp che consumano e non servono a niente, figurati con smt "eh ma non si fa così la scheda gaming", anche loro hanno il reparto marketing eh :O
PS credo sia sbagliato core virtuali, semplicemente un core lavora su due carichi di lavoro contemporaneamente, come se ce ne fossero il doppio...
AceGranger
27-09-2018, 09:29
OT per OT.. perchè i core "virtuali" possono solo essere in pari numero rispetto ai core fisici? cioè perchè non possono fare un 4c/16t? :fagiano:
si possono fare benissimo, gli Xeon PHI ( basati sui core Atom Airmont ) per esempio, hanno un SMT 4-Way 61 core fisici e 244 thread.
Il problema è che poi devi adattare il codice e, visto che vogliono mantenere la massima compatibilta con il mondo PC, non credo sia conveniente farlo.
( ammesso poi che una CPU General Purpose tragga beneficio da questo tipo di architettura. )
Gyammy85
27-09-2018, 09:59
https://www.reddit.com/r/Amd/comments/9j76xa/linux_amdgpu_driver_gets_patches_enabling_two/
Interessanti questi due commenti
"GCN is becoming the graphic equivalent of x86 due to the backward compatibility and having them in BOTH PS4 and XboxOne that every game developers have to consider if they don't want to be shut out of the market.
(Nintendo, of course, is Apple in this analogy)
I'm gonna laugh so hard if Intel makes a GCN clone card for their first GPU by studying electron microsopic photos of AMD GPUs".
"Nvidia's "new" and "revolutionary" Turing GPU architecture is basically a GCN clone...
GCN won the GPU architecture war and looks like it will become the industry standard. Big win for AMD".
bagnino89
27-09-2018, 10:03
"Nvidia's "new" and "revolutionary" Turing GPU architecture is basically a GCN clone...
GCN won the GPU architecture war and looks like it will become the industry standard. Big win for AMD".
Soprattutto la prima: what??? :asd:
Hanno ottimi pusher su Reddit :asd:
Gyammy85
27-09-2018, 10:17
Soprattutto la prima: what??? :asd:
Hanno ottimi pusher su Reddit :asd:
Dai non fare così :vicini:
:asd: :asd:
Il nabbo di turno
27-09-2018, 10:20
Addirittura prendere i commenti su reddit e discuterci sopra, vedo che se la passa sempre meglio questo thread...
Gyammy85
27-09-2018, 10:27
Addirittura prendere i commenti su reddit e discuterci sopra, vedo che se la passa sempre meglio questo thread...
A volte ci sono commenti interessanti, tipo questi
Cosa c'è di così terribile?
Gyammy85
27-09-2018, 10:30
Siccome si parlava di gcn pensavo fosse uno spunto di discussione, scusate.
bagnino89
27-09-2018, 10:31
"Interessanti"
Sembra un commento pseudo-lucustiano :asd:
Free Gordon
27-09-2018, 11:01
OT per OT.. perchè i core "virtuali" possono solo essere in pari numero rispetto ai core fisici? cioè perchè non possono fare un 4c/16t? :fagiano:
https://www.7-cpu.com/cpu/Power7.html
I Power7 sono SMT4...
Ma sono ambiti particolari.
Free Gordon
27-09-2018, 11:09
There's something that lots of ppl are starting to notice in the benchmarks. Turing is pretty meh vs Pascal in a lot of games, but in titles where GCN/Vega runs strong, Turing leaps ahead really far vs Pascal.
There's been tech discussions covering this from twitter techies and forums. Turing is designed to be a compute powerhouse, it became very similar to GCN at the SM/CU level with its unified registers and layout.
They have a group of 16 Cuda cores (same as a SIMD group from GCN of 16 ALUs), 4 of which make up a SM with its own warp scheduler and shared registers, identical to a Compute Unit in GCN.
GCN optimized games typically cater to the 16 wide ALU and 64 ALU CU sharing a certain set of register resources, so shaders are designed to take that into account, register usage fits well to maximize ALU usage (no spill over of registers wasting cycles). Basically, if a dev wants to maximize GCN, they have to design their shaders to not utilize more than a certain amount of registers and in the past, this would conflict with Paxwell due to differences at the SM/SIMD/CU level.
Wavefront propagation also occurs in 4x 16 = 64 waves that fill the SM/CU fully within one wavefront as it is on GCN.
Turing runs very well in AMD optimized titles because its new SM design is very much like GCN's Compute Unit.
As for whether it can do Async Compute:
As far as real async compute, I dont think its able yet, because the unified registers (SM) in Turing is a good step forward, but I read the whitepaper and it requires a flush between running graphics and compute workloads and vice versa. ie. It cannot function with both graphics and compute in the SM at the same time. That's something GCN's registers can do. Looks like a partitioned Async like in Pascal, where some SMs is dedicated to compute while others runs graphics in situations where there's spare SMs not being fully tapped. It's more fine grained cos each SM is now only 64 cores, instead of 128 in Maxwell & Pascal.
Secondo lui il motivo è questo. Ma è solo un particolare... che effettivamente a livello di ripartizione dei carichi, potrebbe avere senso.
La questione è che nel caso di Nvidia, lo shader core gira a frequenze molto più alte rispetto ad AMD... e quindi il throughput totale è molto più alto. :)
Oltre che in Turing, sono presenti altri due tipi di core... :)
Gyammy85
27-09-2018, 11:20
Mi sembra ovvio che se vogliono un'architettura più flessibile e computing oriented, basta prendere quello che di buono ha gcn, hanno impiegato 6 anni per capirlo, ma ovviamente il parco giochi attuale è più che altro un fillrate tester per maxwell e pascal, vittime di loro stessi :asd:
Gyammy85
27-09-2018, 11:26
Che Turing fosse più simile a GCN di Pascal si sapeva da 1 anno almeno, ma tra l'essere più simile all'esserne il clone ne passa.
Vabbè dai son cose che si dicono, per dire che hanno utilizzato lo stesso concetto.
Alla fine lo spunto di discussione c'è stato, hai visto? :Prrr: :D
bagnino89
27-09-2018, 11:56
Mi sembra ovvio che se vogliono un'architettura più flessibile e computing oriented, basta prendere quello che di buono ha gcn, hanno impiegato 6 anni per capirlo, ma ovviamente il parco giochi attuale è più che altro un fillrate tester per maxwell e pascal, vittime di loro stessi :asd:
Nvidia che cerca di inseguire AMD nelle architetture GPU mi mancava proprio :asd:
bagnino89
27-09-2018, 12:11
Bastava chiedere a lui e glielo avrebbe detto 6 anni fa :O
Se in questi 6 anni con la strategia scellerata di nVidia si è arrivati al 70/30 pensa un po cosa sarebbe successo se avessero avuto questa dritta...
Interveniva l'Antitrust per l'eccessivo monopolio :asd:
ma GCN non era una (cit) cagata pazzesca ai giorni nostri e andava mandata in pensione perchè di concezione vecchia e ora è diventata la base di partenza per RTX? :asd:
gyammy... ti prego. :fagiano:
anche la fiat ha copiato la lamborghini: le loro auto hanno entrambe 4 ruoteh!!!11!!!! :asd:
Gyammy85
27-09-2018, 12:15
ma GCN non era una (cit) cagata pazzesca ai giorni nostri e andava mandata in pensione perchè di concezione vecchia e ora è diventata la base di partenza per RTX? :asd:
gyammy... ti prego. :fagiano:
anche la fiat ha copiato la lamborghini: le loro auto hanno entrambe 4 ruoteh!!!11!!!! :asd:
Di sicuro non sono io a dire che gcn fa schifo
Mah...
ninja750
27-09-2018, 12:59
ma GCN non era una (cit) cagata pazzesca ai giorni nostri e andava mandata in pensione perchè di concezione vecchia
infatti se guardi i bench la 2080ti è arrivata a consumare come quell'altoforno di vega64 :O
Che non l'hai detto tu lo so. Come architettura ha fatto il suo tempo. Bisogna rinnovarla completamente o addirittura stravolgerla per stare al passo di nvidia. Spero che Navi sia un'apripista per qualcosa di nuovo.
Inviato dal mio ASUS_X00ID utilizzando Tapatalk
AceGranger
27-09-2018, 13:22
infatti se guardi i bench la 2080ti è arrivata a consumare come quell'altoforno di vega64 :O
si, con la piccola differenza del doppio degli fps :stordita:
sono proprio 2 architetture gocce d'acqua :asd:
Gyammy85
27-09-2018, 13:29
"Tanto rumore per nulla" come si dice :asd:
Deve esserci proprio tanta noia nei thread Nvidia...
bagnino89
27-09-2018, 13:33
"Tanto rumore per nulla" come si dice :asd:
Deve esserci proprio tanta noia nei thread Nvidia...
Oddio, a me sembra che si annoino di più su Reddit :asd:
AceGranger
27-09-2018, 13:33
"Tanto rumore per nulla" come si dice :asd:
Deve esserci proprio tanta noia nei thread Nvidia...
no è che qua è come "la sai l'ultima", fa sempre bene ridere un po :asd:
Gyammy85
27-09-2018, 13:39
Arcturus potrebbe essere il nome della futura fascia alta e navi la fascia media imho
ninja750
27-09-2018, 13:45
si, con la piccola differenza del doppio degli fps :stordita:
dettagli :O
ninja750
27-09-2018, 13:46
È mortificante dover pure far notare certe cose su un forum tecnico...
ironia eh..
dettagli :O
E con la differenza che VEGA con il downvolt e l'overclock e le uberfeatures che verranno sbloccate un domai, raggiunge prestazioni che fra 10 anni saranno ancora all'altezza mentre una 2080 sarà castrata dai driver già dopo 2 giorni dall'uscita della serie nuova.
bagnino89
27-09-2018, 14:00
E con la differenza che VEGA con il downvolt e l'overclock e le uberfeatures che verranno sbloccate un domai, raggiunge prestazioni che fra 10 anni saranno ancora all'altezza mentre una 2080 sarà castrata dai driver già dopo 2 giorni dall'uscita della serie nuova.
Botti d'oro, altro che rovere :asd:
Gyammy85
27-09-2018, 14:15
No, Arcturus (ammesso che sia il nome vero) arriverà ancora dopo, presumibilmente tra 2
Strano che già ora trapeli il nome...
Angeland
27-09-2018, 14:31
E con la differenza che VEGA con il downvolt e l'overclock e le uberfeatures che verranno sbloccate un domai, raggiunge prestazioni che fra 10 anni saranno ancora all'altezza mentre una 2080 sarà castrata dai driver già dopo 2 giorni dall'uscita della serie nuova.
Viste le differenze dell'architettura tra Pascal e Turing, io non ci farei troppa ironia :asd: é già accaduto in passato :asd:
ninja750
27-09-2018, 14:38
Oh... c'è sapphire nitro+ vega 64 a 470€ su yeppon :fagiano:
a quel prezzo uno si aspetterebbe la 56 sui 400 e invece..
Piedone1113
27-09-2018, 14:46
https://www.7-cpu.com/cpu/Power7.html
I Power7 sono SMT4...
Ma sono ambiti particolari.
SMT8 (https://en.wikipedia.org/wiki/SPARC_T5) ;)
AceGranger
27-09-2018, 15:08
C'è anche il dettaglio che con il costo di una 2080ti compro due vega 64 e la corrente per farle andare in full 1 anno intero 24/7 :asd:
devi anche passare da un ali da 650W a uno da 900W :p
Free Gordon
27-09-2018, 15:33
SMT8 (https://en.wikipedia.org/wiki/SPARC_T5) ;)
https://www.7-cpu.com/cpu/Power7.html
Io leggo:
8 cores per socket, 16-cores total, 64-threads total
quelli che segnali tu son gli SPARC T4 e T5 ;-)
Free Gordon
27-09-2018, 15:35
a quel prezzo uno si aspetterebbe la 56 sui 400 e invece..
e invece costa uguale.. :asd:
Cmq le 64 stanno finalmente scendendo da un 10gg a questa parte..
Speriamo che le 56 seguano la stessa sorte e calino sotto le 400€ nel giro di poco..
bagnino89
27-09-2018, 16:43
Oh... c'è sapphire nitro+ vega 64 a 470 su yeppon :fagiano:Ad averli un anno fa 'sti prezzi...
deadbeef
27-09-2018, 19:04
Strano che già ora trapeli il nome...
False alarm, folks. The code names are just something we will be using in the open source driver code, so we can publish code supporting new chips for upstream inclusion before launch without getting tangled up in marketing name secrecy.
Trying to avoid the confusion we have today where we publish new chip support as "VEGA10" and then the product gets marketed as "Vega 56" or "Vega 64". In future the new chip support might get published as something like "MOOSE" and then be marketed as something completely different.
The code names are per-chip not per-generation.
Ale55andr0
27-09-2018, 19:32
Oh... c'è sapphire nitro+ vega 64 a 470€ su yeppon :fagiano:
per un attimo avevo letto "youpo*n" :asd: :D
Ale55andr0
27-09-2018, 19:35
infatti se guardi i bench la 2080ti è arrivata a consumare come quell'altoforno di vega64 :O
andando quanto, solo il 70% in più? :asd: :D
dai dimmi che era una battuta :fagiano:
ironia eh..
ahhhh bricconcello :D E' che qui non si è capito più (fra PR di una parte e dell'altra) se si scherza o si parla sul serio :D
si, con la piccola differenza del doppio degli fps :stordita:
sono proprio 2 architetture gocce d'acqua :asd:
mi sento ancora in dovere ti ricordarti la tua firma :asd: e pure la faccina convinta a fianco e i colori della sigla :asd:
C'è anche il dettaglio che con il costo di una 2080ti compro due vega 64 e la corrente per farle andare in full 1 anno intero 24/7 :asd:
per scaldarti in inverno in modo alternativo? :D
devi anche passare da un ali da 650W a uno da 900W :p
oggi mi fate morire tutti :asd:
Gyammy85
27-09-2018, 19:50
Per ogni post in topic bisogna sorbirsi 2 pagine di battute simpatiche e frecciatine?
Ale55andr0
27-09-2018, 20:00
te che "rimproveri" mi mancava visto che sei lo specialista delle auto-contro trollate con scappellamento a destra e i deliri via aggiornamento driver perchè si' since...always :sofico:
sniperspa
27-09-2018, 20:04
Questo thread è meglio di Inception ormai
bilbobaghins
27-09-2018, 20:13
Oh... c'è sapphire nitro+ vega 64 a 470€ su yeppon :fagiano:
too late, già comprata due giorni fa :fagiano:
Roland74Fun
27-09-2018, 20:24
...oggi mi fate morire tutti :asd:
Aspe'..... mancava quella di passare il contratto da 3kw a 6kw ed il meme finale in gif animata col fungo atomico.....
AceGranger
27-09-2018, 20:32
mi sento ancora in dovere ti ricordarti la tua firma :asd: e pure la faccina convinta a fianco e i colori della sigla :asd:
a maggior ragione che parlo per esperienza :asd: l'ho presa come GPU di transizione per sostanzialmente 2 software e molto speranzoso; un po come acquistare VEGA 64 per giocare solo ai 2 titoli dove va bene :sofico:.
comunque tranquillo, non cadro piu in errore :asd:, i prossimi 1200/2400 euro torneranno ad nVidia.
te che "rimproveri" mi mancava visto che sei lo specialista delle auto-contro trollate con scappellamento a destra e i deliri via aggiornamento driver perchè si' since...always :sofico:
:asd:
Gyammy85
27-09-2018, 20:38
a maggior ragione che parlo per esperienza :asd: l'ho presa come GPU di transizione per sostanzialmente 2 software e molto speranzoso; un po come acquistare VEGA 64 per giocare solo ai 2 titoli dove va bene :sofico:.
comunque tranquillo, non cadro piu in errore :asd:, i prossimi 1200/2400 euro torneranno ad nVidia.
:asd:
https://i.postimg.cc/w3KS7fpp/8000.jpg (https://postimages.org/)
AceGranger
27-09-2018, 20:47
https://i.postimg.cc/w3KS7fpp/8000.jpg (https://postimages.org/)
https://afinde-production.s3.amazonaws.com/uploads/d44bc0ab-0137-47d4-ad43-7fd0455939fd.jpg
Einhander
28-09-2018, 11:31
...cut..
ps. bellissimo il Meme con THE HOFF*
*Fixed
:asd: :asd:
Einhander
28-09-2018, 14:55
https://media.giphy.com/media/dF2w3l5gudW3C/giphy.gif
moro ahahahahahahahahah :rotfl: :rotfl:
Lunar Wolf
28-09-2018, 18:39
Che schifo
A chi posso regalare sta ciofeca di scheda che mi prendo una bella e potente vga verde?
AceGranger
28-09-2018, 20:19
Sinceramete non capisco se stai trollando oppure no :asd:
In caso affermativo la pubertá deve essere piú severa di quanto ricordassi.
facciamo che dai una rilettura alla frase e ai quote, cosi magari capisci meglio e quoti la parte importante della frase e non la similitudine :p
Gyammy85
28-09-2018, 20:59
Probabili primi bench di vega 20 vs vega 10
https://compubench.com/compare.jsp?benchmark=compu20d&did1=64197418&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=AMD%2066A0%3A00&D2=AMD%20Radeon(TM)%20RX%20Vega
Siamo a +41.4% in media su tutti i test effettuati
Gyammy85
28-09-2018, 21:02
Per confronto ecco la situazione con quel bench
https://www.anandtech.com/show/13346/the-nvidia-geforce-rtx-2080-ti-and-2080-founders-edition-review/15
Ci sono buone possibilità che stia confortabilmente sopra la 2080ti
Angeland
28-09-2018, 21:08
Mamma mia, che potenza questa vega:
http://www.pcgameshardware.de/Forza-Horizon-4-Spiel-61748/Specials/Forza-Horizon-4-Technik-Test-Benchmarks-1265758/
E' chiaramente una Techdemo amd, non vale :read:
Probabili primi bench di vega 20 vs vega 10
https://compubench.com/compare.jsp?benchmark=compu20d&did1=64197418&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=AMD%2066A0%3A00&D2=AMD%20Radeon(TM)%20RX%20Vega
Siamo a +41.4% in media su tutti i test effettuati
Ma è la instinct a 7nm?
Il 40% solo dal passaggio di pp e memorie piu' veloci fa ben presagire.
Gyammy85
28-09-2018, 21:15
Ma è la instinct a 7nm?
Il 40% solo dal passaggio di pp e memorie piu' veloci fa ben presagire.
Dicono che forse è quella ma penso di si
Già mesi fa era apparso un probabile score l 3dmark 11, e andava un 10% meno la vega fe ma con 600 mhz in meno di clock. Quello è un incremento medio, perché in quei pochi test si passa dal +23% al +70%, sarebbe interessante vedere i clock, però se davvero ha sempre 64 cu, il miglioramento è MOLTO interessante. Se in quel test fa +70%, potrebbero aver rimosso i punti deboli, ne verrebbe fuori una bella Navi bestiolina sia gaming che computing (gameputing) :O
Roland74Fun
28-09-2018, 21:41
E' chiaramente una Techdemo amd, non vale :read:
Ognuno ha il proprio "cavallo di battaglia"...
Ad AMD piacciono i giochi di auto in generale. Tranne grand theft"auto"... :(
AceGranger
28-09-2018, 21:52
Per confronto ecco la situazione con quel bench
https://www.anandtech.com/show/13346/the-nvidia-geforce-rtx-2080-ti-and-2080-founders-edition-review/15
Ci sono buone possibilità che stia confortabilmente sotto la 2080ti
fixed, se la scheda rimane quella del bench.
https://compubench.com/device.jsp?benchmark=compu20d&os=Windows&api=cl&cpu-arch=x86&hwtype=dGPU&hwname=NVIDIA%20TITAN%20Xp&did=48384716&D=NVIDIA%20TITAN%20Xp
Level Set Segmentation – 128
Presunta VEGA 20 - 14439.407 mVoxels/s
Titan Xp - 17645.535 mVoxels/s
Vertex Connection and Merging
Presunta VEGA 20 - 18.052 mPixels/s
Titan Xp - 19.136 mPixels/s
Subsurface Scattering
Presunta VEGA 20 - 10253.645 mSample/s
Titan Xp - 12075.289 mSample/s
Subsurface Scattering multiple view
Presunta VEGA 20 - 9407.397 mSample/s
Titan Xp - 11236.517 mSample/s
TV-L1 Optical Flow
Presunta VEGA 20 - 78.539 mPixels/s
Titan Xp - 74.35 mPixels/s
4 su 5 bench li perde contro la Titan Xp...
Gyammy85
28-09-2018, 21:59
fixed, se la scheda rimane quella del bench.
https://compubench.com/device.jsp?benchmark=compu20d&os=Windows&api=cl&cpu-arch=x86&hwtype=dGPU&hwname=NVIDIA%20TITAN%20Xp&did=48384716&D=NVIDIA%20TITAN%20Xp
Level Set Segmentation – 128
Presunta VEGA 20 - 14439.407 mVoxels/s
Titan Xp - 17645.535 mVoxels/s
Vertex Connection and Merging
Presunta VEGA 20 - 18.052 mPixels/s
Titan Xp - 19.136 mPixels/s
Subsurface Scattering
Presunta VEGA 20 - 10253.645 mSample/s
Titan Xp - 12075.289 mSample/s
Subsurface Scattering multiple view
Presunta VEGA 20 - 9407.397 mSample/s
Titan Xp - 11236.517 mSample/s
TV-L1 Optical Flow
Presunta VEGA 20 - 78.539 mPixels/s
Titan Xp - 74.35 mPixels/s
4 su 5 bench li perde contro la Titan Xp...
Mettendo lo stesso scaling del 50% circa su level segmentation supererebbe la 2080ti, ma con l'optical flow la titan xp sta così vicina alla 2080ti? la 1080ti fa 61.70
AceGranger
28-09-2018, 22:11
Mettendo lo stesso scaling del 50% circa su level segmentation supererebbe la 2080ti,
quindi, su 5 bench, in 4 sta sotto alla Titan Xp, ma ipoteticamente su 1 starebbe sopra la 2080Ti
risultato per te "confortabilmente sopra la 2080Ti" :mbe:
fra l'altro mettiamo un doppio ipoteticamente perchè nel level segmentation 256 la 2080Ti su anandtech ha un valore inferiore a quello della Titan Xp che è di 18887.016 mVoxels/s.
credo che i test di Anandtech siano in OpenCL e non in CUDA.
ma con l'optical flow la titan xp sta così vicina alla 2080ti? la 1080ti fa 61.70
non so cosa influisca in quel bench.
Potresti semplificare la lettura limitando la frase alla parte che abbia un senso, capisco sia difficile peró :asd:
è scritto perfettamente in italiano e il senso è chiarissimo, esercitati :asd:
Gyammy85
28-09-2018, 22:26
quindi, su 5 bench, in 4 sta sotto alla Titan Xp, ma ipoteticamente su 1 starebbe sopra la 2080Ti
risultato per te "confortabilmente sopra la 2080Ti" :mbe:
fra l'altro mettiamo un doppio ipoteticamente perchè nel level segmentation 256 la 2080Ti su anandtech ha un valore inferiore a quello della Titan Xp che è di 18887.016 mVoxels/s.
credo che i test di Anandtech siano in OpenCL e non in CUDA.
Si si tutto opencl
AceGranger
28-09-2018, 22:31
Si si tutto opencl
eh... allora non hanno molto senso quei valori... uno che ha nVidia usa CUDA...
EDIT:
"While using binaries compiled for Volta, Turing is backwards compatible in that respect."
non hanno nemmeno usato una nuova compilazione ad hoc ma hanno riciclato quella di Volta...
per valori piu certi aspetterei i bench ufficiali sul sito.
Angeland
29-09-2018, 01:00
Ah ecco, svelato l'arcano:D :D stavo già annullando l'ordine della rtx, con queste prestazioni quasi equiparabili a rtx 2080, sarebbe stupido spendere cosi tanto per la verde.:D
Grazie per l'info:D
No,no, che annullare, vai tranquillo :D questo è un caso trattandosi di un gioco sviluppato nativamente in dx 12.
Con i prossimi giochi dx 11 --> dx 12 ready potrai sfruttare tutta la potenza delle nuove rtx :D
Gyammy85
29-09-2018, 07:26
eh... allora non hanno molto senso quei valori... uno che ha nVidia usa CUDA...
EDIT:
"While using binaries compiled for Volta, Turing is backwards compatible in that respect."
non hanno nemmeno usato una nuova compilazione ad hoc ma hanno riciclato quella di Volta...
per valori piu certi aspetterei i bench ufficiali sul sito.
Quello è un bench opencl, quindi testa opencl, e le schede hanno quelle performance, punto.
No,no, che annullare, vai tranquillo :D questo è un caso trattandosi di un gioco sviluppato nativamente in dx 12.
Con i prossimi giochi dx 11 --> dx 12 ready potrai sfruttare tutta la potenza delle nuove rtx :D
:asd: :asd:
walter.caorle
29-09-2018, 10:42
Mamma mia, che potenza questa vega:
http://www.pcgameshardware.de/Forza-Horizon-4-Spiel-61748/Specials/Forza-Horizon-4-Technik-Test-Benchmarks-1265758/
Qualcuno con vega 64, potrebbe farmi il benchmark integrato, preset ultra msaax2, a 1440p e 4k. Grazie :)
Gyammy85
29-09-2018, 10:48
I risultati sono più o meno quelli, io a ultra faccio in po' di più a 2k e uguale a 4k
Gyammy85
29-09-2018, 10:53
Anche perché con 500€ di una Turing ti fanno vedere la scatola
Oppure una 2070 in forte sconto che va di meno ma con qualche raggio in più :asd:
Einhander
29-09-2018, 11:10
AceGranger toh:
https://www.facebook.com/photo.php?fbid=10216945593015731&set=gm.544255476023667&type=3
Vray rtx: up to 65% faster..molto più veloce di un 2990wx...
Gyammy85
29-09-2018, 11:14
AceGranger toh:
https://www.facebook.com/photo.php?fbid=10216945593015731&set=gm.544255476023667&type=3
Vray rtx: up to 65% faster..molto più veloce di un 2990wx...
Ma guarda un po'!! usando il loro tool sviluppato da loro apposta per turing :asd:
Einhander
29-09-2018, 11:42
Ma guarda un po'!! usando il loro tool sviluppato da loro apposta per turing :asd:
Sempre vray è Gyammy...era per far vedere che c'è effettivamente molto incremento utilizzando le unità dedicate al RT anche in ambito semi pro e pro.
Anche cuda è sviluppato da loro, ma se vuoi usare le nvidia in ambito render unbiased o biased sempre con CUDA devi interfacciarti.
RTX o meno è la stessa cosa. Cambia l'hardware cambia anche il software.
E non è guarda un po un cavolo a breve anche redshift integrerà tale feature e di base è gia molto piu veloce di vray.
Il punto non è quello che usi, ma le prestazioni che hai alla fine.
O adesso bisogna sindacare pure i linguaggi di programmazione?
Il punto è che l'hardware dedicato al RT lo useranno prima i professionisti dei gamerz :asd:
Molto prima e molto piu a fondo :asd:
Gyammy85
29-09-2018, 11:43
Sempre vray è Gyammy...era per far vedere che c'è effettivamente molto incremento utilizzando le unità dedicate al RT anche in ambito semi pro e pro.
Anche cuda è sviluppato da loro, ma se vuoi usare le nvidia in ambito render unbiased o biased sempre con CUDA devi interfacciarti.
RTX o meno è la stessa cosa. Cambia l'hardware cambia anche il software.
E non è guaeda un po un cavolo a breve anche redahift integrerà tale feature e di base è gia molto piu veloce di vray.
Il punto non è quello che usi, ma le prestazioni che hai alla fine.
O adesso bisogna si dacare pure i linguaggi di programmazione?
Il punto è che gli RT lo useranno prima i professionisti dei gamerz :asd:
Ovvio che se uno usa le unità dedicate si va di più, non le avrebbero fatte se no
Einhander
29-09-2018, 11:52
Ma io mi chiedo ad AMD gli costerebbe cosi tanto crearsi un equivalente di CUDA?
Pur mantenendo la compatibilita ad opencl, perche nn scrivere una libreria/linguaggio in grado di sfruttare al meglio il proprio hardware (dato anche lo squilibrio che lo caratterizza livello architettonico soprattutto sulla fascia alta).
Mboh...
TheDarkAngel
29-09-2018, 11:57
Ma io mi chiedo ad AMD gli costerebbe cosi tanto crearsi un equivalente di CUDA?
Pur mantenendo la compatibilita ad opencl, perche nn scrivere una libreria/linguaggio in grado di sfruttare al meglio il proprio hardware (dato anche lo squilibrio che lo caratterizza livello architettonico soprattutto sulla fascia alta).
Mboh...
Non credo che opencl abbia un qualche svantaggio prestazionale, sono gli sviluppatori che non si muovono senza incentivo.
Gyammy85
29-09-2018, 11:58
Ma io mi chiedo ad AMD gli costerebbe cosi tanto crearsi un equivalente di CUDA?
Pur mantenendo la compatibilita ad opencl, perche nn scrivere una libreria/linguaggio in grado di sfruttare al meglio il proprio hardware (dato anche lo squilibrio che lo caratterizza livello architettonico soprattutto sulla fascia alta).
Mboh...
Boh Nvidia metterà troppi paletti, o è contrario alla filosofia aziendale di amd, o semplicemente antipatia viscerale :D
Einhander
29-09-2018, 12:03
Ovvio che se uno usa le unità dedicate si va di più, non le avrebbero fatte se no
L'unica, piccola, differenza è che quando le si useranno nei giochi, le unità dedicate, si andrà molto, molto...di meno :asd:
Einhander
29-09-2018, 12:10
Non credo che opencl abbia un qualche svantaggio prestazionale, sono gli sviluppatori che non si muovono senza incentivo.
Dici?
Quindi CUDA nel caso di nvidia è nato solo a scopo marketing? O solo per mantenere tutto "in casa"?
Siamo sicuri del fatto che opencl consenta lo stesso livello prestazionale e di facilità d'accesso alle risorse hardware della gpu?
Chiedo perche lato programmazione sono poco piu di un'ameba :asd:
AceGranger
29-09-2018, 12:51
Quello è un bench opencl, quindi testa opencl, e le schede hanno quelle performance, punto.
deve essere proprio bello vivere fuori dalla realta :asd:
AceGranger toh:
https://www.facebook.com/photo.php?fbid=10216945593015731&set=gm.544255476023667&type=3
Vray rtx: up to 65% faster..molto più veloce di un 2990wx...
tanta roba
Non credo che opencl abbia un qualche svantaggio prestazionale, sono gli sviluppatori che non si muovono senza incentivo.
CUDA è sempre stato usato anche senza incentivi perchè, anche se sei uno sviluppatore piccolo, hai comunque un canale diretto con nVidia e gli SDK di nVidia sono sempre stati di ottimo livello, senza contare che essendo un linguaggio cucito sopra le GPU nVidia riesce ad essere piu efficiente.
Ma io mi chiedo ad AMD gli costerebbe cosi tanto crearsi un equivalente di CUDA?
Pur mantenendo la compatibilita ad opencl, perche nn scrivere una libreria/linguaggio in grado di sfruttare al meglio il proprio hardware (dato anche lo squilibrio che lo caratterizza livello architettonico soprattutto sulla fascia alta).
Mboh...
andrebbe contro la loro filosofia di far fare le cose agli altri :asd:
ci hanno messo 6 anni a farsi un loro motore di render, magari fra altri 6 arriveranno anche a capire che devono investire in supporto e in codici proprietari ed efficienti.
Roland74Fun
29-09-2018, 13:40
Alla luce delle considerazioni testé elencate sull'implementazione di unità dedicate e di compatibilità delle librerie di sviluppo, se qualcuno in definitiva volesse liberarsi di una scheda video incompatibile colle sue esigenze/preferenze, mi dichiaro disponibile a raccattare un eventuale scarto, posso fare un'offerta simbolica...
Free Gordon
29-09-2018, 14:44
Alla luce delle considerazioni testé elencate sull'implementazione di unità dedicate e di compatibilità delle librerie di sviluppo alla se qualcuno in definitiva volesse liberarsi di una scheda video incompatibile colle sue esigenze/preferenze mi dichiaro disponibile a raccattare un eventuale scarto, posso fare un'offerta simbolica...
mi unisco... :asd:
Grazie Roland. :D
Gyammy85
30-09-2018, 20:50
Ecco in anteprima un'immagine dal video promozionale di Navi
https://i.postimg.cc/SsJL9cpx/2018-09-28_2.png (https://postimages.org/)
Roland74Fun
30-09-2018, 21:06
Ecco in anteprima un'immagine dal video promozionale di Navi
[/img][/url]
Io manco lo aprirei il thread di NAVI.
Tanto andrà a finire sempre nello stesso modo.
Gyammy85
01-10-2018, 08:25
Come ho detto se nel 2019 AMD presenta una Navi sui 300€ con prestazioni abbastanza superiori alla 1070 potrei prenderla, in tal caso mi piazzerei nel thread e segnalerei chiunque trolli cercando di evitare che diventi come quello di Vega (che ho abbandonato per disperazione)
Ma un chip da 320 mm2 sarebbe ottimo per una fascia media no?
Sembra che vega 20 abbia un vantaggio del 40-50% su vega 10, vabbè che sarà instinct, però il chip quello è...
Ton90maz
01-10-2018, 08:54
Ma un chip da 320 mm2 sarebbe ottimo per una fascia media no?
Sembra che vega 20 abbia un vantaggio del 40-50% su vega 10, vabbè che sarà instinct, però il chip quello è...
Oggi la fascia media quale sarebbe? 4-5-600 euro? :sofico:
Gyammy85
01-10-2018, 08:58
Sarebbe il minimo, non ottimo.
La 1070 è un 314mm2 a 16nm cuttato se nel 2019 con i 7nm non riescono a fare di meglio tanto vale lasciare stare no?
Polaris a 14 nm riesce a tenere testa a fury e in qualche caso alla 980ti a 28 nm, e considera che è un chippino semplice ma ben bilanciato, qui abbiamo un salto di nodo ancora migliore e tanti soldi in più da investire
Scordatevi le dimensioni dei chip, perché ormai contano poco basta guardare Turing... i 7nm non fanno miracoli nello scaling, si aiutano, ma 300mmq non credo riusciranno a fare ciò che si fa oggi a 750, soprattutto se dentro ci metti unità extra come RT, TC e compagnia, ste gpu sembrano sempre più delle cpu, dei SoC dalle dimensioni mostruose, con 100mmq potrebbero integrare una cpu 8 core sui 7nm, per dire...
AMD potrebbe decidere di non dedicare spazio al ray tracing e guadagnarne in perf/watt, ma alla lunga è una scelta che non paga considerando il fatto che il gaming si sposterà sempre più verso quella direzione.
Saltare una gen di ray tracing non è un problema, vedi Turing, 2 incomincerebbe ad esserlo.
Da quello che ho intuito amd preferirebbe un approccio misto raster/rt, in questo modo non servirebbe chissà quale specializzazione delle alu, che poi fra parentesi, anche con le unità dedicate nvidia il frame rate nella migliore delle ipotesi si dimezza...
AceGranger
01-10-2018, 09:12
Da quello che ho intuito amd preferirebbe un approccio misto raster/rt, in questo modo non servirebbe chissà quale specializzazione delle alu,
perchè ha annunciato qualche cosa di nuovo ?
quello attuale di nVidia è un misto, quello che ha presentato AMD fino ad ora in ambito gaming di misto non ha nulla, il gioco è e rimane full raster.
Gyammy85
01-10-2018, 09:42
In un documento di amd si parlava del loro approccio al ray tracing e si accennava ad un metodo misto
AceGranger
01-10-2018, 09:51
In un documento di amd si parlava del loro approccio al ray tracing e si accennava ad un metodo misto
quel documento parlava del light baking di Unity accelerato dalla GPU, quindi nulla a che vedere con un sistema misto in game e nulla che non si potesse gia fare per es. con Octane sempre dentro a Unity.
vedremo se presenteranno qualche cosa in concomitanza con la GPU, perchè ad oggi di RT gaming AMD non ha presentato nulla.
Gyammy85
01-10-2018, 09:58
Se è vero che vega 20 avrà sempre 64 cu son proprio curioso di vedere come hanno aumentato il tutto, frequenze? Ipc?
Gyammy85
01-10-2018, 10:24
e cosa c'entra con quello che ho detto? :stordita:
La prossima fascia media DEVE andare come la fascia alta o più di quella di oggi aka 2080/1080ti, non basta andare come gp104 o Vega, ma nel modo più assoluto, anche perchè ad nVidia non costa nulla rimarchiare gp104 in 2060 già OGGI, e quindi coi 7nm poi ti attacchi al tram se non vai oltre a meno che Navi non esca nel Q1 2019, ma è impossibile.
Io ho forti dubbi che la fascia media dei 7nm sia intorno i 200mmq, perchè nVidia si è spinta oltre già dai 14nm e ha il vantaggio delle perf/watt quindi con meno mmq fa più fps, per quello dico che ormai non si possono più fare stime sui mmq di Navi anche se ne determina il costo finale certo, ma in concorrenza Turing costerebbe almeno 200 carte di meno.
Potresti fare vega in 200mmq o poco più e pompare le frequenze per avere 1080ti performance a frazioni del costo, ma per forza di cose dovranno aumentare anche il bus e quindi alla fine le dimensioni crescono, come anche i prezzi, ma se nvidia raddoppia o quasi i riferimenti per fascia, dubito che amd non tenda a fare altrettanto...
Gyammy85
01-10-2018, 10:25
credo che molto faccia la banda, quindi in alcuni scenari dove prima poteva soffrire di collo banda adesso guadagni più che al solo guadagno del core clock,
pertanto lo scaling risulta superiore la dove prima era un po' bloccato.
ad esempio in alcuni scenari dove non aveva problemi vedrai solo un guadagno 1:1 con il clock core.
in IPC non credo ci siano differenze, magari essendo una gpu hpc potrebbero aver toccato la cache, per adeguarla alle necessità delle fp64.
Insomma alla fine una furyx oc++ a 7 nm, as usual
Gyammy85
01-10-2018, 10:30
Eh basta con sta vega.
Per quanto riguarda il gaming dubito che vedremo un'altra vega.
Si lo so era per fare un esempio sulle dimensioni
curiosità : si sà già il "nome" del dopo NAVI ?! :sofico:
Windtears
01-10-2018, 18:31
https://www.youtube.com/watch?v=rOxz5Tc-YRs
quando vi parlavo dei dazi usa per i prodotti importati dalla Cina ecc.
il video di steve. Come temevo, ci potrebbero essere anche effetti per l'europa come misura di bilanciamento dei prezzi a livello mondiale. :(
Roland74Fun
01-10-2018, 18:33
Ma cosa è questa storia ?
Ora è sparita da sola, ma mi sono accorto per un certo periodo di tempo che nella mia firma la scritta iNdivia :fuck: GT1030 ecc... che ho messo tutto in verde appariva con la scritta NVIDIA in rosso porpora.
Ora è spari
https://i.postimg.cc/h4CCXgZG/Firma_PC.jpg (https://postimages.org/)
Peggio ancora è diventato un link alla front page di iNdivia :fuck: con in bella mostra la RTX 2080ti...
eppure io non ho messo nessun link in firma....
https://i.postimg.cc/bNCRwTJS/Firma.jpg (https://postimages.org/)
Ma a che gioco stiamo giocando?... e sono serio....anzi sono molto arrabbiato.
Capisco il marketing aggressivo ma questa poi....:mad: :mad:
Gyammy85
01-10-2018, 18:37
Ma cosa è questa storia ?
Mi sono accorto che nella mia firma la scritta Nvidia GT 1030 che ho messo tutto in verde ora appare con la scritta NVIDIA in rosso porpora.
https://i.postimg.cc/h4CCXgZG/Firma_PC.jpg (https://postimages.org/)condividere foto online (https://postimages.org/it/)
Peggio ancora è diventato un link alla front page di nvidia con in bella mostra la RTX 2080ti...
eppure io non ho messo nessun link in firma....
https://i.postimg.cc/bNCRwTJS/Firma.jpg (https://postimages.org/)
Ma a che gioco stiamo giocando?... e sono serio....anzi sono molto arrabbiato.
Capisco il marketing aggressivo ma questa poi....:mad: :mad:
Si capita anche a me quando lo scrivo, è il mercato baby
Amd voleva farlo ma non avendo le unità dedicate non può
Roland74Fun
01-10-2018, 18:41
Si capita anche a me quando lo scrivo, è il mercato baby
Amd voleva farlo ma non avendo le unità dedicate non può
È apparso anche nel testo di questo post...
Basta scrivere la parolina magica che ti mette automaticamente un link a casa loro....
Senza parole....:eek: :eek:
Gyammy85
01-10-2018, 18:45
È apparso anche nel testo di questo post...
Basta scrivere la parolina magica che ti mette automaticamente un link a casa loro....
Senza parole....:eek: :eek:
Vabbè dai tanto non da nessun fastidio, una pacca sulla spalla e non ci pensi più.
passavo di qua e... niente, volevo solo dirvi che.... vi voglio bene!... qualsiasi cosa accadrà! :O
:sofico:
Gyammy85
01-10-2018, 20:29
Voci dicono Arthurus ma niente di ufficiale.
Si chiamerà Rayzen
Roland74Fun
01-10-2018, 20:37
Allora, ho fatto una prova con un nuovo messaggio, scrivendo tutti i marchi di componenti informatici a me noti e visualizzando l'anteprima messaggio.
Provate ad indovinare qual è stato l'unico che dopo qualche secondo diventa un link al sito di riferimento?
Potrebbe dipendere dal fatto che ho i drivers installati nel sistema?
Gyammy85
01-10-2018, 20:40
Allora, ho fatto una prova con un nuovo messaggio, scrivendo tutti i marchi di componenti informatici a me noti e visualizzando l'anteprima messaggio.
Provate ad indovinare qual è stato l'unico che dopo qualche secondo diventa un link al sito di riferimento?
Potrebbe dipendere dal fatto che ho i drivers installati nel sistema?
No, lo fa anche a me, ho solo quelli physics.
Roland74Fun
01-10-2018, 20:48
No, lo fa anche a me, ho solo quelli physics.
Con Edge non mi accade.
Me lo fa solo con Firefox e solo con questo forum.
In quell'altro forum e su quelli esteri nessun link.
Ora basta OT. Chiedo sul thread di Firefox se sanno qualche cosa.
passavo di qua e... niente, volevo solo dirvi che.... vi voglio bene!... qualsiasi cosa accadrà! :O
:sofico:
il prossimo evento del forum avverrà con la prossima serie gpu di amd.........................................................sarà un lungo arrivederci :asd:
Ton90maz
02-10-2018, 07:44
Potresti fare vega in 200mmq o poco più e pompare le frequenze per avere 1080ti performance a frazioni del costo, ma per forza di cose dovranno aumentare anche il bus e quindi alla fine le dimensioni crescono, come anche i prezzi, ma se nvidia raddoppia o quasi i riferimenti per fascia, dubito che amd non tenda a fare altrettanto...Ho qualche dubbio che la baracca possa stare in 200 mm quadrati, dovrebbero essere proprio miracolosi sti 7 nani, neanche spappolando via qualche cu.
l'ho detto dal lancio di turing, AMD dovrebbe approfittarne e mettere delle vega20 di scarto nelle gpu gaming, come minimo becchi la 2080, e nelle techdemo tipo FH4 la 2080ti :sofico:
my body is ready :O :O :O
Gyammy85
02-10-2018, 09:46
che noia con sti quote, mi tocca leggere per forza chi ho in ignore :rolleyes:
l'ho detto dal lancio di turing, AMD dovrebbe approfittarne e mettere delle vega20 di scarto nelle gpu gaming, come minimo becchi la 2080, e nelle techdemo tipo FH4 la 2080ti :sofico:
Sembra che vega 20 vada l'80% in più di vega 10 coi vertex shader in base a quel bench, quindi c'è quasi un raddoppio delle capacità geometriche, alcuni dicono che abbiano attivato il discard...Comunque considerando che quasi sicuramente hanno mantenuto le 64 cu è un incremento enorme
Free Gordon
02-10-2018, 12:20
Al massimo Vega20, dati i valori leakati, potrebbe essere un 80CU/4Geo...
Oppure un 64CU/4Geo con frequenze altissime.
Essendo per il computing, ipotizzo di più la prima.
Cmq una GPU così....non becca manco la 2080 in gaming (quasi 50% più veloce di Vega64).
Anche a 7nm, solo col clock non ce la fai.
https://tpucdn.com/reviews/Palit/GeForce_RTX_2080_Super_Jetstream/images/relative-performance_2560-1440.png
(quasi 50% più veloce di Vega64).
https://tpucdn.com/reviews/Palit/GeForce_RTX_2080_Super_Jetstream/images/relative-performance_2560-1440.png
io ci vedo il 30%
E in una mega media dove ci saranno i soliti titoloni che su vega girano come polaris
Ringraziate nvidia che spingerà su motori vulkan/dx12 rivitalizzando il mondo amd da fiji in avanti :O cpu sfruttate a bomba e addio all'overhead dx11 per le rosse..... felicitazioni!
mi accontento di una navi 6k sp con 16gb hbm2 a 4096 bit :O non mi sembra di chiedere tanto.....ah, a 499€ con tre giochi in bundle! (tw3 zombie ediscion platinum, crysis 1 vegan HD e sim chtulhu baby)
Gyammy85
02-10-2018, 13:06
Si si lo sappiamo il dx12 di Nvidia, "ohhhhh ma sfrutta al 18% il mio ryzzen/9999kx, giant leap!!", poi gimpa che è un piacere su vega/polaris :asd:
AceGranger
02-10-2018, 13:13
io ci vedo il 30%
non è che se la guardi dall'altro verso il divario cambia... è matematica.
dire che Vega 64 è il 31% piu lenta della 2080 equivale a dire che la 2080 è il 44% piu veloce di Vega 64:p
Gyammy85
02-10-2018, 13:17
Le ubermedie di tpu un post si e l'altro pure mi mancavano
Manca solo lo steam survey
Einhander
02-10-2018, 15:52
Mi state dicendo che torniami all'era della 4870/5870?
Chippino piccolo e incazzato come una jena a "pochi" euro?
Ci metto la firma ieri considera :ciapet:
P.s.: che bella scheda la 5850
Mi state dicendo che torniami all'era della 4870/5870?
Chippino piccolo e incazzato come una jena a "pochi" euro?
Ci metto la firma ieri considera :ciapet:
P.s.: che bella scheda la 5850
Gran bella scheda, nella mia top 5 arriva seconda, dopo la mitica 9500@9700pro.
Gyammy85
02-10-2018, 16:47
Mi state dicendo che torniami all'era della 4870/5870?
Chippino piccolo e incazzato come una jena a "pochi" euro?
Ci metto la firma ieri considera :ciapet:
P.s.: che bella scheda la 5850
All'epoca avevamo R600 acerba e progettata per i 65 nm ma fatta poi a 80: quel chip che sembrava un flop alla fine col silicio nuovo diventò un successo
Per i pochi euro sono dubbioso, non ci spererei troppo.
Free Gordon
02-10-2018, 17:22
questo perché continuate a guardare le medie di TPU, che ormai fanno ridere, se guardi cbase la 64 è leggermente sopra la 1080 per esempio, a stock...
poi a parte le minimali differenze del 5% più o meno che manco le considero, non ci vuole molto a fare +40% anche solo grazie al clock, e dimentichi il beneficio della banda doppia
Hmmm... fortissimi dubbi che via clock si prenda il 45% di prestazioni effettive in più. Moltissimi dubbi.
E saremmo cmq "solo" alla 2080... su un PP molto più performante rispetto ai 16nm del 2016.
Vega20 non è una scheda che costerà "poco"...anzi, credo che abbia dei costi belli sostenuti.
Gyammy85
02-10-2018, 17:48
Vega 20 è instinct, non potremo comunque fare un paragone di prezzi con rx vega.
Però sembra essere dotata di almeno 18 tf :oink:
Altro che turing :O
:ops: :ops2:
Io non so proprio cosa pretendetiate da AMD, forse davvero i miracoli.
cioè una 2080 costa la bellezza di 800/900 euro! parliamo di una scheda praticamente da appassionato di certo non di una scheda mainstream da gioco a quelle cifre.
Perché si è già a conoscenza del prezzo delle Vega20?
Di sicuro non si conoscono data d'uscita e prezzo della serie Navi che dovrebbe competere con la serie 2.000 nvidia (sempre che sia realmente così son supposizioni pure queste) :help:
Il nabbo di turno
02-10-2018, 19:35
Per fortuna che l'ipotetico secondo refresh di polaris è dietro l'angolo :stordita:
Ton90maz
02-10-2018, 19:47
hanno dichiarato +35% per performance, con il clock scala tutto, le gpu moderne sono lineari a patto che anche la memoria segua di pari passo o in modo addirittura superiore come mettere 4 controller e potresti avere benefici addirittura superiori al clock core.
considera che stiamo parlando di un'architettura che praticamente è uguale a prima, e che tanto a detta loro non verrà usata nel Gaming, le nostre sono solo speculazioni su quello che potrebbe fare.
"solo come 2080" ma sei serio? una gpu da 550mmq che performa come una 1080ti in appena 320mmq, il vantaggio del PP c'è ma una 2080 sul 7nm sarebbe intorno i 350-400mmq, mica briciole...
Io non so proprio cosa pretendetiate da AMD, forse davvero i miracoli.
cioè una 2080 costa la bellezza di 800/900 euro! parliamo di una scheda praticamente da appassionato di certo non di una scheda mainstream da gioco a quelle cifre.
Inviato dal mio MIX utilizzando TapatalkInfatti la 2080 è un cesso :asd:
Con tutte le schifezze che hanno messo nel chip non è un buon esempio da prendere. Più che i miracoli credo si pretendano dei salti generazionali decenti e a prezzi decenti, cioè quello che manca da una vita
Roland74Fun
02-10-2018, 20:41
Infatti la 2080 è un cesso :asd:
Con tutte le schifezze che hanno messo nel chip non è un buon esempio da prendere. Più che i miracoli credo si pretendano dei salti generazionali decenti e a prezzi decenti, cioè quello che manca da una vitaNon siamo troppo pessimisti dai.
Secondo me la casa produttrice verde dovrebbe credere di più nei suoi prodotti e tutti i suoi clienti affezionati non giungere subito a conclusioni affrettate ed assolutiste.
Dovrebbe fare un marketing più positivo atto a dissipare le reticenze ed i dubbi degli avventori.
Che so....sponsorizzazioni, sostegno e finanziamento agli sviluppatori, accordi in esclusiva con i partners....algoritmi in rete che fanno diventare il brand una porta magica verso la luce.....
bagnino89
02-10-2018, 21:04
Non siamo troppo pessimisti dai.
Secondo me la casa produttrice verde dovrebbe credere di più nei suoi prodotti e tutti i suoi clienti affezionati non giungere subito a conclusioni affrettate ed assolutiste.
Dovrebbe fare un marketing più positivo atto a dissipare le reticenze ed i dubbi degli avventori.
Che so....sponsorizzazioni, sostegno e finanziamento agli sviluppatori, accordi in esclusiva con i partners....algoritmi in rete che fanno diventare il brand una porta magica verso la luce.....
Guarda, c'era un post profetico a riguardo :asd:
https://www.hwupgrade.it/forum/showpost.php?p=45178693&postcount=9040
Free Gordon
02-10-2018, 21:38
Vega 20 è instinct, non potremo comunque fare un paragone di prezzi con rx vega.
Ma infatti è Grid che sostiene questo...
Io non penso che faranno Vega20 per il gaming.
Free Gordon
02-10-2018, 21:47
"solo come 2080" ma sei serio? una gpu da 550mmq che performa come una 1080ti in appena 320mmq, il vantaggio del PP c'è ma una 2080 sul 7nm sarebbe intorno i 350-400mmq, mica briciole...
Io non so proprio cosa pretendetiate da AMD, forse davvero i miracoli.
cioè una 2080 costa la bellezza di 800/900 euro! parliamo di una scheda praticamente da appassionato di certo non di una scheda mainstream da gioco a quelle cifre.
La 2080 è grossa perché ha un sacco di unità dedicate (Tensor core, RT core ecc) ;) sennò si tenevano la 1080Ti :D
....e una eventuale Vega20 gaming costerebbe una fucilata comunque, esattamente attorno a quelle cifre lì (non meno di 800€ sicuro ;) ).
Vega10 ancora oggi costa 600€. :)
Gyammy85
03-10-2018, 09:43
Quello che essenzialmente azzoppa le amd in genere sono i titoli in ue4 e qualcosa geometry intensive tipo tomb raider, dato che vega 20 raddoppia quasi nei vertex, probabilmente anche queste ubermedie restituiranno un valore più veritiero...alla fine pure un re7 per fare un esempio va generalmente meglio su amd, magari vega ha qualche problema di banda in più ma un pò in tutti i giochi è così...fra banda e comparto geometrico migliorato (come sempre del resto ad ogni nuova serie) turing la pigli senza problemi
AceGranger
03-10-2018, 09:53
non vedo perché una gpu da 330mmq debba costare di più di una da 490mmq anche utilizzando silicio nuovo, nessuno sa gli effettivi costi del silicio vecchio e nuovo, possiamo solo supporre che costi il doppio, per tanto come ho già spiegato ormai decine di volte se si considera il rapporto quadratico tra superficie e costo die, le due gpu costerebbero ad AMD la stessa cifra, quindi rimpiazzabile...
in Turing le parti extra come RT e TC occupano meno spazio di quello che pensiate, infatti con appena un TPC in meno per GPC rispetto a Pascal il tu104 è poco più grande di gp102, e i chip sono direttamente confrontabili siccome sono tutti e 2 da 6 gpc, la cagata di tu104 è che gran parte del sistema rops/memorie viene sprecato essendo sempre una 64 rops 256bit invece che 96rops 384bit
Inviato dal mio MIX utilizzando Tapatalk
Post Scriptum:
gp102 è 470mmq con 5TPC per 6GPC, 3mb L2 e 6 collegamenti rops/bit da 16rops/64bit l'uno
tu104 è 545mmq per 4TPC, 4mb l2 e con il resto uguale, ma hanno disabilitato 1/3 di parte rops/bit poi nell'effettivo e quindi sempre 64rops/256bit.
se da 470mmq togliamo 6TPC Pascal, ci rimangono 425mmq, la differenza con 545 è 120mmq, in realtà sarebbe meno in quanto Turing è meno denso per clockare come Pascal nonostante sia più grosso, ma sorvoliamo.
in 120mmq ci devono stare: +1mb l2, (oltre alla l1 +50% ma è poca roba), i Tensor Core, i Core RT, le unità Int e un nVlink 8x.
Ecco, dire che Turing è imbottita di cose che non servono e quindi sarebbe molto più piccola è una fesseria, forse legata al fatto che dal lancio marketing hanno utilizzato questa immagine e quindi i più superficiali credono davvero che le parti nuove occupino metà del Die :doh:
Questa immagine è marketing ;)
oltretutto le 16TIPS derivate dalle unità Int sono parte integrante del SM e contribuiscono al balzo di IPC, altro che se inutili, ma in tutto questo circa è stato utilizzato il +30% o anche meno di spazio (425 +30% = 552mmq), di certo non il 100%...
in Pascal per ogni CUDA ci sono mediamente 3 Milioni di transistor
in Turing per ogni CUDA ci sono mediamente 4,4 Milioni di Transistor
da Pascal a Turing 1 CUDA core è "cresciuto" del 50% circa.
scindere ogni parte credo sia per noi impossibile; quello che è certo è che di quel 50% una buona parte non la si è ancora vista all'opera.
In base alla risoluzione abbiamo che la 2080ti va da +52% a +74% vs Vega64 e che la 2080 va da +32% a +37% (addirittura in OC Vega64 in UHD recupera su 2080 ponderando 149%/113% il guadagno si assesta sul 32%, come fosse FHD)
tutto dipendera da quello che avverra nei prossimi 9 mesi con gli sviluppatori; se nVidia riuscira a diffondere il DLSS, per quando uscira Navi si avranno molto probabilmente % abbastanza differenti.
vedremo come andra, quello che è sicuro è ceh con al prossima generazione di nVIdia a 7nm il DLSS sara sicuramente presente in modo rilevante.
majinbu7
03-10-2018, 10:32
io ci vedo il 30%
E in una mega media dove ci saranno i soliti titoloni che su vega girano come polaris
Ringraziate nvidia che spingerà su motori vulkan/dx12 rivitalizzando il mondo amd da fiji in avanti :O cpu sfruttate a bomba e addio all'overhead dx11 per le rosse..... felicitazioni!
mi accontento di una navi 6k sp con 16gb hbm2 a 4096 bit :O non mi sembra di chiedere tanto.....ah, a 499€ con tre giochi in bundle! (tw3 zombie ediscion platinum, crysis 1 vegan HD e sim chtulhu baby)
98 / 69 = 1,42 , nel grafico di TPU le prestazioni sono +42% a favore della 2080
AceGranger
03-10-2018, 10:32
Pensa un po', si potrebbe scrivere esattamente la stessa cosa parlando di fiji e vega :stordita:
A parte il numero di transistor gli SP di vega sono più grandi di quelli di fiji e non li abbiamo ancora visti all'opera.
da Fiji a Vega i transistor per CU sono saliti del 33%.
Quindi anche turing è un pascal shrink overclockato? :asd:
:confused:
AceGranger
03-10-2018, 10:52
#ironia :rolleyes:
:fagiano:
Gyammy85
03-10-2018, 11:06
tutto dipendera da quello che avverra nei prossimi 9 mesi con gli sviluppatori; se nVidia riuscira a diffondere il DLSS, per quando uscira Navi si avranno molto probabilmente % abbastanza differenti.
vedremo come andra, quello che è sicuro è ceh con al prossima generazione di nVIdia a 7nm il DLSS sara sicuramente presente in modo rilevante.
Quindi praticamente amd farebbe prima ad uscire dal mercato vga, dato che:
1 i giochi useranno tutti dlss via unità dedicate che amd non vuole usare
2 gli sviluppatori saranno ben lieti di configurare ue4 ancora più low level per il dlss, ed avendo per forza di cose nvidia saranno felici di "everything is fine here"
3 lato pro si ok tanti tf ma tanto tutti usano cuda e le ciabatte diventano aerei
4 varie ed eventuali
Intanto per fine anno esce il 3dmark ray, sembra una trollata ma purtroppo non lo è
Chissà quale andrà più forte, boohhh fammi pensare, è difficile far previsioni...
Intanto il 3dmark serra lo abbiamo buttato nel cesso ovviamente, non sia mai che la vega superi la 2080 nel gamerz benchmark
Pensa un po', si potrebbe scrivere esattamente la stessa cosa parlando di fiji e vega :stordita:
A parte il numero di transistor gli SP di vega sono più grandi di quelli di fiji e non li abbiamo ancora visti all'opera.
Quindi anche turing è un pascal shrink overclockato? :asd:
No, hanno mantenuto lo stesso numero di unità aumentando le perfomance del 60%. Oh wait :asd:
AceGranger
03-10-2018, 12:10
Quindi praticamente amd farebbe prima ad uscire dal mercato vga, dato che:
1 i giochi useranno tutti dlss via unità dedicate che amd non vuole usare
2 gli sviluppatori saranno ben lieti di configurare ue4 ancora più low level per il dlss, ed avendo per forza di cose nvidia saranno felici di "everything is fine here"
3 lato pro si ok tanti tf ma tanto tutti usano cuda e le ciabatte diventano aerei
4 varie ed eventuali
1- E' ininfluente che il DLSS usi unita dedicate, è di nVidia e AMD non lo potrebbe usare anche se fosse calcolato con i cuda nomali.
Quando AMD si svegliera a supportare le fantamirabolanti feature che lancia le cose cambieranno.
2- lo integreranno praticamente tutti i game engine; Unreal Engine, Foundation, NetEase Engine, Serious Engine, Lumionous Studio etc. etc.
3- è proprio cosi :p
Intanto per fine anno esce il 3dmark ray, sembra una trollata ma purtroppo non lo è
Chissà quale andrà più forte, boohhh fammi pensare, è difficile far previsioni...
Intanto il 3dmark serra lo abbiamo buttato nel cesso ovviamente, non sia mai che la vega superi la 2080 nel gamerz benchmark
sei solo tu che non hai ancora capito che il ray tracing è il futuro.
nVidia non ha inventato nulla e AMD era a conoscenza delle DXR dal momento della loro nascita, non è che lo hanno scoperto a Settembre :asd:, visto che sono dentro allo sviluppo delle DX... al massimo possono essere stati presi in contropiede con le unita dedicate, magari si aspettavano che nVidia arrivasse con il RT con la prossima generazione.
ma mi sembra normale che escano i nuovi bench per supportare le nuove feature delle DX.
1- E' ininfluente che il DLSS usi unita dedicate, è di nVidia e AMD non lo potrebbe usare anche se fosse calcolato con i cuda nomali.
Quando AMD si svegliera a supportare le fantamirabolanti feature che lancia le cose cambieranno.
2- lo integreranno praticamente tutti i game engine; Unreal Engine, Foundation, NetEase Engine, Serious Engine, Lumionous Studio etc. etc.
3- è proprio cosi :p
sei solo tu che non hai ancora capito che il ray tracing è il futuro.
nVidia non ha inventato nulla e AMD era a conoscenza delle DXR dal momento della loro nascita, non è che lo hanno scoperto a Settembre :asd:, visto che sono dentro allo sviluppo delle DX... al massimo possono essere stati presi in contropiede con le unita dedicate, magari si aspettavano che nVidia arrivasse con il RT con la prossima generazione.
ma mi sembra normale che escano i nuovi bench per supportare le nuove feature delle DX.
Secondo me sbagli sull'affermare che il ray tracing è il futuro. Soprattutto se lo intendi "come lo fa Nvidia". Il metodo Nvidia è ancora inevitabilmente legato al raster, che è un paradigma che dovremo presto o tardi abbandonare.
La soluzione Nvidia è una delle tante possibili, sicuramente ci muoveremo oltre il raster, ormai non va più bene all'alba del 2020, ma di certo il futuro, per tutti, non è un esclusiva Nvidia. Esclusive e standard fanno a cazzotti. Volenti e nolenti il "futuro" lo decide l'hardware delle prossime console. Il resto è fuffa e marketing.
Roland74Fun
03-10-2018, 13:19
....Volenti e nolenti il "futuro" lo decide l'hardware delle prossime console. Il resto è fuffa e marketing.
Le consolle potrebbero comunque portare in dono le esclusive al mercato PC.
Che so titoli esclusivi per chi possiede una vga con un certo chip ed altre esclusive per chi ne ha una con un altro chip.
Se hai quella puoi giocare a quei titoli ad esempio tomb raider, BF5, GTA 6 ecc...
Se hai quell'altra puoi giocare invece a campo minato, Pinball, another world, pang lite ecc....
Le nuove verità del dopo rilascio di una nuova gen del principale competitor di AMD,
- 400W di gpu non sono affatto troppi, anzi
- rilasciare una gpu oggi con tecnologia che verrà usata nel futuro senza alcun riscontro odierno è da pro ed auspicabile
- le dx12 e Vulkan sono il futuro (in parte torna al punto di cui sopra perchè prima di turing le dx12 e vulkan non esistevano)
- 900\1300€ visto quanto è breve la vita umana non sono tanti, e potrò lasciare la gpu ai miei nipoti, altro che deficit al 3%
se ne desume che:
la prossima serie di amd potrà benissimo essere una vega LC overcloccata e piazzata a 800€ e voilà! Fine :asd: Spiegato il motivo percui raja se ne è andato, a lui piacciono le sfide, così invece è troppo facile.....
La messa è finita, andate in pace!
majinbu7
03-10-2018, 13:58
Le nuove verità del dopo rilascio di una nuova gen del principale competitor di AMD,
- 400W di gpu non sono affatto troppi, anzi
- rilasciare una gpu oggi con tecnologia che verrà usata nel futuro senza alcun riscontro odierno è da pro ed auspicabile
- le dx12 e Vulkan sono il futuro (in parte torna al punto di cui sopra perchè prima di turing le dx12 e vulkan non esistevano)
- 900\1300€ visto quanto è breve la vita umana non sono tanti, e potrò lasciare la gpu ai miei nipoti, altro che deficit al 3%
se ne desume che:
la prossima serie di amd potrà benissimo essere una vega LC overcloccata e piazzata a 800€ e voilà! Fine :asd: Spiegato il motivo percui raja se ne è andato, a lui piacciono le sfide, così invece è troppo facile.....
La messa è finita, andate in pace!
Senti Frozen ma il tuo alter ego verde Egounix che fine ha fatto...era bello ogni tanto leggere anche qualche sua battuta.
Gyammy85
03-10-2018, 13:58
Le nuove verità del dopo rilascio di una nuova gen del principale competitor di AMD,
- 400W di gpu non sono affatto troppi, anzi
- rilasciare una gpu oggi con tecnologia che verrà usata nel futuro senza alcun riscontro odierno è da pro ed auspicabile
- le dx12 e Vulkan sono il futuro (in parte torna al punto di cui sopra perchè prima di turing le dx12 e vulkan non esistevano)
- 900\1300€ visto quanto è breve la vita umana non sono tanti, e potrò lasciare la gpu ai miei nipoti, altro che deficit al 3%
se ne desume che:
la prossima serie di amd potrà benissimo essere una vega LC overcloccata e piazzata a 800€ e voilà! Fine :asd: Spiegato il motivo percui raja se ne è andato, a lui piacciono le sfide, così invece è troppo facile.....
La messa è finita, andate in pace!
Io penso che un giorno prima della review di tomb raider con patch rt uscirà la titan rtx con più rtx cores, clock bloccato a 1300 mhz, a soli 4500 euro ventole accordate incluse
Gyammy85
03-10-2018, 14:00
Senti Frozen ma il tuo alter ego verde Egounix che fine ha fatto...era bello ogni tanto leggere anche qualche sua battuta.
Mica vorrai negare che la gente è passata da supegreen 165 fps minimi altrimenti ci arrabbiamo a maxpower 50 fps fullhd lifelike vero?
AceGranger
03-10-2018, 14:01
Secondo me sbagli sull'affermare che il ray tracing è il futuro.
non lo dico io... lo dicono tutti gli addetti ai lavori e lo dicono gia da un po; questo è l'inizio
Secondo me sbagli sull'affermare che il ray tracing è il futuro. Soprattutto se lo intendi "come lo fa Nvidia". Il metodo Nvidia è ancora inevitabilmente legato al raster, che è un paradigma che dovremo presto o tardi abbandonare.
il metodo di nvidia è legato al raster perchè non c'è ancora abbastanza potenza per un Full RT, ma l'architettura in se sarebbe perfettamente in grado di far girare un eventuale game engine Full RT; non per altro verra impiegata anche nei motori di render.
La soluzione Nvidia è una delle tante possibili, sicuramente ci muoveremo oltre il raster, ormai non va più bene all'alba del 2020, ma di certo il futuro, per tutti, non è un esclusiva Nvidia.
quello è assodato; gli RT core si interfacciano con le DXR nello stesso modo in cui i CUDA e i CU di AMD si interfacciano con le DX.
è proprio per quello che è senza senso remare contro il RT, non è di nVidia, e sara sicuramente il futuro.
Volenti e nolenti il "futuro" lo decide l'hardware delle prossime console. Il resto è fuffa e marketing.
con i soldi che ci ha investito nVidia, l'RT arrivera comuqnue; ha abbastanza potere e soldi per poterlo spingere prima che arrirvi con le console, perchè tranquillo che arrivera sicuramente anche sulle console.
AceGranger
03-10-2018, 14:12
1- Il DLSS lo abbiamo visto in FF e per me possono tenerselo, AMD ha già qualcosa di equivalente che funziona pure meglio il rendering CG (che non è di AMD, è una cosa molto comune ma gira su PS4 con hw AMD attualmente)
Si dovrebbe svegliarsi a portarla su PC.
2- Che integrino il supporto a DLSS nei game engine frega meno di zero, tanto il DLSS va addestrato per ogni gioco non è come gli altri AA che se integrati nel motore basta attivarli.
1- lo vedremo all'opera quando arriverta, e i commenti delle review mi apre di ricordare dicano cose diferenti
2- che a te freghi meno di zero poco importa; sara una feature in piu come tutte le altre nVIdia che sono il motivo principale per il quale vende e continuera a vendere di piu.
Il ray tracing è il futuro e questa è una delle poche cose certe.
Come "lo fa Nvidia" è come lo fanno tutti, da quanto ho capito (e non sono esperto nel settore) tutti i motori di rendering tendenzialmente sfruttano il rendering ibrido, certo con molti più sample quando non sono in tempo reale.
Abbandonare il raster richiederà ancora tanti e tanti anni.
assolutamente no.
tutti i motori di render sono Full Ray Tracing, al massimo usano algoritmi di approssimazione, ma è una cosa ben diversa dell'ibrido raster....
concettualmente pero, motori di render e game engine lavorano allo stesso modo, ovvero l'immagine finale è il risultato di piu "image pass", colore base, ombre, ambient occlusion, riflessi etc. etc.
ora, questi image pass possono essere calcolati tutti raster, tutti RT o un pò e un pò.
Abbandonare il raster richiederà ancora tanti e tanti anni.
dipende cosa intendi per tanti :stordita:
Senti Frozen ma il tuo alter ego verde Egounix che fine ha fatto...era bello ogni tanto leggere anche qualche sua battuta.
non ricordo più la password di quell'account :stordita:
Full RT :sofico: :sofico: :sofico: :sofico:
Eccerto così ti fumi in un secondo tutta la libreria di steam da 10000 euri perchè hanno engine raster :sofico: vabbè che il progresso non guarda in faccia a nessuno......
Ah scusa, per risolvere affianchi una seconda gpu nvidia GTX, aaaaah che diavolo quel JHH!!!!!!!!!!!!!!!!! :read:
bagnino89
03-10-2018, 14:20
non ricordo più la password di quell'account :stordita:
:asd:
Roland74Fun
03-10-2018, 14:34
Le nuove verità del dopo rilascio di una nuova gen del principale competitor di AMD,
- 400W di gpu non sono affatto troppi, anzi
- rilasciare una gpu oggi con tecnologia che verrà usata nel futuro senza alcun riscontro odierno è da pro ed auspicabile
- le dx12 e Vulkan sono il futuro (in parte torna al punto di cui sopra perchè prima di turing le dx12 e vulkan non esistevano)
- 900\1300€ visto quanto è breve la vita umana non sono tanti, e potrò lasciare la gpu ai miei nipoti, altro che deficit al 3%
"Contrordine compagni!" :D :D :D
AceGranger
03-10-2018, 14:45
Non è quanto frega a me, ma quanto frega agli sviluppatori.
Altri AA se integrati nei motori vengo "gratis" DLSS per essere utilizzato richiederà sempre il training da parte di Nvidia.
a giudicare da quanti sviluppatori hanno aderito con GPU manco fuori non mi sembra proprio un problema.
Che lo fa Nvidia per carità ma lo sviluppatore deve fornire a Nvdia la versione preliminare del gioco e aspettare tutta la trafile.
guarda che gli sviluppatori le versioni preliminari le danno gia ora per i driver... nVidia semplicemente calcolera anche l'algoritmo DLSS.
Full RT :sofico: :sofico: :sofico: :sofico:
Eccerto così ti fumi in un secondo tutta la libreria di steam da 10000 euri perchè hanno engine raster :sofico: vabbè che il progresso non guarda in faccia a nessuno......
Ah scusa, per risolvere affianchi una seconda gpu nvidia GTX, aaaaah che diavolo quel JHH!!!!!!!!!!!!!!!!! :read:
di fumato c'è solo la roba che hai usato prima di scrivere questa boiata :asd:
ninja750
03-10-2018, 15:54
- 400W di gpu non sono affatto troppi, anzi
questo io l'ho fatto notare da subito, la risposta piccata è stata si però fa il doppio degli fps
ovvio, ma consuma TANTO uguale.. le vga non dovrebbero arrivare a questi eccessi
considerato soprattutto l'efficenza di pascal
Gyammy85
03-10-2018, 16:45
Pascal? Wot?
Troppa invidia, qui.
Secondo me il problema non è SE E QUANTO verranno adottate le features nVidia. I verdi cacciano il grano, e si fa.
Il problema è il COME verranno adottate. Se il 90% degli engine verrà sviluppato per console, queste features non saranno mai integrate appieno nel motore.
Saranno degli add on e come tali belli da vedere, ma ottimizzati malissimo e davvero pesanti.
AceGranger
03-10-2018, 17:23
Secondo me il problema non è SE E QUANTO verranno adottate le features nVidia. I verdi cacciano il grano, e si fa.
Il problema è il COME verranno adottate. Se il 90% degli engine verrà sviluppato per console, queste features non saranno mai integrate appieno nel motore.
Saranno degli add on e come tali belli da vedere, ma ottimizzati malissimo e davvero pesanti.
i gameworks non sono supportati nelle console ma sono perfettamente integrati in vari game engine, vedasi Unreal, Unity, Luminous Studio etc. etc.
sono finiti i tempi dei game engine specifici per console; oggi i motori di render sono perlopiu "generici" e alla fine si compila per una determinata piattaforma; specialmente oggi dove le console sono praticamente dei PC.
techfede
03-10-2018, 17:48
i gameworks non sono supportati nelle console ma sono perfettamente integrati in vari game engine, vedasi Unreal, Unity, Luminous Studio etc. etc.
sono finiti i tempi dei game engine specifici per console; oggi i motori di render sono perlopiu "generici" e alla fine si compila per una determinata piattaforma; specialmente oggi dove le console sono praticamente dei PC.
Ace, scusa il quote diretto, ma non avresti da passarmi qualcosa che spieghi come lo applicano questo approccio misto raster + rt? Sempre che la cosa si sappia, più o meno, sarei interessato a capirlo meglio.
In realtà mi piacerebbe anche capire meglio il DLSS, ma dubito che abbiano pubblicato qualcosa :D
Gyammy85
03-10-2018, 17:56
Mah, secondo me servirà un bel po' di tempo prima di vedere il raytracing usato in maniera significativa.
Questa generazione metterà a punto la tecnologia, ma la potenza di calcolo sembra piuttosto limitata e i costi sono proibitivi.
Coi 7nm forse inizieremo a poter fare cose più impressionanti di quanto si sia visto ora nelle varie demo, ma i prezzi saranno ancora troppo alti per far sì che ci sia una vera diffusione.
Forse la generazione successiva (parliamo quindi di 6 anni da oggi supponendo una nuova uarch ogni 2 anni) avrà finalmente una fascia media RTX capable (e a quel punto anche AMD sarà arrivata con le sue idee). Nel frattempo ci sarà stato un ricambio di console (durano 4 anni di solito, no?).
Sono troppo pessimista a dire che forse vedremo il raytracing nelle console fra otto anni, ovvero fra due generazioni?
Mah, secondo me amd troverà il modo di farlo via cu senza grossi sbattimenti, sono sempre più convinto di questo.
Gyammy85
03-10-2018, 18:16
Lisa su al ces 2019 su 7 nm cpu e gpu
https://www.ces.tech/News/Press-Releases/CES-Press-Release.aspx?NodeID=e8a189c0-5cdf-4176-9d38-ad65a2652e47
Lo avevo detto io :O
Windtears
03-10-2018, 18:28
volevo postare un articolo su una analisi del dlss, ma evito visto che gli animi sono troppo caldi... non vorrei venisse visto male. :)
Il nabbo di turno
03-10-2018, 18:48
Lisa su al ces 2019 su 7 nm cpu e gpu
https://www.ces.tech/News/Press-Releases/CES-Press-Release.aspx?NodeID=e8a189c0-5cdf-4176-9d38-ad65a2652e47
Lo avevo detto io :O
Tu dici tante cose gyammy è questo il problema...
Gyammy85
03-10-2018, 19:17
Tu dici tante cose gyammy è questo il problema...
Faccio ipotesi come chiunque altro
Poi per logica se dicono di non avere problemi ne ritardi è ovvio che già al ces svelino qualcosa
ninja750
03-10-2018, 19:55
perchè scrivendo quel tal brand produttore di gpu in questo forum viene direttamente generato testo come link? :sbonk:
esigo che vengano generati automaticamente LINK anche per le parola LISA e FAIL :mad:
AceGranger
03-10-2018, 20:25
Ace, scusa il quote diretto, ma non avresti da passarmi qualcosa che spieghi come lo applicano questo approccio misto raster + rt? Sempre che la cosa si sappia, più o meno, sarei interessato a capirlo meglio.
In realtà mi piacerebbe anche capire meglio il DLSS, ma dubito che abbiano pubblicato qualcosa :D
ti mando pm
Roland74Fun
03-10-2018, 20:58
perchè scrivendo quel tal brand produttore di gpu in questo forum viene direttamente generato testo come link? :sbonk:
E' semplice: nvodia da i soldi ad hwup e hwup gli mette i link in automatico
Son tre giorni che lo dico.... e nessuno mi caga.
Su quell'altro forum non succede.
Angeland
03-10-2018, 23:31
Manco dal forum da qualche giorno,le ultime 3 pagine del 3d sono fantastiche :D
Lisa su al ces 2019 su 7 nm cpu e gpu
https://www.ces.tech/News/Press-Releases/CES-Press-Release.aspx?NodeID=e8a189c0-5cdf-4176-9d38-ad65a2652e47
Lo avevo detto io :O
:Perfido: :cool:
Gyammy85
04-10-2018, 07:29
posta posta io sono intrippatissimo!!!
Inviato dal mio SM-G960F utilizzando Tapatalk
In due parole una sorta di vsr/dsr dinamico, applicato a scene diverse in base a calcoli via deeplearning, o sbaglio?
Vorrai dire quando "bene" mi trovo con la gtx 1070 ma non vorrei generare flame :rolleyes:
Zitto tu!!!!
Gyammy85
04-10-2018, 08:57
Zitto tu!!!!
Lascialo stare, lui è sempre dei nostri :friend:
:friend:
Il pannello driver poi ha quel sapore anni 90 che da tanta nostalgia :asd:
majinbu7
04-10-2018, 09:16
Mica vorrai negare che la gente è passata da supegreen 165 fps minimi altrimenti ci arrabbiamo a maxpower 50 fps fullhd lifelike vero?
What ???
è da fine luglio che non ricordo più la password di quell'account :stordita:
Fix :asd:
C'è il tasto "EgoSearch" nel forum, usalo :asd:
:fagiano:
ninja750
04-10-2018, 09:30
Lisa su al ces
scritta così è un'immagine orripilante :mbe: :sbonk:
Gyammy85
04-10-2018, 09:52
scritta così è un'immagine orripilante :mbe: :sbonk:
:asd: :asd:
Gyammy85
04-10-2018, 10:01
Che poi dico, fast sync e esync nascono proprio per superare i problemi del vsync, che senso ha se non mettono pure un limitatore?
Mah...
Gyammy85
04-10-2018, 10:36
https://www.reddit.com/r/Amd/comments/9l6n6f/playstation_patent_mentions_primitive_shaders/
Sembra che ps5 sarà predisposta per i primitive shaders
A questo punto Navi avrà tutte le feature che in vega sono dormienti, presumibilmente pure vega 20
ninja750
04-10-2018, 11:05
le feature che in vega sono dormienti
visto che sono passati mesi e mesi dal lancio cosa ne sappiamo che esistano veramente ste feature dormienti? sta faccenda assume sempre più sentore di trollata
guardate nv1d1a, presenta il raytracing, e contestualmente una suite di giochi che la sfruttano pienamente :O
Gyammy85
04-10-2018, 11:16
visto che sono passati mesi e mesi dal lancio cosa ne sappiamo che esistano veramente ste feature dormienti? sta faccenda assume sempre più sentore di trollata
guardate nv1d1a, presenta il raytracing, e contestualmente una suite di giochi che la sfruttano pienamente :O
Le feature esistono ma evidentemente erano da attivare da parte degli sviluppatori, con navi e pure vega 20 a questo punto avranno messo tutto in hardware direttamente imho, avranno trovato qualche modo
Si invidia presenta roba e tutti la usano, non troveranno mai eccessivamente pesante/inutile/difficile il lavoro da svolgere come avviene invece per gli schifosi standard open di amd, è un pò la stessa cosa delle app per win mobile, estremamente difficili onerosi e senza garanzie per il futuro, mentre con gli altri tutto pagato sicuro semplice e bellissimo :D :D
AceGranger
04-10-2018, 11:25
Le feature esistono ma evidentemente erano da attivare da parte degli sviluppatori, con navi e pure vega 20 a questo punto avranno messo tutto in hardware direttamente imho, avranno trovato qualche modo
si peccato che sono gli sviluppatori di AMD :asd:
#sviluppatoribruttiecattivi.
Non è che devo cambiare il mio modo di scrivere perchè in due o tre vi siete beccati qualche malware.
Se clickate sui link dove vi manda?
il link viene bloccato dagli AdBlocker; almeno, Opera non mi fa vedere il link, se disattivo il suo adblocker vedo il link
( ti manda sul sito ufficiale )
Gyammy85
04-10-2018, 11:35
si peccato che sono gli sviluppatori di AMD :asd:
#sviluppatoribruttiecattivi.
Che ti devo dire, l'architettura di base è sempre quella di vega, solo che per qualche motivo che solo loro sanno erano di difficile attivazione o semplicemente non davano i risultati sperati su vega.
Einhander
04-10-2018, 11:39
Che ti devo dire, l'architettura di base è sempre quella di vega, solo che per qualche motivo che solo loro sanno erano di difficile attivazione o semplicemente non davano i risultati sperati su vega.
open o non open, concorderai con me che avere delle feature dormienti, anzi in letargo proprio, non sia proprio un gran veicolo di marketing se poi rimangono inespresse per sempre..sostanzialmente compro qualcosa che non utilizzero' mai a pieno e mi dicono pure che sarebbe possibile e bellissimo, ma no...
Non credo le useremo mai, ma a questo punto perche' dirlo?:mbe:
Gyammy85
04-10-2018, 11:43
Non è la stessa cosa.
Nvidia ha presentato il ray tracing funzionante, che poi non ci siano giochi che lo sfruttano non dipende da nvidia ma da altri.
AMD ha presentato Vega con funzionalità pubblicizzate in presentazione che però non sono mai state abilitate, non è che non ci sono giochi che le sfruttano, anche volendo i giochi non possono sfruttarle perchè sono disattivate.
Se guardi la tabella del feature level, pascal non ha diverse cose che invece vega ha, quindi se prendi forza 4 e lo scrivi utilizzando più feature hai la scheda che va a bestia, senza scomodare prmitive o altro. Ovvio che se pascal non ha quella roba, difficilmente lo sfrutti su molti giochi, perché nessuno ha interesse a farsi spolliciare in giù il gioco su steam, il motivo è sempre quello.
Gyammy85
04-10-2018, 11:44
open o non open, concorderai con me che avere delle feature dormienti, anzi in letargo proprio, non sia proprio un gran veicolo di marketing se poi rimangono inespresse per sempre..sostanzialmente compro qualcosa che non utilizzero' mai a pieno e mi dicono pure che sarebbe possibile e bellissimo, ma no...
Non credo le useremo mai, ma a questo punto perche' dirlo?:mbe:
Non saprei, qualcosa non ha funzionato, o dovevano utilizzare meglio internamente le risorse in termini di lavoro.
AceGranger
04-10-2018, 12:01
OMG ho tolto ublock, ghostery e la lista nel file host... ma come minchia fate ad usare il forum così? :asd:
Ci mette un mese a caricare la pagina :muro:
Rimetto subito tutto a posto.
era un giorno che cercavo di capire di questo fantomatico link di cui parlavano :asd:
poi mi sono ricordato che Opera mi blocca tutto :p
ninja750
04-10-2018, 13:13
hanno deciso di fare marketing sfrenato e Corsini&Co si beccano i cash dai verdi per attivare un iperlink che ti manda direttamente alla pagina della 2080...
ma se hanno già l'80% del mercato che vogliono fare ancora di più?
Lo devono confermare con le schede nuove visto che JHH si vuole comprare il giubbotto nuovo :D
Inviato dal mio ASUS_X00ID utilizzando Tapatalk
majinbu7
04-10-2018, 16:10
Non è così facile e immediato vendere schede che vanno come prima o poco più come la sola 2080ti, che costano come prima o di più e hanno features che non sono sfruttabili al day one, anche se ti chiami invidia e aspiri ad essere la mela del mercato pc...
Esatto, Nvidia a mio parere con turing lato prezzo/prestazioni ha proprio pisciato fuori dal vasino .... e la gente ormai inizia a stufarsi di questo continuo giochino al rialzo , basta guardare la apple con i nuovi iphone xs e xs max, i negozi ne sono ancora pieni ad 1 settimana dall'effettiva disponibilità , fino all'anno scorso già trovarne uno il giorno dopo era oro colato.
bagnino89
04-10-2018, 16:14
Esatto, Nvidia a mio parere con turing lato prezzo/prestazioni ha proprio pisciato fuori dal vasino .... e la gente ormai inizia a stufarsi di questo continuo giochino al rialzo , basta guardare la apple con i nuovi iphone xs e xs max, i negozi ne sono ancora pieni ad 1 settimana dall'effettiva disponibilità , fino all'anno scorso già trovarne uno il giorno dopo era oro colato.Eppure secondo me sarà nuovo record di fatturato sia per Nvidia che Apple :asd:
majinbu7
04-10-2018, 16:55
Eppure secondo me sarà nuovo record di fatturato sia per Nvidia che Apple :asd:
Può essere, ma gli iphone xs di quest'anno al momento stanno vendendo molto meno che i modelli degli anni precedenti , mentre per nvidia...probabilmente riuscirà anche a vendere, ma se arriva un minimo di concorrenza stavolta (se mantiene questi prezzi) potrebbe vedersela grigia.
Lunar Wolf
04-10-2018, 16:59
Tenete sempre presente che le maggior entrate di Nvidia non sono le fascino uber della serie gtx... O rtx... Loro i quattrini se li fanno col mercato pro.
AceGranger
04-10-2018, 17:10
Tenete sempre presente che le maggior entrate di Nvidia non sono le fascino uber della serie gtx... O rtx... Loro i quattrini se li fanno col mercato pro.
il fatturato lo fanno con le GTX, l'utile con le Pro, anche se credo che negli ultimi trimestri un buon utile lo hanno fatto anche con la fascia alta gaming.
https://www.reddit.com/r/Amd/comments/9l6n6f/playstation_patent_mentions_primitive_shaders/
Sembra che ps5 sarà predisposta per i primitive shaders
A questo punto Navi avrà tutte le feature che in vega sono dormienti, presumibilmente pure vega 20
parole, parole, parole.
Le feature mai uscite un anno e 3 mesi dopo la release di vega ci importano molto poco.
Senza parlare del fatto che i termini parlano di multiviewport, magari è una roba vr, non sono specificatamente menzionati i primitive shaders.
Il ray tracing è il futuro e questa è una delle poche cose certe.
Come "lo fa Nvidia" è come lo fanno tutti, da quanto ho capito (e non sono esperto nel settore) tutti i motori di rendering tendenzialmente sfruttano il rendering ibrido, certo con molti più sample quando non sono in tempo reale.
Abbandonare il raster richiederà ancora tanti e tanti anni.
Allora non hai capito molto su come funziona il ray tracing.
con i soldi che ci ha investito nVidia, l'RT arrivera comuqnue; ha abbastanza potere e soldi per poterlo spingere prima che arrirvi con le console, perchè tranquillo che arrivera sicuramente anche sulle console.
Nvidia lo spingerà OGGI per vendere le gpu di oggi.
Dov'è Hairworks? L'ultimo gioco che abbia usato Hairworks è uscito nel 2015, The Witcher 3.
Dov'è HBAO+? Ultimo gioco che lo usi, rilasciato oltre due anni fa, The Division.
Dov'è DSR? Ultimo gioco che lo utilizzi, mi pare sia uscito nel 2016. Non ce ne sono altri annunciati.
VXGI? Mai usato nei videogame, fondamentalmente una tech demo per maxwell.
Dov'è Apex? Sta lì bello integrato in UE4, ma chi lo usa? Nessun gioco.
Quelle che ho menzionato, chi più chi meno, sono belle tecnologie, Apex, HBAO, Hairworks a me piacciono, ma che fine hanno fatto? Dimenticatoio. La stessa fine che farà il ray tracing nvidia, il DLSS e tutte le feature che ci vendono ad ogni singola nuova architettura. Le esclusive muoiono.
PhysX, è l'unica tecnologia Nvidia viva e vegeta correntemente utilizzata nei giochi. Praticamente ogni gioco Unity e Unreal usa PhysX, ma non sono certo gli unici.
Peccato che tolti Killing Floor 2 e Project Cars, nessun gioco usi l'accelerazione fisica sulla gpu (anche perchè non serve assolutamente, lo fai solo se ti paga mamma Nvidia, se no usi la libreria cpu come tutti).
E Nvidia non avrà nessuna delle console future.
Quindi comprare oggi pensando serva domani mi sembra altamente sfigato.
Forse l'unica feature che si salverà sarà il DLSS?
Mah, ho anche qui i miei dubbi.
Sinceramente comprare oggi, per eventuali tecnologie da dimenticatoio di domani mi fa ridere.
E già li sento i vostri discorsi sul "eh ma stavolta è diverso", tanto li avete fatti con qualsiasi tecnologia Nvidia.
bagnino89
04-10-2018, 17:45
Senza criticare troppo la tua analisi, ma HBAO+ si trova in una marea di giochi (gli ultimi tomb raider e Assassin's Creed per dire) e dsr si può attivare per qualsiasi gioco via driver.
Tra l'altro HBAO+ è una delle feature che preferisco, la differenza è notevole con gli altri metodi di occlusione ambientale.
Hai ragione sulla loro diffusione, andavo male a memoria.
Mai stato fan dell'HBAO però personalmente, ammazza performance come pochi e onestamente differenze da SSAO piuttosto opinabili.
bagnino89
04-10-2018, 17:54
Hai ragione sulla loro diffusione, andavo male a memoria.
Mai stato fan dell'HBAO però personalmente, ammazza performance come pochi e onestamente differenze da SSAO piuttosto opinabili.Beh insomma, se hai una Nvidia qualche fps lo perdi ma secondo me diventa tutto molto più "tridimensionale".
Sono gusti comunque.
Ale55andr0
05-10-2018, 01:04
..aggiungerei che la questione "nvidia non ha console" ha rappresentato fastidi per il suo mercato e le sue prestazioni in game pari al nulla assoluto.
Gyammy85
05-10-2018, 06:22
..aggiungerei che la questione "nvidia non ha console" ha rappresentato fastidi per il suo mercato e le sue prestazioni in game pari al nulla assoluto.
Quindi?
Ton90maz
05-10-2018, 06:49
Quindi?
Quindi gomblotto!!!1
E, opinione seria, le software house sono quasi tutte composte da caproni della programmazione
Quindi tocca aspettare gennaio per i 7nm.
deadbeef
05-10-2018, 07:08
giuro che da qualche parte ho un The Games Machine del 1995 in cui c'è scritto che VR e Ray Tracing sono il futuro
deadbeef
05-10-2018, 07:22
Ahahahahah ci credo, però vorrei tanto vederlo :D
farò includere le fotocopie nella confezione di half life 3
Gyammy85
05-10-2018, 07:38
Quindi tocca aspettare gennaio per i 7nm.
Credo ci sarà una sorta di presentazione dell'architettura, come per vega al ces 2017
Nah, è solo l'ennesima manifestazione del principio di Pareto. Ottengono quel che possono col minimo sforzo, l'ottimizzazione costa
A meno che non ci siano i marchi delle marche gaming sopra, allora "è una notevole semplificazione del lavoro dei poveri sviluppatori, che potranno rilasciare su steam ancora più indie da 5 euro con ue4 e super lens flare in fake rt"
giuro che da qualche parte ho un The Games Machine del 1995 in cui c'è scritto che VR e Ray Tracing sono il futuro
Certo, così come gli occhialini per la vr erano un accessorio del sega master system, nel 1989.
Nvidia lo spingerà OGGI per vendere le gpu di oggi.
Dov'è Hairworks? L'ultimo gioco che abbia usato Hairworks è uscito nel 2015, The Witcher 3.
Dov'è HBAO+? Ultimo gioco che lo usi, rilasciato oltre due anni fa, The Division.
Dov'è DSR? Ultimo gioco che lo utilizzi, mi pare sia uscito nel 2016. Non ce ne sono altri annunciati.
VXGI? Mai usato nei videogame, fondamentalmente una tech demo per maxwell.
Dov'è Apex? Sta lì bello integrato in UE4, ma chi lo usa? Nessun gioco.
Quelle che ho menzionato, chi più chi meno, sono belle tecnologie, Apex, HBAO, Hairworks a me piacciono, ma che fine hanno fatto? Dimenticatoio. La stessa fine che farà il ray tracing nvidia, il DLSS e tutte le feature che ci vendono ad ogni singola nuova architettura. Le esclusive muoiono.
PhysX, è l'unica tecnologia Nvidia viva e vegeta correntemente utilizzata nei giochi. Praticamente ogni gioco Unity e Unreal usa PhysX, ma non sono certo gli unici.
Peccato che tolti Killing Floor 2 e Project Cars, nessun gioco usi l'accelerazione fisica sulla gpu (anche perchè non serve assolutamente, lo fai solo se ti paga mamma Nvidia, se no usi la libreria cpu come tutti).
E Nvidia non avrà nessuna delle console future.
Quindi comprare oggi pensando serva domani mi sembra altamente sfigato.
Forse l'unica feature che si salverà sarà il DLSS?
Mah, ho anche qui i miei dubbi.
Sinceramente comprare oggi, per eventuali tecnologie da dimenticatoio di domani mi fa ridere.
E già li sento i vostri discorsi sul "eh ma stavolta è diverso", tanto li avete fatti con qualsiasi tecnologia Nvidia.
Bomber, Hairworks è usato in moltissimi giochi, non è che deve esserci l'etichetta attaccata. FFXV per esempio o il prossimo Metro lo usano (2 esempi che mi sono venuti in mente al volo). Il fatto che ora sia nativo dentro i principali motori 3d non vuol dire che sia morto.
HBO+ è usato.
DSR cazzo c'entra?
Non è che hai un pochino le idee confuse?
Gyammy85
05-10-2018, 07:43
Se vega 20 avesse effettivamente 64 cu, è molto grande per essere a 7 nm, quindi immagino che le abbiano potenziate o abbiano in qualche modo cambiato la struttura delle cu magari aggiungendo geo engine o altro, o semplicemente per lo sfruttamento delle features in hardware, fecero una cosa simile pure con rv770 mi pare...
Se vega 20 avesse effettivamente 64 cu, è molto grande per essere a 7 nm, quindi immagino che le abbiano potenziate o abbiano in qualche modo cambiato la struttura delle cu magari aggiungendo geo engine o altro, o semplicemente per lo sfruttamento delle features in hardware, fecero una cosa simile pure con rv770 mi pare...
Stesso mio pensiero
sgrinfia
05-10-2018, 07:49
Nvidia lo spingerà OGGI per vendere le gpu di oggi.
Dov'è Hairworks? L'ultimo gioco che abbia usato Hairworks è uscito nel 2015, The Witcher 3.
Dov'è HBAO+? Ultimo gioco che lo usi, rilasciato oltre due anni fa, The Division.
Dov'è DSR? Ultimo gioco che lo utilizzi, mi pare sia uscito nel 2016. Non ce ne sono altri annunciati.
VXGI? Mai usato nei videogame, fondamentalmente una tech demo per maxwell.
Dov'è Apex? Sta lì bello integrato in UE4, ma chi lo usa? Nessun gioco.
Quelle che ho menzionato, chi più chi meno, sono belle tecnologie, Apex, HBAO, Hairworks a me piacciono, ma che fine hanno fatto? Dimenticatoio. La stessa fine che farà il ray tracing nvidia, il DLSS e tutte le feature che ci vendono ad ogni singola nuova architettura. Le esclusive muoiono.
PhysX, è l'unica tecnologia Nvidia viva e vegeta correntemente utilizzata nei giochi. Praticamente ogni gioco Unity e Unreal usa PhysX, ma non sono certo gli unici.
Peccato che tolti Killing Floor 2 e Project Cars, nessun gioco usi l'accelerazione fisica sulla gpu (anche perchè non serve assolutamente, lo fai solo se ti paga mamma Nvidia, se no usi la libreria cpu come tutti).
E Nvidia non avrà nessuna delle console future.
Quindi comprare oggi pensando serva domani mi sembra altamente sfigato.
Forse l'unica feature che si salverà sarà il DLSS?
Mah, ho anche qui i miei dubbi.
Sinceramente comprare oggi, per eventuali tecnologie da dimenticatoio di domani mi fa ridere.
E già li sento i vostri discorsi sul "eh ma stavolta è diverso", tanto li avete fatti con qualsiasi tecnologia Nvidia.
Questo succede perchè molte di esse sono tecnologie proprietarie , se Invidia avesse concesso l'apertura senza vincoli a altre aziende sarebbero sicuramente più diffuse e avrebbe avuto un riscontro di immagine più positivo.
Invece lei continua a immettere sul mercato tecnologie a specchio........,specchio per allodole ...si intende:D , tanto qualche allodola che spende 1200euro per una scheda video si trova sempre ..........:asd: :asd:
Gyammy85
05-10-2018, 07:53
Stesso mio pensiero
Mi baso sempre su quella slide trapelata, dove c'era pcie4, 1 tb di banda, 32 giga di hbm2, insomma tutte cose vere, quindi saranno vere pure le 64 cu. Anche se fra banda, efficienza molto maggiore del silicio e appunto l'ipc, up to 80% faster di vega 10 nei punti deboli è estremamente plausibile. Chissà i clock, teoricamente dovrebbe arrivare anche a 2 GHz, vega liquid arriva senza particolari problemi a 1750...
Si ma se presentano a gennaio faranno qualcosa anche lato gamer
Voglio ben sperare :mbe:
Gyammy85
05-10-2018, 07:59
Si ma se presentano a gennaio faranno qualcosa anche lato gamer
Voglio ben sperare :mbe:
Certo sarà per il gaming, vega 20 esce prima, come la insinct vega a dicembre 2016
Perchè magari io a vega ci sarei pure passato... ma non ai prezzi attuali (circa 500€/550€)... visto che a gennaio qualcosa si saprà...
Per avere una scheda gaming dovremo aspettare almeno giugno 2019 con Navi secondo me, con disponibilità abbondante anche delle custom a settembre.
Navi Top 16gb hbm2 reference mia al day 1 :O la preordino dall'abkazia già adesso :O
Qualche giorno fa su yeppon c'era la vega 64 nitro+ a 470 euro, te la sei persa :)
eeeeeh mi avevi tentato infatti :stordita:
Gyammy85
05-10-2018, 09:23
Perchè magari io a vega ci sarei pure passato... ma non ai prezzi attuali (circa 500€/550€)... visto che a gennaio qualcosa si saprà...
Per curiosità, quanto vorreste pagarla esattamente? :fagiano:
Gyammy85
05-10-2018, 09:30
Ma perchè vorreste pagarla?
Non la mettono in giveaway?
:asd:
Infatti, però in bundle voglio minimo un 2950X
Ton90maz
05-10-2018, 09:51
Per curiosità, quanto vorreste pagarla esattamente? :fagiano:
Io non più di 350 euro nuova, e solo perché sono generoso :oink:
Gyammy85
05-10-2018, 09:55
Io non più di 350 euro nuova, e solo perché sono generoso :oink:
Rilancio con 280 euro spedita e 2990WX in bundle :oink: :oink:
sgrinfia
05-10-2018, 10:23
Rilancio con 280 euro spedita e 2990WX in bundle :oink: :oink:
Questo uomo lo voglio subito responsabile dell ufficio vendite di Amd :read:
Qualche giorno fa su yeppon c'era la vega 64 nitro+ a 470 euro, te la sei persa :)
Lo so... ho tentennato perchè cmq dovrei cambiare anche monitor... ora sono su un 1080p... quindi dovrei passare ad un 2k 144Hz freesync... ma tra tutte e e 2 le spese partono quasi 1000€... non sono bruscolini insomma...
Per curiosità, quanto vorreste pagarla esattamente? :fagiano:
Diciamo che come prezzo ci siamo.. 450 circa... essendo custom...
poi la mia idea sarebbe liquidarla.. ma se poi a gennaio mi esce fuori qualcosa ...
probabilmente attenderò fino al 9 gennaio per vedere cosa viene fuori... a costo di prendere una 16HBM e pagarla magari un pò di più , ma stare già sui 7nm...
2 mesi ( in maniera sofferente ) si possono aspettare...
AceGranger
05-10-2018, 10:55
Nvidia lo spingerà OGGI per vendere le gpu di oggi.
Dov'è Hairworks? L'ultimo gioco che abbia usato Hairworks è uscito nel 2015, The Witcher 3.
Dov'è HBAO+? Ultimo gioco che lo usi, rilasciato oltre due anni fa, The Division.
Hairworks
Final Fantasy XV 2018
Metro Exodus 2019
HBAO+
For Honor 2017
Mass Effect: Andromeda 2017
Shadow of the Tomb Ryder 2018
bastavano 10 secondi di google... e non essendo appassionato di videogiochi non ho manco intenzione di usare un secondo di piu a cercarne altri.
Dov'è DSR? Ultimo gioco che lo utilizzi, mi pare sia uscito nel 2016. Non ce ne sono altri annunciati.
ma se lo forzi via driver e puoi usarlo in qualsiasi gioco :rolleyes:
VXGI? Mai usato nei videogame, fondamentalmente una tech demo per maxwell.
lo hanno giusto aggiornato alla versione 2.0.1 5 mesi fa e integrato all'interno dell' Unreal.
e vorrei farti notare che da qualche anno l'Unreal ( come anche Unity, e forse anche Cry Engine se torneranno a investire) non è piu usato solo per i giochi ma anche per produzioni professionali ( e lo stanno testando anche in produzioni televisive in real-time come realta aumentata ) e se TU non vedi qualche feature o qualche nomignolo stampata sulal locandina di un giochino non vuol dire che non venga usata.
nVidia ha SEMPRE lavorato per creare un ecosistema il piu diretto possibile Pro <----> Gaming
Dov'è Apex? Sta lì bello integrato in UE4, ma chi lo usa? Nessun gioco.
ma se ha cambiato nome mi spieghi come faresti a vederlo scritto nei giochi :rolleyes: ?
Apex non esiste piu ed è stato accorpato all'interno di FLEX che è il "contenitore" di tutti i simulatori fisici del pacchetto Gameworks che permette di interfacciarsi anche con altri simulatori all'interno dei software di produzione e che poi si occupa di fare l'esportazione in Physix all'interno dei game engine. ( discorso Physix continua sotto )
Quelle che ho menzionato, chi più chi meno, sono belle tecnologie, Apex, HBAO, Hairworks a me piacciono, ma che fine hanno fatto? Dimenticatoio.
sono finiti nel dimenticatoio per te che se non leggi il nomignolo sulla scatola credi che non ci siano, ma nella realta sono piu che usati e costantemente aggiornati.
La stessa fine che farà il ray tracing nvidia
il raytracing non è di nVidia
il DLSS e tutte le feature che ci vendono ad ogni singola nuova architettura. Le esclusive muoiono.
non hanno abbandonato le loro proprieta software, figuriamo ora che ci hanno investito addirittura un'architettura.
PhysX, è l'unica tecnologia Nvidia viva e vegeta correntemente utilizzata nei giochi. Praticamente ogni gioco Unity e Unreal usa PhysX, ma non sono certo gli unici.
Peccato che tolti Killing Floor 2 e Project Cars, nessun gioco usi l'accelerazione fisica sulla gpu (anche perchè non serve assolutamente, lo fai solo se ti paga mamma Nvidia, se no usi la libreria cpu come tutti).
Physix va ben oltre quello che vedi tu nel gioco, visto che è usato in produzione per il calcolo delle collisioni e poi viene trasposto in CPU/GPU nel gioco; quindi lo sviluppatore prende una Quadro, crea l'asset animato con le collisioni con Physix ( ambiente FLEX e plugin DCC ) e le esporta in Unreal/Unity o se le usa direttamente in 3D Max / Maya;
che poi tu giocatore lo usi in CPU a nVidia frega relativamente poco, visto che comunque è stata usata una sua tecnologia che ha alimentato il suo mercato che le permette di mantenere l'80% del mercato Pro.
E Nvidia non avrà nessuna delle console future.
per ora è entrata con Switch, e non parlerei cosi tanto per assoluti in questi campi, visto che ci mettono poco a fare il salto di architettura.
in futuro prossimo potrebbero anche non essere nemmeno AMD ma Intel...
E già li sento i vostri discorsi sul "eh ma stavolta è diverso", tanto li avete fatti con qualsiasi tecnologia Nvidia.
guarda, ognuno puo pensarla tranquillamente come gli pare, quello che traspare dal tuo post è che conosci i giochi meno di me ( che non li conosco affatto :asd:) e che hai una visione errata e ristretta di quello che c'è dietro ai semplici acronimi che vedi o non vedi scritti sulla locandina del gioco.
Questo succede perchè molte di esse sono tecnologie proprietarie , se Invidia avesse concesso l'apertura senza vincoli a altre aziende sarebbero sicuramente più diffuse e avrebbe avuto un riscontro di immagine più positivo.
Invece lei continua a immettere sul mercato tecnologie a specchio........,specchio per allodole ...si intende:D , tanto qualche allodola che spende 1200euro per una scheda video si trova sempre ..........:asd: :asd:
in realta quello scritto in quel post non succede proprio :asd:
Gyammy85
05-10-2018, 11:09
:asd: :asd:
Da un lato c'è intel con la cpu quantistica e le gpu in uscita non si sa bene quando, non si sa bene come, non si sa bene perché, ma sicuro spaccheranno tutto, dall'altro nvidia col raytracing ovunque non importa come quando quanto e perché, insomma sono riusciti a deviare l'attenzione alla perfezione.
Per il monitor io sono curioso di vedere i nuovi aoc ag273qcx 1440p 144hz hdr400 freesync2.
A gennaio per gaming non esce niente quasi sicuro.
appunto vedi?
Già il fatto che monitor freesync2 debbano uscire... se uno deve investire.. investe almeno che sia freesync 2.
Poi per vega... boh... sono indeciso se magari trovare un usato su ebay:mc: :mc:
..aggiungerei che la questione "nvidia non ha console" ha rappresentato fastidi per il suo mercato e le sue prestazioni in game pari al nulla assoluto.
Non so, ripeto, ci sono tante tecnologie Nvidia (buone) non usate semplicemente perchè non sono su console. A me Apex piace molto e sarebbe un passo avanti (semplice) per molti giochi che ancora oggi hanno una fisica delle stoffe piuttosto brutta e irrealistica. Potete continuare a dire che è integrato in gameworks, ecc, come fa acegranger, io nel gioco non li vedo, vedo le solite vertex animations.
Dei fattori di mercato in questo caso interessa meno.
La stessa cosa avverrà per il RT. E' inutile dire che "è meglio per gli sviluppatori che non devono spendere tutto quel tempo per generare e tweakare le mappe per l'illuminazione" se tanto lo devono fare in ogni caso se il loro gioco esce su console (99.9% dei titoli graficamente rilevanti). Perchè la verità è che aumenti il lavoro, visto che devi spendere tempo sia per fare ciò che facevi prima e in più devi anche implementare, tweakare una feature che avranno pochissimi giocatori per i prossimi anni, e anche se la avessero dovranno giocare a 1080p e probabilmente non a 60 fps. Non esattamente il sogno di uno che spende 600-1000-1500 euro per una gpu.
Gyammy85
05-10-2018, 12:06
A proposito di tecnologie nuove, ieri sera non avendo un cavolo da fare e avendolo notato per caso in game ho fatto un breve video che mostra i limiti dei riflessi fatti in maniera tradizionale.
https://www.youtube.com/watch?v=7Swla3t6DGo
Come vedere sparisce il riflesso degli oggetti che escono dal campo visivo.
Certo questo non basta per farmi prendere una 2080 da 1k€, è solo per scopo accademico :asd:
Boh, mica è così in tutti i giochi...
A proposito di tecnologie nuove, ieri sera non avendo un cavolo da fare e avendolo notato per caso in game ho fatto un breve video che mostra i limiti dei riflessi fatti in maniera tradizionale.
https://www.youtube.com/watch?v=7Swla3t6DGo
Come vedere sparisce il riflesso degli oggetti che escono dal campo visivo.
Certo questo non basta per farmi prendere una 2080 da 1k€, è solo per scopo accademico :asd:
io fossi in te non ci rinuncerei... #caccialagrana :asd:
scherzo eh, effettivamente fino ad oggi era gestito un pò alla carlona il RT :fagiano: vediamo quando verrà implementato e come soprattutto... temo in riflessi innaturali e forzati sparati in ogni dove
A proposito di tecnologie nuove, ieri sera non avendo un cavolo da fare e avendolo notato per caso in game ho fatto un breve video che mostra i limiti dei riflessi fatti in maniera tradizionale.
https://www.youtube.com/watch?v=7Swla3t6DGo
Come vedere sparisce il riflesso degli oggetti che escono dal campo visivo.
Certo questo non basta per farmi prendere una 2080 da 1k€, è solo per scopo accademico :asd:
Hai perfettamente ragione su questo.
Ma va anche detto che il tuo esempio è limitato in quanto questo problema era fixabile con cubemaps e lightprobes, senza necessitare un real time rendering dei riflessi.
Insomma è il classico esempio perfetto per quando Nvidia dice: RT riduce i tempi di sviluppo. E difatti in questa scena avrebbe salvato gli artisti da fare questo lavoro (che qui non hanno fatto).
Inoltre, il limite delle cubemaps è che sono limitate ad oggetti che non cambiano in real time. Se la luce nel tuo esempio si potesse rompere non vedresti il riflesso della rottura, al massimo il riflesso generato dal faro spento.
Gyammy85
05-10-2018, 13:18
Fino a due mesi fa gli sviluppatori trovavano semplicissimo sviluppare in dx11 dato che pascal non ha alcune feature delle dx12, ora trovano semplicissimo fare rt...a me sembra solo marketing, vedremo in futuro
Lunar Wolf
05-10-2018, 13:27
Senza dubbio io non cambio il mio monitor per uno che non sia qualcosa di simile.
Una vega 56/64 usata se la trovi a buon prezzo ci sta alla grande.
Io mi sono preso una 1070 perchè si trova a meno ma un monitor 1440p 144hz freesync 2 lo prenderei comunque se esce qualcosa di buono a prezzo interessante.Ma sti freesync 2 2k quando escono?
Ma sti freesync 2 2k quando escono?
aspettano HL3 per metterlo in bundle
mirkonorroz
05-10-2018, 15:57
Forse se faranno davvero i VG in streaming, saranno quelli a buttarsi con piu' decisione sul raytracing. Magari avranno il graficone ma saranno ingiocabili per altri versi (connessioni, pubblicita' durante il gioco :read:)
Ale55andr0
05-10-2018, 20:17
una navi a 7nm che rinuncia a qualche CU (4, da 4096 a 3840sp) per passare a 6 geo e 96 rop's unitamente a un clock molto alto (1.8-2ghz) voi come la vedreste?
Gyammy85
05-10-2018, 21:01
una navi a 7nm che rinuncia a qualche CU (4, da 4096 a 3840sp) per passare a 6 geo e 96 rop's unitamente a un clock molto alto (1.8-2ghz) voi come la vedreste?
Sarebbero circa 15 tf, boh non vedo perché dovrebbero ridurre gli sp proprio ora...ok i 6 geo engine, 96 rops sono troppe, stravolgerebbero tutti i rapporti del chip. Sembra che già con vega 20 l'ipc sia aumentato (in base a quel bench, non credo che clocki molto dato che è un instinct)...
Ale55andr0
05-10-2018, 22:06
6Sarebbero circa 15 tf, boh non vedo perché dovrebbero ridurre gli sp proprio ora...ok i 6 geo engine, 96 rops sono troppe, stravolgerebbero tutti i rapporti del chip. Sembra che già con vega 20 l'ipc sia aumentato (in base a quel bench, non credo che clocki molto dato che è un instinct)...
perchè per come è "suddiviso" il chip ora, mi pare che per avere 6 geo e 96 rop's o vai da 60 cu (3840sp) o di 96 (6144), e 96 mi pare un numero esagerato se devono infilare dentro altra roba nel chip (unità rtx?). 96rops non dovrebbero essere troppe per una nuova top di gamma con uno scatafascio da banda e il resto del chip scalerebbe comunque verso l'alto grazie alle frequenze senza bisogno di moltissimi sp rimanendo forse più "equilibrato" nel complesso. PS: Si è fermi a 64rops dalle R9 290, direi che è ora che salga anche quel numero...
Gyammy85
06-10-2018, 09:06
fascia media amd a 7nm sarà sicuramente 4 geo, basta vedere la stessa invidia che ne ha 2/3 1060/2070 e che al massimo con i 7nm faranno la top da 8 3080ti, la high da 6 3080 e la mid da 4 3070
navi fascia media è lecito aspettarsi al massimo una vega 56 o se ci sta la 64 a 7nm quindi clock 2ghz e soprattutto mi auguro ipc superiore ed eventualmente hardware specifico per il RT, siccome sarà la base delle console next-gen
lascia perdere i TFlooopsss!
Inviato dal mio MIX utilizzando Tapatalk
Ciao grid :D :D
Comunque un +60% per fascia è auspicabile come da tradizione amd, specie ora col cambio di pp, poi se fanno stile passaggio bulldozer-ryzen e risolvono problemi e sotto utilizzi vari pure un raddoppio in crti casi ci starebbe
A me i TF piacciono tanto :O non voglio crolli accendendo le luci :O
ninja750
06-10-2018, 10:25
Ma sti freesync 2 2k quando escono?
AOC ne ha presentato uno molto interessante 27 2K e freesync2
è tornata a 466€ :fagiano:
argh :cry: no sono a posto, davvero :p
è tornata a 466€ :fagiano:
Mi stai facendo ingolosire... fortuna che sono finite... :mc: :mc:
Gyammy85
06-10-2018, 19:01
Ma quindi abbiamo superato le 10 veghe vendute?? :eek:
Penso positivo
Le rushano dagli scaffali perché arriva la nuova serie!
E poi mi sveglio tutto bagnato!
Penso positivo
Le rushano dagli scaffali perché arriva la nuova serie!
E poi mi sveglio tutto bagnato!
:D :D :D
E un pò quello il dubbio che mi ferma...
ninja750
06-10-2018, 19:13
si svegliassero a presentare qualcosa di competitivo sui 300..
l'inondazione di 1070/1080 nel mercatino diventa sempre più interessante
Anche perchè se veramente tra 2 mesi ci fosse un restiling di vega.... le “vecchie” vega si troverebbero a 200€
Io non ci giurerei, non sono calate ne con la 1070ti ne con la 2080/2080ti.
I casi sono due o le vega non esistono e quindi nessuno ha la necessità di venderle o le vendono lo stesso.
Beh io ipotizzo un refresh vega con consumi un po piu contenuti e performance del 15/20% in piu.... il prezzo dovrebbe rimanere il medesimo... sui 500€... va da se che le vecchie avrebbero un crollo
Windtears
06-10-2018, 19:36
Beh io ipotizzo un refresh vega con consumi un po piu contenuti e performance del 15/20% in piu.... il prezzo dovrebbe rimanere il medesimo... sui 500€... va da se che le vecchie avrebbero un crollo
se ho compreso bene le ultime "politiche" amd temo che farà poco binning, spenderà ancora meno per selezionare il vcore e cercherà la massima frequenza possibile per stare vicino a nvidia... almeno con la fascia top (se la farà, sono supposizioni).
Curioso di vedere cosa tirerà coi 7nm, sarebbe bellissimo se bissasse il passaggio 2900xt - 3800.... sarebbe un bene per la concorrenza. ;)
Vega 20 non è gaming, basta farsi le pippe sognando una nuova vega gaming.
:D le pippe fanno bene :D
Gyammy85
06-10-2018, 20:51
Mi sembra che vega stia semplicemente arrivando al prezzo stabilito da amd, e con le 1080ti a 800 e le 2080 a 900 la vega nitro a 500 è sicuramente un best buy.
Paradossalmente turing sta rivalutando vega, ssarebbe stato meglio se invidia le avesse fatte uscire prima :asd:
Roland74Fun
06-10-2018, 21:25
Si ma pensando alle gpu fa un po' strano :asd:
Va beh basta non interagire colle ventole durante l'atto....
Mi sembra che vega stia semplicemente arrivando al prezzo stabilito da amd, e con le 1080ti a 800 e le 2080 a 900 la vega nitro a 500 è sicuramente un best buy.
Paradossalmente turing sta rivalutando vega, ssarebbe stato meglio se invidia le avesse fatte uscire prima :asd:
Si ma a 500 euro ci sarebbe anche la concorrenza equivalente. E poi l'usato a iosa.
E comunque 500 euro sossoldi.
Mai spenderei tutti quei soldi per una vga.
Già i 250 mi sono pesati due anni fa.
Al prossimo giro vado di low end 100/150max...e via a cercare giochi belli su steam a prezzi modici.
Mi sembra che vega stia semplicemente arrivando al prezzo stabilito da amd, e con le 1080ti a 800 e le 2080 a 900 la vega nitro a 500 è sicuramente un best buy.
Paradossalmente turing sta rivalutando vega, ssarebbe stato meglio se invidia le avesse fatte uscire prima :asd:
Diciamo che i 500€ andavano bene 1 anno fa,
Ora mi sembra un tantino tardi
sgrinfia
06-10-2018, 22:25
Diciamo che i 500€ a me sembrano sempre tanti .........:confused:
si svegliassero a presentare qualcosa di competitivo sui 300..
l'inondazione di 1070/1080 nel mercatino diventa sempre più interessante
Siamo sulla stessa barca! :D
Diciamo che i 500€ a me sembrano sempre tanti .........:confused:
Concordo.
Le Vega si sono bruciate nel momento in cui avrebbero dovuto aggredire nvidia, cioè al lancio, per colpa del mining.
Ton90maz
07-10-2018, 05:31
500 euro SONO tanti, ma ora che sono usciti quei cessi verdi chissà quanti cominceranno ad associare 500 euro a una spesa contenuta e da fascia media? Dopo i polli che comprano le 1060 a 400 euro il prossimo step è quello.
Se solo la versione scassata avesse prezzi decenti come una volta... ormai la pollaggine ha spinto le cut a cifre folli, facendo morire completamente la fascia dei 300-350 euro
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.