View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
fraussantin
09-05-2019, 14:53
i pixel in fhd cominciano a vedersi dai 27 pollici e stando molto vicini come le talpe ciecate:rotfl:
I pixel li vedo sul vecchio notebook 15 " 1080p che ho in firma ..
E come li vedo io li vedono tutti altrimenti i filtri AA non li avrebbero neppure inventati
ninja750
09-05-2019, 16:15
complimenti
io sto scrivendo adesso con nb aziendale 15.6" 1366x768 e non li vedo da 60cm
fraussantin
09-05-2019, 16:28
complimenti
io sto scrivendo adesso con nb aziendale 15.6" 1366x768 e non li vedo da 60cmPer quello che consigliavo un oculista.. e a sto punto disattivate l'aa perchè non vi serve
mircocatta
09-05-2019, 16:43
state confondendo un po lo screen door effect (l'effetto zanzariera) con pixel
la retinatura non la vediamo (a meno che uno non stia con il naso attaccato allo schermo) ma il pixel di per se si, soprattutto con applicativi 3d, non a caso esistono tutte le tipologie di AA che conosciamo
siamo ot comunque.
Ton90maz
09-05-2019, 17:46
Mi ricordano i discorsi su quelle inutilità degli fx.. ma.la ps3 ha 7 core... E poi un dual core andava meglio di quelli.
La ps3 in realtà aveva un core solo e due threads, ma è un'altra era geologica.
Con la ps4 e la one si è cominciato a vedere un uso sempre più massiccio dei processori a 6-8 threads, infatti vedete cosa combinate adesso con i velocissimi i3 e i5 quadcore da 5 gighi.
Non ci sarà subito un salto netto ma appena cominceranno a sfruttare seriamente le nuove cpu ci sarà da ridere.
Se io spendo centinaia di euro per una cpu future proof intendo almeno 6 anni di ciclo vitale, altrimenti si fa prima a prendere un 1600-2600 e ad aggiornarlo quando serve.
ninja750
09-05-2019, 18:09
Per quello che consigliavo un oculista.. e a sto punto disattivate l'aa perchè non vi serve
nel mio caso uno psicologo visto che l'oculista insiste a dire che ho 10/10
Roland74Fun
09-05-2019, 20:21
...Con la ps4 e la one si è cominciato a vedere un uso sempre più massiccio dei processori a 6-8 threads, infatti vedete cosa combinate adesso con i velocissimi i3 e i5 quadcore da 5 gighi.
Non ci sarà subito un salto netto ma appena cominceranno a sfruttare seriamente le nuove cpu ci sarà da ridere.
Ricordo tutti 12-10 anni fa, puntare sugli E7xxx piuttosto che ai corequad perché più veloci nei giochi. Poi quelli furono morti e chi aveva i core quad ci ha tirato avanti quasi 10 anni.
E comunque si, le ps4/xbox1 con tutti i loro limiti hanno dato una svolta ai motori di gioco.
fraussantin
09-05-2019, 20:30
Ricordo tutti 12-10 anni fa, puntare sugli E7xxx piuttosto che ai corequad perché più veloci nei giochi. Poi quelli furono morti e chi aveva i core quad ci ha tirato avanti quasi 10 anni.
E comunque si, le ps4/xbox1 con tutti i loro limiti hanno dato una svolta ai motori di gioco.Il merito è anche di denuvo è .. :asd:
Cmq i 4 core di nuova generazione intel vanno benissimo. Non è sono una questione di numero di core ma proprio di architettura.
Io ci conto su questi zen 2 se riescono a raggiungere intel ed a essere competitivi almeno per un anno tireranno su amd.
Anche perchè portano innovazione anche lato pcie dove la banda ormai è risicata se si adottano più connessioni per varie schede.
E poi perchè intel se lo merita di soffrire un po , ha veramente calcato troppo la mano.
Ps se non ho capito male intel esce con 7nm ddr5 e pci5 nel 2021.. quindi amd ha un bel po di tempo per respirare e dedicarsi un po a rgt
Free Gordon
09-05-2019, 22:49
Mi ricordano i discorsi su quelle inutilità degli fx.. ma.la ps3 ha 7 core... E poi un dual core andava meglio di quelli.
Questo discorso è sbagliato nei presupposti.
PS4 e ONE sono console X86 con 8core Jaguar Out of Order di derivazione PC e programmazione multithread classica, i giochi usano gli stessi paradigmi tra PC e console.
PS3 e PC x86 erano/sono 2 cose diametralmente diverse...con paradigmi di programmazione completamente diversi e con punti di forza differenti.. (facendo i debiti paragoni temporali).
Se PS5 e Xbox2 escono con degli octacore (16threads) Ryzen2, stai tranquillo che la programmazione PC andrà nella direzione di sfruttare al meglio la programmazione SMT e tutti i threads a disposizione. Come del resto è accaduto con l'introduzione di PS4/ONE, dotate però di CPU da "tablet"...
E comunque si, le ps4/xbox1 con tutti i loro limiti hanno dato una svolta ai motori di gioco.
Tipo…?
Sono gli stessi dell'era PS3.
Se non ci capite nulla comunque potete anche risparmiarvi frasi a caso.
Ton90maz
09-05-2019, 23:55
Sono gli stessi dell'era PS3.
Se non ci capite nulla comunque potete anche risparmiarvi frasi a caso.
Pure quella sopra è una frase a caso
fraussantin
09-05-2019, 23:58
Questo discorso è sbagliato nei presupposti.
PS4 e ONE sono console X86 con 8core Jaguar Out of Order di derivazione PC e programmazione multithread classica, i giochi usano gli stessi paradigmi tra PC e console.
PS3 e PC x86 erano/sono 2 cose diametralmente diverse...con paradigmi di programmazione completamente diversi e con punti di forza differenti.. (facendo i debiti paragoni temporali).
Se PS5 e Xbox2 escono con degli octacore (16threads) Ryzen2, stai tranquillo che la programmazione PC andrà nella direzione di sfruttare al meglio la programmazione SMT e tutti i threads a disposizione. Come del resto è accaduto con l'introduzione di PS4/ONE, dotate però di CPU da "tablet"...
MA IN QUESTO 3D lo sento dire da anni ormai le console sono amd e nvidia e intel creperanno .. dx 12 di qui , vulkan de la , gcn a dx apu a sx vedremo ..
MA IN QUESTO 3D lo sento dire da anni ormai le console sono amd e nvidia e intel creperanno .. dx 12 di qui , vulkan de la , gcn a dx apu a sx vedremo ..
Se ci sarà una svolta con il ray tracing, probabilmente sarà merito delle prossime console e della loro diffusione di massa e sa hai una Nvidia, dovresti solo ringraziare.
edit.
Andy1111
10-05-2019, 07:21
Il merito è anche di denuvo è .. :asd:
Cmq i 4 core di nuova generazione intel vanno benissimo. Non è sono una questione di numero di core ma proprio di architettura.
Io ci conto su questi zen 2 se riescono a raggiungere intel ed a essere competitivi almeno per un anno tireranno su amd.
Anche perchè portano innovazione anche lato pcie dove la banda ormai è risicata se si adottano più connessioni per varie schede.
E poi perchè intel se lo merita di soffrire un po , ha veramente calcato troppo la mano.
Ps se non ho capito male intel esce con 7nm ddr5 e pci5 nel 2021.. quindi amd ha un bel po di tempo per respirare e dedicarsi un po a rgt
Denuvo sarebbe da denunciare chi lo sviluppa!!!!
https://gaming.hwupgrade.it/news/videogames/resident-evil-2-remake-migliora-di-4-12fps-senza-denuvo_82174.html
Per fare un esempio
ninja750
10-05-2019, 08:44
raytracing su vega56 LINK (https://www.overclock3d.net/news/software/crytek_discusses_ray_tracing_within_cryengine_-_works_on_an_rx_vega_56/1)
"To say that this demo was impressive is an understatement, utilising an AMD RX Vega 56 graphics card to deliver ray-traced graphics within CryEngine, without the need for specialised ray tracing components, such as the Nvidia RTX series. "
:uh:
The Pein
10-05-2019, 09:12
raytracing su vega56 LINK (https://www.overclock3d.net/news/software/crytek_discusses_ray_tracing_within_cryengine_-_works_on_an_rx_vega_56/1)
"To say that this demo was impressive is an understatement, utilising an AMD RX Vega 56 graphics card to deliver ray-traced graphics within CryEngine, without the need for specialised ray tracing components, such as the Nvidia RTX series. "
:uh:
non è ray-tracing( non è neanche uno standard, è una loro interpretazione per dire, guardate anche con amd si potrebbe fare), è un fake per giunta a 1080p a 30 fps.avere una grafica alla Avatar in real time in un gioco vuole dire Gesù, lato quadro non ne parliamo con questa rivoluzione in ambito film/animazione ecc... renderà tante volte più veloce fare le stesse cose: vuoi mettere renderizzare un frame di Avatar 10/100 volte più veloce...secondo te nvidia spende 3,5mld$ di R&D all'anno per le cazzate? e mo arriva Crytek dicendo noi siamo più fighi e svegli, gli altri(tutta l'industria) sparano solo balle dicendo che non si può fare senza unità specializzate e con la prima scheda che capita....
fraussantin
10-05-2019, 09:12
Link della concorrenza
https://www.tomshw.it/hardware/crytek-neon-noir-full-hd-e-30-fps-per-il-ray-tracing-sulla-radeon-rx-vega-56/
Direi che funzia .. però se il target delle console sarà 4k @60fps( e penso di si visto le tv che ci sono nelle case, mi sa che i 13 flip non saranno sufficenti a meno che non rasino tanto i raggi , e a questo punto come si è detto per nvidia , il gioco non vale la candela.
The Pein
10-05-2019, 09:20
Link della concorrenza
https://www.tomshw.it/hardware/crytek-neon-noir-full-hd-e-30-fps-per-il-ray-tracing-sulla-radeon-rx-vega-56/
Direi che funzia .. però se il target delle console sarà 4k @60fps( e penso di si visto le tv che ci sono nelle case, mi sa che i 13 flip non saranno sufficenti a meno che non rasino tanto i raggi , e a questo punto come si è detto per nvidia , il gioco non vale la candela.
ci sono 30fps a 1080p solo per i riflessi, quando aggiungeranno AO e GI in RT senza hardware dedicato scenderai a 1fps su una scheda che non ha hardware adeguato, se poi neanche il software lo è figuriamoci.:sofico:
fraussantin
10-05-2019, 09:24
ci sono 30fps a 1080p solo per i riflessi, quando aggiungeranno AO e GI in RT senza hardware dedicato scenderai a 1fps su una scheda che non ha hardware adeguato, se poi neanche il software lo è figuriamoci.:sofico:Certo , ma tenendo conto di ottimizzazioni e miracoli naugtydogs 13 flop serviranno quasi tutti per il 4k a 60 fps.
Quindi se voglio raggiare qualcosa in un tripla a dovranno scendere a compromessi e secondo me non ne vale la pena se non per mera curiosità.
Lo stesso poi che succede su schede verdi è!
ninja750
10-05-2019, 09:25
e mo arriva Crytek dicendo noi siamo più fighi e svegli, gli altri(tutta l'industria) sparano solo balle dicendo che non si può fare senza unità specializzate e con la prima scheda che capita....
visto che non sono gli ultimi cazzari arrivati gli darei credibilità
la stessa nvidia un po in sordina (ovvio) ha detto che il raytracing sarà prima o poi disponibile anche sulle gtx, non vedo perchè non su AMD dove abbiamo già riportato notizie in merito
in fondo sottolineano che il tutto funziona, ovvio a un impatto prestazionale non da poco, ma funziona
Link della concorrenza
https://www.tomshw.it/hardware/crytek-neon-noir-full-hd-e-30-fps-per-il-ray-tracing-sulla-radeon-rx-vega-56/
Direi che funzia .. però se il target delle console sarà 4k @60fps( e penso di si visto le tv che ci sono nelle case, mi sa che i 13 flip non saranno sufficenti a meno che non rasino tanto i raggi , e a questo punto come si è detto per nvidia , il gioco non vale la candela.
boh, é possibile che con navi vengano introdotte delle unitá di calcolo dedicate?
Gyammy85
10-05-2019, 09:32
Io dico che come al solito per l'implementazione seria delle feature bisognerà aspettare amd
Direi anche di tornare IT
mircocatta
10-05-2019, 09:34
boh, é possibile che con navi vengano introdotte delle unitá di calcolo dedicate?
si, ma non credo che su navi faranno molto più di quelle attuali nvidia, soprattutto se mid come le navi montate su console
ma chissene, quello che importa è l'implementazione del RT su console, così da estendere il numero di titoli con RT su cui potremo usare setting spinti con le prossime generazioni di vga su pc :D
Andy1111
10-05-2019, 09:35
ci sono 30fps a 1080p solo per i riflessi, quando aggiungeranno AO e GI in RT senza hardware dedicato scenderai a 1fps su una scheda che non ha hardware adeguato, se poi neanche il software lo è figuriamoci.:sofico:
Mi sembra tutto prematuro ancora per dare un verdetto, non usano ne Radeon Rays ne DirectML che devono essere implementati in windows 10
https://docs.microsoft.com/en-us/windows/desktop/direct3d12/dml
https://gpuopen.com/gdc-2019-presentation-links/
Gyammy85
10-05-2019, 09:37
boh, é possibile che con navi vengano introdotte delle unitá di calcolo dedicate?
Dicono che le avrà, ma io sono propenso a credere a una specializzazione delle cu che non a vere e proprie unità dedicate, che al netto del marketing, non servono proprio a niente, una zavorra
AceGranger
10-05-2019, 09:40
raytracing su vega56 LINK (https://www.overclock3d.net/news/software/crytek_discusses_ray_tracing_within_cryengine_-_works_on_an_rx_vega_56/1)
"To say that this demo was impressive is an understatement, utilising an AMD RX Vega 56 graphics card to deliver ray-traced graphics within CryEngine, without the need for specialised ray tracing components, such as the Nvidia RTX series. "
:uh:
"With Nvidia's RTX series graphics cards, Crytek hopes that they will be able to utilise their raytraced reflections at their full resolution at 4K,"
ma sopratutto
"while also enabling them to show more dynamic objects within their reflections."
tradotto nel mondo reale:
In un gioco vero, con molti elementi dinamici, molti piu effetti, e scene ben piu ampie di quella stradina, il 4K con le RTX te lo scorderai comunque e, una VEGA 56 fara girare giusto il menu iniziale del gioco.
Non hanno inventato nulla, non hanno rivoluzionato una fava e, come volevasi dimostrare, si dovra attendere 1 anno per l'implementazione; sempre che arrivi nella primavera del 2020 o che addirittura arrivi veramente...., visto che l'affidabilita di Crytek dopo i primi Crisis è diventata pari a quella degli attuali bond Venezuelani :asd:
salvati il post e, fra 1 anno ( ammesso che fra un anno arrivino anche con un gioco vero e non solo con il major update del motore ), vedremo assieme i risultati su [B]giochi veri.[/B, e poi vedremo cosa fara girare una VEGA 56 ( o una qualsiasi nVidia non RTX );).
hanno fatto solo puro marketing perchè stanno con le pezze al cu.o, giusto per far vedere che sono vivi, visto che sono in ritardo di un anno sulla concorrenza, vedasi Unity, Unreal, Frosbyte etc. etc.
Gyammy85
10-05-2019, 09:41
sembra una barzelletta che non fa ridere, amd non è mai riuscita ad imporre le sue features, vedi le varie versioni .1 delle DX sin dai tempi delle 7.1 e tanto altro di "dormiente" tutt'ora in vega.
al massimo può sdoganarne (relativo ad una feature) l'implementazione custom (cuda core, moduli aggiuntivi, unità dedicate, il SUO stesso Mantle) verso una open.
Il raytracing diventerà open non grazie ad amd, ma grazie al fatto che verrà (sembra) usato sulle console (che poi sono amd è un altro discorso) che secondo previsioni faranno almeno 150milioni di installato.
Non parlo mica di feature proprietarie, mi riferivo a ray tracing e simili
La cosa buffa è che sono cose che poi andranno a beneficio anche degli utenti nvidia, che come al solito ridacchieranno, ma il mercato vga ormai è questo
Zodd_Il_nosferatu
10-05-2019, 09:42
N' attimo
C' è una bella differenza tra guardare una TV da 3-4 metri e guardare un monitor da 50 cm
Su un 27" full HD i pixel si vedono belli grossi, non dico che sia come giocare a minecraft ... ma quasi :fagiano:
Certo se guardi il monitor da un metro e mezzo FHD o 4K è uguale, ma di solito ci si sta molto più vicino
Non so che occhi hai, però io ho una bella vista e spesso noto anche i minimi difetti, ma arriv a dire di vedere pixel belli grossi con schermo FHD di 27" è una cazzata bella e buona.
Gyammy85
10-05-2019, 09:46
"With Nvidia's RTX series graphics cards, Crytek hopes that they will be able to utilise their raytraced reflections at their full resolution at 4K,"
ma sopratutto
"while also enabling them to show more dynamic objects within their reflections."
tradotto nel mondo reale:
In un gioco vero, con molti elementi dinamici, molti piu effetti, e scene ben piu ampie di quella stradina, il 4K con le RTX te lo scorderai comunque e, una VEGA 56 fara girare giusto il menu iniziale del gioco.
Non hanno inventato nulla, non hanno rivoluzionato una fava e, come volevasi dimostrare, si dovra attendere 1 anno per l'implementazione; sempre che arrivi nella primavera del 2020 o che addirittura arrivi veramente...., visto che l'affidabilita di Crytek dopo i primi Crisis è diventata pari a quella degli attuali bond Venezuelani :asd:
salvati il post e, fra 1 anno ( ammesso che fra un anno arrivino anche con un gioco vero e non solo con il major update del motore ), vedremo assieme i risultati su [B]giochi veri.[/B, e poi vedremo cosa fara girare una VEGA 56 ;).
Eh ma solo nvidia ha i giochi veri lo sappiamo, ma poi io ero rimasto a "eh ma se non hai le unità dedicate fai un frame al mese a 720p" :asd:
Si certo crytek ora fa schifo :sofico:
Forza andiamo tutti a giocare al dlc di metro 2033 :asd:
Gyammy85
10-05-2019, 09:48
e quali sarebbero le feature proprietarie che ha presentato amd nel corso di questi anni?
AMD ha sempre presentato OTTIME feature sulla carta e solitamente secondo standard, che poi si è continuato a sviluppare sulle versioni precedenti delle DX o che queste features siano state ignorato (o magari non sfruttate da amd stessa per via di falle architetturali) è un altro discorso.
Ripeto, non parlo di roba proprietaria
Intanto grazie amd e all'approccio computing turing non va meno di pascal, al prossimo giro sarebbero stati costretti a fare la gpu con 300 rops da 2000 mm2 "uh guarda come vola gittiaaaa" :asd:
fraussantin
10-05-2019, 09:50
Edit
Andy1111
10-05-2019, 09:51
Visto che le nuove console saranno tutte amd , facilmente vedremo un incremento di giochi che useranno vulkan , non sono solo io a pensarlo da quello che leggo in giro, l'ultimo gioco World War Z lo dimostra.
Che poi anche Crytek dice del suo video :
Al momento non beneficiamo di alcuna prestazione aggiuntiva che le API moderne come Vulkan o DX12 o l’hardware dedicato dell’ultima generazione di schede video potrebbero fornirci.
AceGranger
10-05-2019, 09:57
Eh ma solo nvidia ha i giochi veri lo sappiamo, ma poi io ero rimasto a "eh ma se non hai le unità dedicate fai un frame al mese a 720p" :asd:
e infatti si vede a quanti fps gira quella scatoletta volante in vicolo corto del monopoli :asd:
Si certo crytek ora fa schifo :sofico:
sull'affidabilita direi proprio di si.
sto ancora aspettando di vedere il fanta Cryengine per l'archviz annunciato in pompa magna 5-6 anni fa.
Gyammy85
10-05-2019, 09:59
e infatti si vede quanti fps fa quella scatoletta volante in vicolo corto del monopoli :asd:
sull'affidabilita direi proprio di si.
sto ancora aspettando di vedere il fanta Cryengine per l'archviz annunciato in pompa magna 5 anni fa :asd:
Io sto ancora aspettando l'ue4 nativo dx12 vere e certificate annunciato nel 2012, 2013, 2014, 2015, 2016, 2017, 2018, 2019 ecc...
Gyammy85
10-05-2019, 10:00
Visto che le nuove console saranno tutte amd , facilmente vedremo un incremento di giochi che useranno vulkan , non sono solo io a pensarlo da quello che leggo in giro, l'ultimo gioco World War Z lo dimostra.
Che poi anche Crytek dice del suo video :
Al momento non beneficiamo di alcuna prestazione aggiuntiva che le API moderne come Vulkan o DX12 o l’hardware dedicato dell’ultima generazione di schede video potrebbero fornirci.
Ah ecco e gira pure in dx11, coi calcoli in fila per uno col resto di zero :asd:
Metti fino a 2x performance usando propriamente dx12 o vulkan su vega 56
AceGranger
10-05-2019, 10:06
Io sto ancora aspettando l'ue4 nativo dx12 vere e certificate annunciato nel 2012, 2013, 2014, 2015, 2016, 2017, 2018, 2019 ecc...
solo tu lo stai aspettando, perchè io gia l'ho installato :rotfl:, anzi per la precisione, gia istallato anche un minor update lol.
ninja750
10-05-2019, 11:30
Non so che occhi hai, però io ho una bella vista e spesso noto anche i minimi difetti, ma arriv a dire di vedere pixel belli grossi con schermo FHD di 27" è una cazzata bella e buona.
oculista. (cit.)
In un gioco vero, con molti elementi dinamici, molti piu effetti, e scene ben piu ampie di quella stradina, il 4K con le RTX te lo scorderai comunque e, una VEGA 56 fara girare giusto il menu iniziale del gioco.
ma certo, vega56 non fa girare 4K nemmeno roba senza raytracing
Non hanno inventato nulla, non hanno rivoluzionato una fava e, come volevasi dimostrare, si dovra attendere 1 anno per l'implementazione; sempre che arrivi nella primavera del 2020 o che addirittura arrivi veramente...., visto che l'affidabilita di Crytek dopo i primi Crisis è diventata pari a quella degli attuali bond Venezuelani :asd:
non hanno inventato nulla, stanno solo sottolineando che anche con hardware non dedicato non è vero che le schede non-rtx per fare raytracing debbano scendere a 640x480@30fps come altri vogliono fare credere, con pochi compromessi (che saranno quelli delle console newgen) si potranno ottenere risultati soddisfacenti
fraussantin
10-05-2019, 11:48
Non so che occhi hai, però io ho una bella vista e spesso noto anche i minimi difetti, ma arriv a dire di vedere pixel belli grossi con schermo FHD di 27" è una cazzata bella e buona.I pixel su un full hd da 27 pollici sono 0.30 mm in pratica come una scritta fatta con una biro è impossibile non notarla.
Anche su un 1080p da 15.6 pollici sono 0.18 mm come una matita fine fine , si notano molto meno , ma sono visibili.
Quando giochi tu non li noti perchè applichi anti aliasing e vai a sfumare i pixel vicini offuscando tutto.
Se togli l'aa immagino che tu noterai le squadrettature sulle lineee traverse ecco quelli sono i pixel .
Quei quadratini che vedi a schermo sono i subpixel e sono molto più piccoli. E cmq quandoc ti se ne rompe uno lo vedi bello e buono.
Il vantaggio di avere uno schermo con risoluzione alta e un alto dpi è avere un minor impatto dagli AA e quindi una nitidezza reale migliore. Perchè quei pixel li vedi più piccoli e vedi più piccoli anche i pixel a fianco che sfumano i contorni .
Ma queste cose qui le sanno tutti se a qualcuno viene consigliato l'oculista non è perche non ci vede ma perchè fa finta di non sapere
https://uploads.tapatalk-cdn.com/20190510/6fb6fdee39ff942d42d15371ce6f9f78.jpg
AceGranger
10-05-2019, 12:14
oculista. (cit.)
ma certo, vega56 non fa girare 4K nemmeno roba senza raytracing
non hanno inventato nulla, stanno solo sottolineando che anche con hardware non dedicato non è vero che le schede non-rtx per fare raytracing debbano scendere a 640x480@30fps come altri vogliono fare credere, con pochi compromessi (che saranno quelli delle console newgen) si potranno ottenere risultati soddisfacenti
quel video ha sortito esattamente quello che volevano, farsi tanta pubblicita su una supercazzola, che tanto l'user comune non ha la minima idea di quello che sta guardando.
e ovviamente non riguarda solo AMD, ma anche le GTX vecchie.
E' una cinematic, con tutte le ottimizzazione del caso, con 1 solo oggetto in movimento, in un ambiente confinato a poligoni limitati, e in tutto cio è riuscita a generare solo 30 fps in FHD utilizzando l'RT in un solo pass.
seguendo il ragionamento dovremmo avere giochi in RT identici alla Cinematic di Star Wars e invece la realta è un po differente.
Non per altro nell'annuncio hanno ovviamente detto che il tutto era pensato per le GPU future mica queste...
Visto che sono stati cosi bravi da fare un RT agnostico, potevano anche tirarlo fuori 2 anni fa, anzi pure prima, e avresti potuto averlo in game gia da un anno, visto che non servivano ne RTX ne DX12, ma hey, guarda caso, arrivera fra un anno per le nuove GPU....
e vorrei far notare anche che i calcoli base dell'RT che vedi ora in game sono gli stessi che vengono usati da 6 anni in ambito rendering Pro e quindi no, non credo a nessun coniglio dal cappello.
Per la questione console non mi pare che abbiano ufficializzato che non ci sara hw dedicato;
Io non so se lo avranno o meno ma non la darei cosi per scontata la sua assenza.
Ma sopratutto vedremo in che misura verra impiegato.
poi oh, felice di sbagliarmi, se sara cosi provero il Cryengine; fra un annetto, vedremo come saranno i bench sul campo.
Andy1111
10-05-2019, 12:18
Ah ecco e gira pure in dx11, coi calcoli in fila per uno col resto di zero :asd:
Metti fino a 2x performance usando propriamente dx12 o vulkan su vega 56
dx12 e vulkan preventivati, quello che non si può preventivare ancora è l'impatto che avranno Radeon Rays e DirectML quindi ancora tutto da stabilire.
Andy1111
10-05-2019, 12:22
"With Nvidia's RTX series graphics cards, Crytek hopes that they will be able to utilise their raytraced reflections at their full resolution at 4K,"
ma sopratutto
"while also enabling them to show more dynamic objects within their reflections."
tradotto nel mondo reale:
In un gioco vero, con molti elementi dinamici, molti piu effetti, e scene ben piu ampie di quella stradina, il 4K con le RTX te lo scorderai comunque e, una VEGA 56 fara girare giusto il menu iniziale del gioco.
Non hanno inventato nulla, non hanno rivoluzionato una fava e, come volevasi dimostrare, si dovra attendere 1 anno per l'implementazione; sempre che arrivi nella primavera del 2020 o che addirittura arrivi veramente...., visto che l'affidabilita di Crytek dopo i primi Crisis è diventata pari a quella degli attuali bond Venezuelani :asd:
salvati il post e, fra 1 anno ( ammesso che fra un anno arrivino anche con un gioco vero e non solo con il major update del motore ), vedremo assieme i risultati su [B]giochi veri.[/B, e poi vedremo cosa fara girare una VEGA 56 ( o una qualsiasi nVidia non RTX );).
hanno fatto solo puro marketing perchè stanno con le pezze al cu.o, giusto per far vedere che sono vivi, visto che sono in ritardo di un anno sulla concorrenza, vedasi Unity, Unreal, Frosbyte etc. etc.
cmq fresca fresca https://www.tomshw.it/videogioco/cryengine-5-7-directx12-vulkan-ray-tracing-2020/
CryEngine 5.7 – nuove feature e miglioramenti che arriveranno nel corso della primavera 2020:
•Supporto per Oculus Quest
•Supporto migliorato per la VR
•Implementazione delle Area Lights
•Migliorato il Multiple View Rendering
•Supporto per Opaque Particles/Deferred Lighting
•Dynamic Istancing migliorata
•Implementazione delle DirectX12
•Implementazione di Vulkan
•Implementazione del Ray tracing
AceGranger
10-05-2019, 12:37
cmq fresca fresca https://www.tomshw.it/videogioco/cryengine-5-7-directx12-vulkan-ray-tracing-2020/
CryEngine 5.7 – nuove feature e miglioramenti che arriveranno nel corso della primavera 2020:
•Supporto per Oculus Quest
•Supporto migliorato per la VR
•Implementazione delle Area Lights
•Migliorato il Multiple View Rendering
•Supporto per Opaque Particles/Deferred Lighting
•Dynamic Istancing migliorata
•Implementazione delle DirectX12
•Implementazione di Vulkan
•Implementazione del Ray tracing
si letta prima, per quello che ho scritto 1 anno ;).
Sono curiosíssimo do vedere cryengine su vulkan, fatto come si deve :cool:
mikael84
10-05-2019, 23:20
Dicono che le avrà, ma io sono propenso a credere a una specializzazione delle cu che non a vere e proprie unità dedicate, che al netto del marketing, non servono proprio a niente, una zavorra
Spero tu stia scherzando, come fai a dire queste cose?:rolleyes:
Evitiamo per cortesia tale disinformazione in un thread tecnico.;)
https://www.tomshw.it/images/images/2019/04/metro-exodus-wqhd-percentuale-dxr-on-vs-off-30395.jpg
La Titan XP (12tf/1,2 g/rays totali)per calcolare l'RT utilizza a stock in suddivisione unità, circa 6/6,5 tf, l'altro viene dedicato alla computazionale, indirizzi etc.
La 2080 ha 46 RT core che producono 8,2 g/rays a 1800mhz, ovvero 82tf di picco.
Nvidia non usa tutta la forza bruta ma circa un 40% (che può variare come bf5).
A numeri siamo a 3,3 g/rays / 33tf (33tf sono 3 1080ti/ 3 vega56/64 in flops teorici).
Per equivalere in numeri alla 2080 liscia ti servirebbero almeno 4 1080ti (6x4 =24TF su 33 max della 2080).
Una 2060 in RT se la beve.;)
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/dxr-geforce-gpu-performance/metro-exodus-ultra-dxr-1920x1080-geforce-gpu-performance.png
Senza contare il DLSS;)
Spero tu stia scherzando, come fai a dire queste cose?:rolleyes:
Evitiamo per cortesia tale disinformazione in un thread tecnico.;)
...
Mi meraviglio di te che gli rispondi pure.
indubbiamente con unita' dedicate e' meglio
ma a guardare i test non mi sembra pero' che la 2080 va quattro volte meglio della 1080ti,che poi ne servirebbero cinque abbondanti
poi ci sarebbe da discutere su quanto nvidia ha calcato per enfatizzare le sue ultime creature,per dire forse se volevano con pascal potevano osare di piu',ma in ogni caso troppi tf si perdono per strada:eek:
segno che l'efficienza massima e' ancora lontana da trovare
mikael84
13-05-2019, 23:14
indubbiamente con unita' dedicate e' meglio
ma a guardare i test non mi sembra pero' che la 2080 va quattro volte meglio della 1080ti,che poi ne servirebbero cinque abbondanti
poi ci sarebbe da discutere su quanto nvidia ha calcato per enfatizzare le sue ultime creature,per dire forse se volevano con pascal potevano osare di piu',ma in ogni caso troppi tf si perdono per strada:eek:
segno che l'efficienza massima e' ancora lontana da trovare
Non devi fare 33x4 = 132 fps;)
Utilizzare il doppio dei TF (22-24 in base al clock), significa dedicare altri tot. tflops in computazionale e altri 6/7 TF in raggi ed altro.
Se utilizziamo 2 1080ti avremmo:
5tf in computazionale (poco sopra la 1060), e 12/14 TF in rays contro:
9 +int (80%) + 33tf picco rays della 2080.
Se ne utilizziamo 3 di 1080ti avremmo:
7,5/8tf in computazionale e 18/20tf grays, no DLSS.
La differenza si nota poco dove l'RT è quasi minimo (bf5), e nella difficoltà che ha nvidia ha utilizzare tutte le unità dedicate, ma solo una parte.
Tuttavia l'hardware dedicato è un gran vantaggio.;)
Gyammy85
14-05-2019, 14:24
https://www.anandtech.com/show/14325/amd-to-host-next-horizon-gaming-event-at-e3-2019
Free Gordon
14-05-2019, 23:02
Questo evento credo che sia più incentrato sugli annunci dei SoC per console, più che per le GPU PC... ;)
Questo evento credo che sia più incentrato sugli annunci dei SoC per console, più che per le GPU PC... ;)Nah, non avrebbe senso. Non ti vanno a parlare di roba che ancora neanche hanno presentato ufficialmente sia Sony che m$.
Si tratta delle gpu desktop quasi sicuramente
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Gyammy85
15-05-2019, 09:06
Questo evento credo che sia più incentrato sugli annunci dei SoC per console, più che per le GPU PC... ;)
Ma quando mai hanno parlato di soc console? L'utente medio della console non sa cosa sia un soc, di quelle cose parlano i diretti interessati, il fatto che navi sia alla base di ps5 e xbox next e sia anche la nuova discreta gaming è un altro discorso
Gyammy85
15-05-2019, 09:37
si ma attenzione che all'E3 ci si aspetta qualche cosa da Microsoft, lato console, magari un teaser o magari di più, quindi non sia mai che ci sarà qualche annuncio più o meno congiunto.
Ok ma poco importa, ognuno fa le sue presentazioni
Io dico zen 2 maggio-giugno e navi giugno-luglio (presentazione/vendita)
Free Gordon
15-05-2019, 11:20
Ma quando mai hanno parlato di soc console? L'utente medio della console non sa cosa sia un soc, di quelle cose parlano i diretti interessati, il fatto che navi sia alla base di ps5 e xbox next e sia anche la nuova discreta gaming è un altro discorso
"...unveil the next generation of AMD gaming products."
All'E3... evento essenzialmente destinato al mondo console, dove il mondo PC viene trattato marginalmente (seppur negli ultimi anni ci sia stato un incremento da questo pdv).
Seguo l'E3 dal '95 e ricordo bene tutta l'evoluzione.
Considerando che il Computex inizia il 28 Maggio mentre l'E3 l'11 Giugno, direi che se ci sono delle GPU da annunciare, saranno annunciate 10gg prima al Computex (come sempre hanno fatto) piuttosto che all'E3 (che è un evento principalmente console).
Le mie comunque sono solo ipotesi..
Gyammy85
15-05-2019, 11:36
"...unveil the next generation of AMD gaming products."
All'E3... evento essenzialmente destinato al mondo console, dove il mondo PC viene trattato marginalmente (seppur negli ultimi anni ci sia stato un incremento da questo pdv).
Seguo l'E3 dal '95 e ricordo bene tutta l'evoluzione.
Considerando che il Computex inizia il 28 Maggio mentre l'E3 l'11 Giugno, direi che se ci sono delle GPU da annunciare, saranno annunciate 10gg prima al Computex (come sempre hanno fatto) piuttosto che all'E3 (che è un evento principalmente console).
Le mie comunque sono solo ipotesi..
Non è una generica presenza di amd all'e3, è l'evento next horizon gaming che si terrà all'e3, c'è una bella differenza
Free Gordon
15-05-2019, 11:40
Non è una generica presenza di amd all'e3, è l'evento next horizon gaming che si terrà all'e3, c'è una bella differenza
L'ho scritto nella prima riga..
"...unveil the next generation of AMD gaming products."
Questa frase dice tutto e nulla...
L'ho scritto nella prima riga..
"...unveil the next generation of AMD gaming products."
Questa frase dice tutto e nulla...Mica ti scrivono a lettere cubitali "PRESENTAZIONE DI NAVI!11"
Per una volta sono d'accordo con gnammy.
Potrebbero sottolineare l'importanza dell'architettura, che sarà anche alla base delle prossime console (insieme a zen 2), ma più di questo sulle nuove Sony e M$ ancora sconosciute non diranno.
Microsoft al massimo mostrerà un teaser su Scarlett con presentazione ufficiale l'anno prossimo.
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
deadbeef
15-05-2019, 12:28
salve ragazzi.
Free Gordon
15-05-2019, 13:39
Mica ti scrivono a lettere cubitali "PRESENTAZIONE DI NAVI!11"
Per una volta sono d'accordo con gnammy.
Potrebbero sottolineare l'importanza dell'architettura, che sarà anche alla base delle prossime console (insieme a zen 2), ma più di questo sulle nuove Sony e M$ ancora sconosciute non diranno.
Microsoft al massimo mostrerà un teaser su Scarlett con presentazione ufficiale l'anno prossimo.
Sì ma su questo sono d'accordissimo anche io ;)
Quello che non credo è che parleranno di Navi PC in un evento E3...ma anche perché spero che l'abbiano già presentata al Computex
Poi oh...è solo un'opinione :)
Sì ma su questo sono d'accordissimo anche io ;)
Quello che non credo è che parleranno di Navi PC in un evento E3...ma anche perché spero che l'abbiano già presentata al Computex
Poi oh...è solo un'opinione :)E di che devono parlare allora?
Il lancio di Vega al siggraph ha fatto cagare, l'e3 mi sembra una vetrina migliore sinceramente
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Ton90maz
15-05-2019, 15:09
E di che devono parlare allora?
Il lancio di Vega al siggraph ha fatto cagare
Sono stati coerenti col prodotto (prima che calasse di prezzo e invidia facesse di peggio con turing) :asd:
Gyammy85
15-05-2019, 15:20
salve ragazzi.
Ciao bentornato :) :)
Gyammy85
15-05-2019, 15:23
Altro keynote dove si parlerà di zen 2 e navi
http://www.hotchips.org/program/
Gyammy85
15-05-2019, 21:51
https://i.postimg.cc/Pqx3WprL/AMD-Annual-Shareholder-Meeting-Navi-Ryzen-3000.jpg (https://postimages.org/)
Mailing listhttps://uploads.tapatalk-cdn.com/20190516/307328916f2c9269670cf68b8a0def7e.jpg
Ale55andr0
17-05-2019, 12:46
ma la "3090xt" = VII+10% sarebbe la navi 20 che arriverà l'anno prossimo?
ma la "3090xt" = VII+10% sarebbe la navi 20 che arriverà l'anno prossimo?Non sappiamo se siano veri i leak prestazionali di Navi mid, figuriamoci per la big
Free Gordon
17-05-2019, 13:13
ma la "3090xt" = VII+10% sarebbe la navi 20 che arriverà l'anno prossimo?
sarebbe una scheda completamente inutile....oltretutto nel 2020..
ninja750
17-05-2019, 13:43
sarebbe una scheda completamente inutile....oltretutto nel 2020..
io sto andando avanti a schede inutili da 3 anni comprate usate
sarebbe una scheda completamente inutile....oltretutto nel 2020..
Perché ? :confused:
Dipende tutto da quanto costerà
Se costa 2000 euro è inutile ( almeno per me, ma magari qualcuno la compra lo stesso )
Se costa 200 ne compro 3
Nessuna scheda è inutile se venduta al giusto prezzo.
alemax505
17-05-2019, 14:10
Perché ? :confused:
Dipende tutto da quanto costerà
Se costa 2000 euro è inutile ( almeno per me, ma magari qualcuno la compra lo stesso )
Se costa 200 ne compro 3
Nessuna scheda è inutile se venduta al giusto prezzo.
Quoto;)
Ale55andr0
17-05-2019, 14:46
Non sappiamo se siano veri i leak prestazionali di Navi mid, figuriamoci per la big
speriamo, perchè se la nuova top di gamma "big" r con nuova architettura dedicata solo al gaming e che arriverà nel 2020 batterà una VII di un modesto 10% :rolleyes:
Free Gordon
17-05-2019, 15:01
io sto andando avanti a schede inutili da 3 anni comprate usate
Tipo?
Polaris non è una GPU inutile.. ;)
E' l'unica cosa vagamente decente che ha fatto AMD dopo Hawaii..
Free Gordon
17-05-2019, 15:02
Se costa 200 ne compro 3
Nessuna scheda è inutile se venduta al giusto prezzo.
basta vedere il costo della VII oggi.. ;)
650€ per entrambe (2080 e RadeonVII)
https://i.ibb.co/G7Kjr2K/3-Aprile-GPU.jpg (https://ibb.co/G7Kjr2K)
Cosa ce ne facciamo di una GPU, di fascia alta (Navi20)*, nel 2020... con un +10 di performance sulla VII...... :doh:
*Tutto fa riferimento al posto di Ale55andr0.
basta vedere il costo della VII oggi.. ;)
La VII è una mi50 professionale rimarchiata.
Costa una fucilata comprarla ( ma pure farla ) e non l' avrebbero mai messa in commercio se nVidia non avesse pompato abbestia i prezzi delle RTX rendendola competitiva nel rapporto prezzo/prestazioni.
In teoria Navi dovrebbe essere molto più economica, in teoria :stordita:
ninja750
17-05-2019, 15:49
Tipo?
Polaris non è una GPU inutile.. ;)
E' l'unica cosa vagamente decente che ha fatto AMD dopo Hawaii..
si è sempre detto vga inutile perchè all'uscita aveva prestazioni da R9 390 già in listino da molti mesi..
Kostanz77
17-05-2019, 15:51
basta vedere il costo della VII oggi.. ;)
650€ per entrambe (2080 e RadeonVII)
https://i.ibb.co/G7Kjr2K/3-Aprile-GPU.jpg (https://ibb.co/G7Kjr2K)
Cosa ce ne facciamo di una GPU, di fascia alta (Navi20)*, nel 2020... con un +10 di performance sulla VII...... :doh:
*Tutto fa riferimento al posto di Ale55andr0.
forse a prendere la 2080 liscia.....
Inviato dal mio iPhone XS MAX utilizzando Tapatalk Pro
Cosa ce ne facciamo di una GPU, di fascia alta (Navi20)*, nel 2020... con un +10 di performance sulla VII...... :doh:
edit
basta vedere il costo della VII oggi.. ;)
650€ per entrambe (2080 e RadeonVII)
https://i.ibb.co/G7Kjr2K/3-Aprile-GPU.jpg (https://ibb.co/G7Kjr2K)
Cosa ce ne facciamo di una GPU, di fascia alta (Navi20)*, nel 2020... con un +10 di performance sulla VII...... :doh:
*Tutto fa riferimento al posto di Ale55andr0.La VII costa così perché la metà del prezzo sono le HBM 😅
Gyammy85
17-05-2019, 18:27
Intanto basta un mezzo utilizzo di shader complessi e un mezzo utilizzo di vulkan per dare questi risultati
https://www.youtube.com/watch?v=UAN841y8Mo0
Comunque siete tremendi, state già facendo delle congetture sulle prestazioni di una presunta scheda che uscirà nel 2020, alè.
Questo dovrebbe essere un forum tecnico, sicuramente ognuno ha suoi pareri e possono esserci delle divergenze, non ha proprio senso che voi veniate qua a sparare a zero.
Sarebbe il caso che vi confrontaste senza fare battute da bambino e puntualizzare qualsiasi cosa.
Chiuso OT e gradirei che il moderatore blocchi sta valanga di niente.
Free Gordon
17-05-2019, 22:55
si è sempre detto vga inutile perchè all'uscita aveva prestazioni da R9 390 già in listino da molti mesi..
Perlomeno è riuscita...con vari rimaneggiamenti (mantenendo pur sempre la stessa uarch di fondo) a battere con una mid, la vecchia top di gamma..
Vediamo se con Navi ce la fa (a superare Vega64), sarebbe il minimo sindacale fare un salto del genere, considerando gli anni e il nuovo PP...
Ma purtroppo non cambiano uarch per l'ennesima volta, chissà se ce la faremo...... :fagiano:
Free Gordon
17-05-2019, 23:00
La VII costa così perché la metà del prezzo sono le HBM 😅
...e senza le HBM2 e quel bus, non avrebbe quelle prestazioni :) (dato che è sempre Vega clockata solo leggermente più in alto grazie ai 7nm).
Anche Turing senza i core aggiuntivi (praticamente inutili nel gaming allo stato attuale delle cose), sarebbe più economico. Al netto delle porcherie che fa' Nvidia, coi balzelli costanti di prezzo che ha iniziato nel 2013, quando ha iniziato a prendere il largo su AMD... :doh:
...e senza le HBM2 e quel bus, non avrebbe quelle prestazioni :) (dato che è sempre Vega clockata solo leggermente più in alto grazie ai 7nm).
Anche Turing senza i core aggiuntivi (praticamente inutili nel gaming allo stato attuale delle cose), sarebbe più economico. Al netto delle porcherie che fa' Nvidia, coi balzelli costanti di prezzo che ha iniziato nel 2013, quando ha iniziato a prendere il largo su AMD... :doh:La VII gaming non sarebbe dovuta esistere, è stata una mossa commerciale per evitare di lasciare quel buco prestazionale troppo a lungo.
Essendo un progetto di quel tipo, non sarebbe nemmeno stato appetibile sotto il punto di vista economico ma tant'è.
Nel caso fosse stato un progetto supportato da memorie differenti, magari sarebbe costato meno ma sono tutti se.
Quando si parla di AMD, si sa già che si sta parlando di un'azienda che è una frazione di Nvidia e si sa che avendo budget più limitato dell'azienda avversaria, per ora non può fare miracoli.
Qua trovi fanboy? Anche io penso che la asRoma sia una squadra fortissima ma poi facciamo certe figure barbine che la metà bastano, quindi ma che vi frega se c'è gente che allunga il pesce pescato.
Alla fine basta lasciar correre, d'altronde siamo tutti un po' tifosi di qualcosa 😉
Gyammy85
18-05-2019, 18:28
Era logico pensare che avrebbero lanciato una variante gaming di Vega 20, hanno fatto una sorta di titan prosumer, non è che siccome non ci sono stati leak la scheda è stata fatta in fretta e furia
È potente, si occa facile, in rendering/calcolo è una bomba, non so esattamente cosa si aspetti la gente
fraussantin
18-05-2019, 18:46
La VII gaming non sarebbe dovuta esistere, è stata una mossa commerciale per evitare di lasciare quel buco prestazionale troppo a lungo.
😉
Avevano delle schede da buttare e han trovato il verso di venderle ad un prezzo che almeno gli permette di parare i costi. Su questo non hanno sbagliato imho.
Era logico pensare che avrebbero lanciato una variante gaming di Vega 20, hanno fatto una sorta di titan prosumer, non è che siccome non ci sono stati leak la scheda è stata fatta in fretta e furia
È potente, si occa facile, in rendering/calcolo è una bomba, non so esattamente cosa si aspetti la gente
Talmente logico che alla dichiarazione di lisa a gennaio tutti( fanboy compresi) son rimasti a bocca aperta( o con l'amaro in bocca visto che si aspettavano navi) .
Gyammy85
18-05-2019, 19:01
Avevano delle schede da buttare e han trovato il verso di venderle ad un prezzo che almeno gli permette di parare i costi. Su questo non hanno sbagliato imho.
Talmente logico che alla dichiarazione di lisa a gennaio tutti( fanboy compresi) son rimasti a bocca aperta( o con l'amaro in bocca visto che si aspettavano navi) .
Si si, tutte da buttare, tutte in perdita, tutte sul groppone, tutte in discarica.
La gente può sognare e immaginare ciò che vuole, poi ci sono i fatti, avevano Vega 20 e l'hanno venduta anche in versione consumer, a costo zero hanno fatto una signora top in 331 mm2 dalle rese alte e zero fault, scusa se è poco, non hanno bisogno di 10 schede per coprire 3 fasce
Si si, tutte da buttare, tutte in perdita, tutte sul groppone, tutte in discarica.
La gente può sognare e immaginare ciò che vuole, poi ci sono i fatti, avevano Vega 20 e l'hanno venduta anche in versione consumer, a costo zero hanno fatto una signora top in 331 mm2 dalle rese alte e zero fault, scusa se è poco, non hanno bisogno di 10 schede per coprire 3 fasceA me la VII sembra una 64 super Uber powa, nient'altro, ovviamente parlando di pure prestazioni su game, poi se ti permette di fare altro, tanto di guadagnato ma a quasi la totalità delle persone presenti sul forum, il fatto che si possa fare altro oltre che giocare, non è assolutamente indispensabile.
AMD ha fatto bene a metterla nel mercato consumer? Certo che sì ma bisogna prenderla per quello che è, una buona scheda che sa fare un po' di tutto.
Ton90maz
18-05-2019, 22:21
Era logico pensare che avrebbero lanciato una variante gaming di Vega 20, hanno fatto una sorta di titan prosumer, non è che siccome non ci sono stati leak la scheda è stata fatta in fretta e furia
È potente, si occa facile, in rendering/calcolo è una bomba, non so esattamente cosa si aspetti la genteNon so... magari una scheda non faccia rimpiangere di non aver preso una 1080 Ti 2 anni prima? :doh:
Gyammy85
19-05-2019, 10:56
Non so... magari una scheda non faccia rimpiangere di non aver preso una 1080 Ti 2 anni prima? :doh:
Allora uno potrebbe anche rimpiangere di non avere preso una 64 liquid 2 anni fa
https://www.youtube.com/watch?v=UAN841y8Mo0&t=80s
La radeon vii ha un pacco di potenza bruta in più sulla 1080ti
Ton90maz
19-05-2019, 13:08
Allora uno potrebbe anche rimpiangere di non avere preso una 64 liquid 2 anni fa
https://www.youtube.com/watch?v=UAN841y8Mo0&t=80s
La radeon vii ha un pacco di potenza bruta in più sulla 1080tiTroppo cara rispetto alla migliore 1080 Ti. Ci poteva stare la baracca non liquida al posto della 1080 ma aveva prezzi indecenti.
Gyammy85
19-05-2019, 13:18
Troppo cara rispetto alla migliore 1080 Ti. Ci poteva stare la baracca non liquida al posto della 1080 ma aveva prezzi indecenti.
La liquid aveva msrp di 649 dollari, la 1080ti era 749 o 799 non ricordo, parentesi mining a parte, e non ricordo 1080ti a meno di 900 euro
Ton90maz
19-05-2019, 13:58
La liquid aveva msrp di 649 dollari, la 1080ti era 749 o 799 non ricordo, parentesi mining a parte, e non ricordo 1080ti a meno di 900 euroIo ricordo le 1080 ti a meno di 650 euro e PRIMA dell'uscita della baracca super :asd:
Legolas84
19-05-2019, 14:31
La liquid aveva msrp di 649 dollari, la 1080ti era 749 o 799 non ricordo, parentesi mining a parte, e non ricordo 1080ti a meno di 900 euro
Come ho fatto a pagarla 729 Euro allora? :eek:
EVGA tra l'altro...
Come ho fatto a pagarla 729 Euro allora? :eek:
EVGA tra l'altro...
Un sacco di gente l'ha presa a quei prezzi i primi mesi, e da quanto si è capito è stato un affare visto che ne Nvidia ne AMD hanno o prevedono di far uscire nulla con quelle prestazioni ad un prezzo migliore nel 2019 ;)
Gyammy85
19-05-2019, 17:03
Io ricordo le 1080 ti a meno di 650 euro e PRIMA dell'uscita della baracca super :asd:
L'msrp era 749, si vede che andava via come il pane e l'hanno venduta sotto costo
Roland74Fun
19-05-2019, 17:06
Ma lasciate perdere ste schedine da nulla.
Quando esce la RADON VIII vedrete che bomba.
https://i.postimg.cc/PJNVXsTC/Radon-VIII-GPU.jpg (https://postimg.cc/fSnfCP3s)
Ma lasciate perdere ste schedine da nulla.
Quando esce la RADON VIII vedrete che bomba.
https://i.postimg.cc/PJNVXsTC/Radon-VIII-GPU.jpg (https://postimg.cc/fSnfCP3s)Con la Radon sarà un terremoto 😁
Ton90maz
19-05-2019, 22:47
L'msrp era 749, si vede che andava via come il pane e l'hanno venduta sotto costo
Si trovava a quel prezzo dai vat player, ma anche aggiungendo quei 50 euro di differenze con i prezzi dei siti onesti il discorso non cambia.
Gigibian
19-05-2019, 23:10
La VII gaming non sarebbe dovuta esistere, è stata una mossa commerciale per evitare di lasciare quel buco prestazionale troppo a lungo.
Essendo un progetto di quel tipo, non sarebbe nemmeno stato appetibile sotto il punto di vista economico ma tant'è.
Nel caso fosse stato un progetto supportato da memorie differenti, magari sarebbe costato meno ma sono tutti se.
Quando si parla di AMD, si sa già che si sta parlando di un'azienda che è una frazione di Nvidia e si sa che avendo budget più limitato dell'azienda avversaria, per ora non può fare miracoli.
Qua trovi fanboy? Anche io penso che la asRoma sia una squadra fortissima ma poi facciamo certe figure barbine che la metà bastano, quindi ma che vi frega se c'è gente che allunga il pesce pescato.
Alla fine basta lasciar correre, d'altronde siamo tutti un po' tifosi di qualcosa 😉
Questo per il principio secondo cui AMD è il piccolo e simpatico Davide che combatte contro il grande e cattivo Golia NVIDIA ?
Ma andatevi a vedere fatturato e dipendenti...le due aziende sono tranquillamente paragonabili come dimensione !
Questo per il principio secondo cui AMD è il piccolo e simpatico Davide che combatte contro il grande e cattivo Golia NVIDIA ?
Ma andatevi a vedere fatturato e dipendenti...le due aziende sono tranquillamente paragonabili come dimensione !Eccoli Nvidia ha solo 3,4 miliardi in più, noccioline e comunque fa sia CPU e GPU, quindi non si concentra solo su uno.
Ciao neh. https://uploads.tapatalk-cdn.com/20190519/5208c07d61d878c536e73dec29bacec3.jpghttps://uploads.tapatalk-cdn.com/20190519/9b34e78aa7cff0b4f2dee670ca98958a.jpg
AceGranger
20-05-2019, 08:43
Eccoli Nvidia ha solo 3,4 miliardi in più, noccioline e comunque fa sia CPU e GPU, quindi non si concentra solo su uno.
Ciao neh.
quello è il fatturato di AMD del 2018 e di nVidia del 2017.
nel 2018 nVidia ha fatturato 11,7 Miliardi :fagiano:.
hanno comunque entrambi circa 9000 dipendenti; e poi non è sempre stato cosi, fino al 2014 AMD fatturava piu di nVidia ( dal 2011 ( Bulldozer ) amd AMD iniziava il tracollo, mentre nVidia saliva con gli utili, ); non è un caso che il declino sia iniziato con Bulldozer e si sia aggravato con il ciclo finale di Polaris e VEGA con conseguente perdita di share sia in campo CPU che in campo GPU; ora si sta rialzando alla grande grazie a ZEN che sta compensando la perdita netta del comparto GPU; vedremo con Navi.
Free Gordon
20-05-2019, 11:02
ora si sta rialzando alla grande grazie a ZEN che sta compensando la perdita netta del comparto GPU; vedremo con Navi.
Speriamo bene sia per Zen2 (che attendo ancor di più) che Navi..
Senza AMD questo mercato sarà una fogna, già adesso fa' abbastanza pena per prezzi e offerta... :mad:
Bulldozer purtroppo è stato un progetto davvero sbagliato da parte loro.
Quello che non capisco è perché abbiano impiegato così tanto a cambiare rotta dopo il 2011... :doh:
Quello che non capisco è perché abbiano impiegato così tanto a cambiare rotta dopo il 2011... :doh:
Quello è il normale tempo del ciclo di sviluppo dei processori, non è che in due settimane fai una cpu.
Intel ha venduto quella chiavica del PIV per 9 anni prima di riuscire a buttarlo nel secchio dell' umido, e Intel ha sempre pronto un piano B, AMD non poteva metterci tanto di meno.
Free Gordon
20-05-2019, 11:36
Quello è il normale tempo del ciclo di sviluppo dei processori, non è che in due settimane fai una cpu.
Intel ha venduto quella chiavica del PIV per 9 anni prima di riuscire a buttarlo nel secchio dell' umido, e Intel ha sempre pronto un piano B, AMD non poteva metterci tanto di meno.
effettivamente...
quello è il fatturato di AMD del 2018 e di nVidia del 2017.
nel 2018 nVidia ha fatturato 11,7 Miliardi :fagiano:.
hanno comunque entrambi circa 9000 dipendenti; e poi non è sempre stato cosi, fino al 2014 AMD fatturava piu di nVidia ( dal 2011 ( Bulldozer ) amd AMD iniziava il tracollo, mentre nVidia saliva con gli utili, ); non è un caso che il declino sia iniziato con Bulldozer e si sia aggravato con il ciclo finale di Polaris e VEGA con conseguente perdita di share sia in campo CPU che in campo GPU; ora si sta rialzando alla grande grazie a ZEN che sta compensando la perdita netta del comparto GPU; vedremo con Navi.Pure peggio di quello che ho postato, comunque AMD deve investire in due campi molto importanti e il costo per sviluppare hardware in entrambi le situazioni è decisamente elevato, magari verrà premiata un domani ma ora deve buttarsi a capofitto dove arrivano più soldi.
io leggo $9.71
https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-fourth-quarter-and-fiscal-2018
io leggo $9.71
https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-fourth-quarter-and-fiscal-2018Ok, grazie. Più ufficiale di così 🙂
AceGranger
20-05-2019, 13:09
io leggo $9.71
https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-fourth-quarter-and-fiscal-2018
si ma devi leggere anche la data di pubblicazione :fagiano:...
NVIDIA Announces Financial Results for Fourth Quarter and Fiscal 2018
Thursday, February 8, 2018
i fatturati di nVidia sono numerati in base agli anni fiscali NON a quelli solari... quello è il resoconto fiscale 2018 che si rifa all'anno solare 2017, esattamente come ora per loro il Q1 appena passato è quello del 2020.
Questo è quello corretto:
https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-fourth-quarter-and-fiscal-2019
Thursday, February 14, 2019
Record full-year revenue of $11.72 billion
Ok, grazie. Più ufficiale di così ��
vedi sopra
si ma devi leggere anche la data di pubblicazione :fagiano:...
NVIDIA Announces Financial Results for Fourth Quarter and Fiscal 2018
Thursday, February 8, 2018
i fatturati di nVidia sono numerati in base agli anni fiscali NON a quelli solari... quello è il resoconto fiscale 2018 che si rifa all'anno solare 2017, esattamente come ora per loro il Q1 appena passato è quello del 2020.
Questo è quello corretto:
https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-fourth-quarter-and-fiscal-2019
Thursday, February 14, 2019
Record full-year revenue of $11.72 billion
vedi sopra
lol nvidia e' sempre avanti....
Vi giuro che non volevo scatenare flame sui fatturati, non farò mai più un post del genere 😅
Free Gordon
21-05-2019, 02:26
Vi giuro che non volevo scatenare flame sui fatturati, non farò mai più un post del genere 😅
:asd:
Gyammy85
21-05-2019, 04:18
Notizie fresche fresche dai capoccia di sapphire
https://www.reddit.com/r/hardware/comments/br4wiv/amd_navi_rumor_interview_with_sapphire_technology/
>2070 :O
Ci sarà da ridere ci sarà, io preparo popcorn, gelati, torte e rancine :asd:
ninety-five
21-05-2019, 06:16
Notizie fresche fresche dai capoccia di sapphire
https://www.reddit.com/r/hardware/comments/br4wiv/amd_navi_rumor_interview_with_sapphire_technology/
>2070 :O
Ci sarà da ridere ci sarà, io preparo popcorn, gelati, torte e rancine :asd:Quindi 6 giorni alla presentazione.
Il 7 luglio inizia la vendita
2 modelli
Quali saranno? Considerando il prezzo...
OvErClOck82
21-05-2019, 06:29
399 e 499? Non mi sembra tutto questo grande sconvolgimento di prezzi
Inviato dal mio COL-L29 utilizzando Tapatalk
fraussantin
21-05-2019, 07:35
399 e 499? Non mi sembra tutto questo grande sconvolgimento di prezzi
Inviato dal mio COL-L29 utilizzando TapatalkChe tradotto in italiano sono 450 e 550 euro.
Onestamente spero sia un fake.. anche perchè quel dissipatore a scolapasta non si può vedere su schede da 500 euro
majinbu7
21-05-2019, 07:44
Notizie fresche fresche dai capoccia di sapphire
https://www.reddit.com/r/hardware/comments/br4wiv/amd_navi_rumor_interview_with_sapphire_technology/
>2070 :O
Ci sarà da ridere ci sarà, io preparo popcorn, gelati, torte e rancine :asd:
Se sono vere le dichiarazioni in quell'intervista, c'è poco da stare allegri, visti i prezzi in $ , dato che da noi aggiungendo l'iva costeranno circa 100€ in più .
Sempre più cartello tra Lisa e il suo mentore :doh:
Notizie fresche fresche dai capoccia di sapphire
https://www.reddit.com/r/hardware/comments/br4wiv/amd_navi_rumor_interview_with_sapphire_technology/
>2070 :O
Ci sarà da ridere ci sarà, io preparo popcorn, gelati, torte e rancine :asd:
Praticamente smentisce tutti i rumor che circolano :fagiano:
Soprattutto sui prezzi
Praticamente AMD sarebbe allineata a nVidia come costo, no buono :stordita:
fraussantin
21-05-2019, 07:53
Se sono vere le dichiarazioni in quell'intervista, c'è poco da stare allegri, visti i prezzi in $ , dato che da noi aggiungendo l'iva costeranno circa 100 in più .
Sempre più cartello tra Lisa e il suo mentore :doh:
Spero non faccia lo stesso con i processori ..azz
Praticamente smentisce tutti i rumor che circolano :fagiano:
Soprattutto sui prezzi
Praticamente AMD sarebbe allineata a nVidia come costo, no buono :stordita:
Senza rtx .
ninety-five
21-05-2019, 07:54
Mi sono perso un pezzo forse...stiamo parlando di prezzo senza conoscere le prestazioni?
fraussantin
21-05-2019, 07:55
Mi sono perso un pezzo forse...stiamo parlando di prezzo senza conoscere le prestazioni?2070 binned da quel che si legge
Mi sono perso un pezzo forse...stiamo parlando di prezzo senza conoscere le prestazioni?
Dovrebbe andare più forte di una 2070 ( ma meno di una VII ) per 500$
Gyammy85
21-05-2019, 08:04
Che tradotto in italiano sono 450 e 550 euro.
Onestamente spero sia un fake.. anche perchè quel dissipatore a scolapasta non si può vedere su schede da 500 euro
Dove lo hai visto il dissipatore scolapasta? fra baracche liquide iper e scolapasta ci vogliono i sottotitoli ormai :asd:
Praticamente smentisce tutti i rumor che circolano :fagiano:
Soprattutto sui prezzi
Praticamente AMD sarebbe allineata a nVidia come costo, no buono :stordita:
Non direi dato che si è sempre detto intorno alla 2070, i prezzi boh, sotto nda diranno cose diverse, se no praticamente è come se ti svelassero tutto prima
Senza rtx .
Quasi sicuramente questo problema verrà aggirato con navi
OvErClOck82
21-05-2019, 09:20
Se sono vere le dichiarazioni in quell'intervista, c'è poco da stare allegri, visti i prezzi in $ , dato che da noi aggiungendo l'iva costeranno circa 100 in più .
Sempre più cartello tra Lisa e il suo mentore :doh:Io sinceramente spererei in 100€ in meno per entrambe (che poi comunque sarebbero minori contando Iva e balzelli vari), se il range di prestazioni dovesse essere quello
Inviato dal mio COL-L29 utilizzando Tapatalk
Gyammy85
21-05-2019, 09:52
Se la 7 l'hanno messa a 100 euro meno della 2080 con tutto che la 16 giga di hbm2, non vedo perché queste dovrebbero costare più delle nvidia, contando che saranno chip piccoli ad alte rese e 8 giga di gddr6
fraussantin
21-05-2019, 09:58
Se la 7 l'hanno messa a 100 euro meno della 2080 con tutto che la 16 giga di hbm2, non vedo perché queste dovrebbero costare più delle nvidia, contando che saranno chip piccoli ad alte rese e 8 giga di gddr6L'hanno messa allo stesso prezzo della 2080 reference. Ma poi street price costa quanto la fe o cmq le vs migliori
Gyammy85
21-05-2019, 10:00
L'hanno messa allo stesso prezzo della 2080 reference. Ma poi street price costa quanto la fe o cmq le vs migliori
Tendenzialmente a stock va quanto la 2080 fe e va di più nel non gaming, e la fe va più forte di alcune custom
Non ha mai superato i 750 euro su shop seri tipo eprezzo solo all'inizio tipo al day 2 era a 850, segno di ottime rese
mircocatta
21-05-2019, 11:03
imho davvero pessime news, significa che dovremo continuare con polaris altri 3-4 anni? o usciranno più avanti versioni ancor più "cut"? perchè si è sempre parlato di 200-300$ come fascia...qui siamo quasi al doppio
ma poi, come farà una console a montare una tale gpu e rimanere in un costo totale inferiore ai 700$ ? na... qualcosa mi puzza
che non siano i prezzi delle versioni custom di shappire?
ancor più triste che il raytracing non sarà a livello hardware, ma probabilmente proveranno ad appoggiarsi sul software
fraussantin
21-05-2019, 11:13
imho davvero pessime news, significa che dovremo continuare con polaris altri 3-4 anni? o usciranno più avanti versioni ancor più "cut"? perchè si è sempre parlato di 200-300$ come fascia...qui siamo quasi al doppio
ma poi, come farà una console a montare una tale gpu e rimanere in un costo totale inferiore ai 700$ ? na... qualcosa mi puzza
che non siano i prezzi delle versioni custom di shappire?
ancor più triste che il raytracing non sarà a livello hardware, ma probabilmente proveranno ad appoggiarsi sul softwareLe console escono tra 1 anno nel frattempo calano i costi e cmq le console avranno un qpu fatta appositamente e rivenduta senza guadagno da parte di sony o microsoft.
arxangel
21-05-2019, 11:21
Con questi prezzi tanto vale non farla uscire, solo un fanboy AMD non troppo sveglio la comprerebbe, speriamo sia un rumor falso anche se la fonte sembra attendibile purtroppo.
Faranno uscire qualche versione castrata per coprire le fasce dai 250 ai 350 a meno che non pensino di lasciare le Vega diminuendo il prezzo..
arxangel
21-05-2019, 11:31
Faranno uscire qualche versione castrata per coprire le fasce dai 250 ai 350 a meno che non pensino di lasciare le Vega diminuendo il prezzo..
Già quella da 400 euro dovrebbe giocarsela con la 2060 che stà sulle 350 euro, quindi anche se uscisse una versione più economica non sarebbe comunque competitiva dal lato prezzo prestazioni considerando che in alcuni shop la 2060 l'ho vista a 330 euro.
fraussantin
21-05-2019, 11:44
Già quella da 400 euro dovrebbe giocarsela con la 2060 che stà sulle 350 euro, quindi anche se uscisse una versione più economica non sarebbe comunque competitiva dal lato prezzo prestazioni considerando che in alcuni shop la 2060 l'ho vista a 330 euro.Se i prezzi sono quelli penso che puntino a un 2060+ e ad un 2070+ immagino grazie a frequenze molto alte .
Ma non è quello che aspettavano gli utenti in attesa di navi.
La gente si aspettava un 2060- e un 2070- a prezzi mimimo di 100 dollari più bassi
Boh comincio ad avere dei grossi dubbi sui processori , mi sa che adotteranno la solita politica ..
mircocatta
21-05-2019, 11:46
provo a ribaltare un po tutto
le frasi "interessanti" sono queste:
Confirmed to release watercooled Poison Toxic for Navi. Toxic for Vega was canceled due to restricted margin.
Navi currently has two versions, one is priced at $499 and the other is $399.
(Assuming talking about the top version) it is stronger than 2070
navi in due versioni... ma anche vega64 era in due versioni, AIR e AIO
Se in realtà navi fosse una singola GPU e il riferimento fosse "versione base" (dissi stock o biventola shappire) a 399$ e "versione watercooled" (AIO) a 499$ ? tutto tornerebbe a livello di prezzi.
tesi che combacerebbe con l'ultima frase che quoto: it is stronger than 2070, senza riferimento a quale versione (il riferimento lo aggiunge l'intervistatore)
d'altronde lisa su ci ha già trollato quest'inverno con radeon VII di cui nessuno sapeva nulla
fine fantagpu :asd:
Free Gordon
21-05-2019, 12:17
L'hanno messa allo stesso prezzo della 2080 reference. Ma poi street price costa quanto la fe o cmq le vs migliori
No ma infatti...
La Radeon VII costa di più della 2080, avendo però prestazioni medie di un 10% più basse.
Ergo se questa Navi va' come la 2070 o poco più (che oggi costano 500€ spedite sul trovaprezzi...) e andrà a costare 550€, non ci siamo di nuovo... :doh:
Navi currently has two versions, one is priced at $499 and the other is $399.
(Assuming talking about the top version) it is stronger than 2070
Un bel cartello con Nvidia è proprio quel che ci voleva... :asd: :help:
No ma infatti...
La Radeon VII costa di più della 2080, avendo però prestazioni medie di un 10% più basse.
Ergo se questa Navi va' come la 2070 o poco più (che oggi costano 500 spedite sul trovaprezzi...) e andrà a costare 550, non ci siamo di nuovo... :doh:
Navi currently has two versions, one is priced at $499 and the other is $399.
(Assuming talking about the top version) it is stronger than 2070
Un bel cartello con Nvidia è proprio quel che ci voleva... :asd: :help:Su Amazon (prime) costa meno delle RTX custom più scarse. Almeno guardate prima di scrivere. Venduto da x e spedito da Amazon (quindi medesima garanzia): 719€.
Venduto e spedito da Amazon : 688€.
Della r7 non me ne frega un caxxo, sia chiaro.
Riguardo NAVI, aspettiamo 6/20 giorni prima di eccitarci/piangerci addosso, no?
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Se il prezzo di lancio della maggiore fosse di 499,0$, facendo il cambio attuale più Iva al 22%, il prezzo finale sarebbe 545€ e spicci per una vega64 +15%... Estiquatsi
Ale55andr0
21-05-2019, 13:35
fosse vero, con quelle prestazioni a quel prezzo smuoveranno il mercato di..niente. Bello sto cartello e questo immobilismo tecnologico dei produttori. Tolta la 2080ti nel mercato esistono solo schede che vanno come le vecchie e costano come le vecchie. Annassero a farsi impalare annassero, per chip piccoli a 7nm sti prezzi sarebbero degni della fu inculata nvidia per la fu 680
majinbu7
21-05-2019, 13:50
No ma infatti...
La Radeon VII costa di più della 2080, avendo però prestazioni medie di un 10% più basse.
Ergo se questa Navi va' come la 2070 o poco più (che oggi costano 500€ spedite sul trovaprezzi...) e andrà a costare 550€, non ci siamo di nuovo... :doh:
Navi currently has two versions, one is priced at $499 and the other is $399.
(Assuming talking about the top version) it is stronger than 2070
Un bel cartello con Nvidia è proprio quel che ci voleva... :asd: :help:
La radeon VII ha uno street price paragonabile alla 2080 , lo si vede su trovaprezzi... :)
mircocatta
21-05-2019, 13:57
Su Amazon (prime) costa meno delle RTX custom più scarse. Almeno guardate prima di scrivere. Venduto da x e spedito da Amazon (quindi medesima garanzia): 719€.
Venduto e spedito da Amazon : 688€.
Ni, che io sappia se è venduto da X e spedito da amazon in caso di problemi te la devi vedere con X e non con amazon, a volte capita che X potrebbe non essere affidabile al 100%
mircocatta
21-05-2019, 14:00
ma intanto nessuno si è accorto del prezzo della rx 590 su amazon?
è crollato a 210€.. prezzo affare
Ale55andr0
21-05-2019, 14:10
ma intanto nessuno si è accorto del prezzo della rx 590 su amazon?
è crollato a 210€.. prezzo affare
effettivamente a quel prezzo è un ottimo affare
Gyammy85
21-05-2019, 14:11
ma intanto nessuno si è accorto del prezzo della rx 590 su amazon?
è crollato a 210€.. prezzo affare
Navi cleanout :cool: :cool:
Gyammy85
21-05-2019, 14:21
Bomba fine di mondo
https://i.postimg.cc/BnmgPxWK/Annotazione-2019-05-21-152052.png (https://postimages.org/)
Free Gordon
21-05-2019, 14:23
Su Amazon (prime) costa meno delle RTX custom più scarse.
Le Zotac 2080 costano 670 spedite sul trovaprezzi vendute da negozi rispettabilissimi.. :)
E sempre a -10% dalla 2080 stiamo in prestazioni (con la VII). :)
Il discorso di Gyammy non regge...ma nemmeno il tuo.
Free Gordon
21-05-2019, 14:25
La radeon VII ha uno street price paragonabile alla 2080 , lo si vede su trovaprezzi... :)
Sì, il "costa di più" era solamente un fatto di spicci (certo che lo guardo il trovaprezzi :) ).
Era per chiarire che il discorso di Gyammy (la vendono a 100€ meno della 2080) non ha alcun senso....:fagiano:
Free Gordon
21-05-2019, 14:32
Bomba fine di mondo
Sinceramente non capisco assolutamente nulla dell'organizzazione dello shader core da questo post..
Sarebbero 80sp per ogni CU? Invece che 64?
Mah...
Il problema è comunque sempre quanti Geometry/Raster engine hanno. Se sono 4 (come le vecchie GCN) o di più..
ma intanto nessuno si è accorto del prezzo della rx 590 su amazon?
è crollato a 210€.. prezzo affare
effettivamente a quel prezzo è un ottimo affare
219€*
In ogni caso c'è anche la 1660 a 231€ (che in media forse va un pelo meglio?) e consuma sicuramente meno. (-2GB vram)
Buoni prezzi ma tutto sommato neanche da strapparsi i capelli, sempre ricordando le 480 8GB vendute a 240€ 2,4 anni fa? :asd:
Free Gordon
21-05-2019, 14:34
219€*
In ogni caso c'è anche la 1660 a 231€ (che in media forse va un pelo meglio?) e consuma sicuramente meno. (-2GB vram)
Buoni prezzi ma tutto sommato neanche da strapparsi i capelli, sempre ricordando le 480 8GB vendute a 240€ 2,4 anni fa? :asd:
la 1660 liscia va' un 2% meglio della 590 Nitro. Diciamo che siamo pari come performance.
Ma consuma un botto in meno...
Tra una a 230 e l'altra a 220... è facile capire quale è più appetibile per la massa...
Ton90maz
21-05-2019, 15:03
Sinceramente non capisco assolutamente nulla dell'organizzazione dello shader core da questo post..
Sarebbero 80sp per ogni CU? Invece che 64?
Mah...
Il problema è comunque sempre quanti Geometry/Raster engine hanno. Se sono 4 (come le vecchie GCN) o di più..
Se ho capito bene intende che NAVI avrà 8 shaders engine, ciascuno con 5 CU, quindi 40 totali, e aprirebbe le porte a GPU con più CU di una fury x del mesozoico (ma non si diceva che navi si sarebbe fermata a 64? Era ufficiale o una minchiata?)
Legolas84
21-05-2019, 15:07
La radeon VII ha uno street price paragonabile alla 2080 , lo si vede su trovaprezzi... :)
Dovrebbe costare meno, visto che va un filo meno e non ha RTX....
Ton90maz
21-05-2019, 15:09
Dovrebbe costare molto meno, visto le Turing sono dei tombini
Così va meglio :oink:
fraussantin
21-05-2019, 15:09
Cmq 399 dollari la custom sapphire .. può voler vuol dire 350 dollari la reference blower. Che poi è quello che si pronosticava da un pezzo.
Le Zotac 2080 costano 670 spedite sul trovaprezzi vendute da negozi rispettabilissimi.. :)
E sempre a -10% dalla 2080 stiamo in prestazioni (con la VII). :)
Il discorso di Gyammy non regge...ma nemmeno il tuo.
https://www.hwupgrade.it/articoli/skvideo/5389/variazioni_relative.png
Thricome82
21-05-2019, 15:32
E poi come per magia faranno uscire Navi 10 XTX a concorrere con la RTX2080 a 599$...
Rimango sempre dell'idea, come avete scritto poco prima, che costeranno troppo e non andranno abbastanza forte...
Gyammy85
21-05-2019, 15:52
se fosse confermata una "media" da 500 dollari + iva con un nodo di vantaggio e raffreddata a liquido i popcorn li preparo sul serio... "media".....
Tanto per la cronaca, la presunta versione a liquido è una custom sapphire, i prezzi sono tutti da verificare, mi pare che nessuno si lamenti del dissipatore della 2080ti da 40 cm triventola con l'alettone messo su tutte le custom dalla 1650 a salire
majinbu7
21-05-2019, 15:57
Dovrebbe costare meno, visto che va un filo meno e non ha RTX....
Sono d'accordo con te e per venderne un pò di più avrebbe dovuto farla pagare una centana in meno, ma probabilmente la Radeon VII ad AMD costa troppo e al momento gli va bene così.
Poi io sono dell'idea che da 2/3 anni a questa parte le VGA sia Rosse che Verdi costino troppo...ma questa è un'altra storia :D
Gyammy85
21-05-2019, 16:26
io non capisco se dici sul serio o se ci prendi in giro facendo finta.
premesso che la 2080ti costa uno sproposito, questa è una top gamma reale dove un dissipatore "monstre" può essere giustificato.
una MID a liquido da 500 dollari e con un nodo di vantaggio per andare come una 2070 per quanto mi riguarda è ridicola
Ripeto, è tutto da verificare
Comunque ci sono grossi cambiamenti lato architettura
Possiamo dire che l' indiscrezione ha avuto l' effetto di una secchiata di acqua gelata sulle aspirazioni di molti ?
Il rapporto prezzo/prestazione sarà migliore ma solo di poco
Spero di non essere stato troppo ottimista :muro:
fraussantin
21-05-2019, 17:02
Ripeto, è tutto da verificare
Comunque ci sono grossi cambiamenti lato architetturaAnche questo è tutto da verificare perché esce tutto dalla stessa bocca.
Oltretutto se veramente è liquid ( cosa che imho non ha il minimo senso visti i consumi teorici) dovrebbe le prestazioni ai clock alti.
Gyammy85
21-05-2019, 17:07
anche le patate sono diverse delle cipolle.
non ti trollo, rispondo cose a caso non inerenti come fai tu, io ti dico che è ridicolo che una mid ha il liquido e mi scrivi "eh ma ci sono cambiamenti architetturali" cioè embè?
Ma è una versione di sapphire, non la reference, ha detto che volevano farla pure per vega ma per motivi vari non l'hanno fatta
Anche questo è tutto da verificare perché esce tutto dalla stessa bocca.
Oltretutto se veramente è liquid ( cosa che imho non ha il minimo senso visti i consumi teorici) dovrebbe le prestazioni ai clock alti.
Ridisegnano le cu e il guadagno verrebbe solo dal clock?
Ma è una versione di sapphire, non la reference, ha detto che volevano farla pure per vega ma per motivi vari non l'hanno fatta
Infatti se sapphire vuol fare una liquid mid che problema c'e'? Non e' che bisogna comprarla per forza, e che c'entra amd soprattutto.
Poi non c'erano le 1080 liquid? Se non sbaglio avevano il kit corsair ed erano evga mi pare
mircocatta
21-05-2019, 17:35
Infatti se sapphire vuol fare una liquid mid che problema c'e'? Non e' che bisogna comprarla per forza, e che c'entra amd soprattutto.
Poi non c'erano le 1080 liquid? Se non sbaglio avevano il kit corsair ed erano evga mi pare
il senso della critica penso sia semplice: se shappire fa una navi a liquido, vuol dire che un "senso" liquidarla ce l'ha, e solitamente perchè si liquida? temperature alte dovute ad alti consumi?...per una architettura mid range a 7nm non è proprio il massimo delle prospettive
poi magari si scopre che è un chip talmente piccolo che i dissi stock faticano a tenerlo a bada nonostante i bassi consumi (non ricordo chi soffriva di questo problema ma non mi è nuova come situazione)
Annamaria
21-05-2019, 17:37
La AMD 3080 o come cavolo si chiamerà dovrebbe costare oltre 550,00€ se non 600,00€ da noi, avere prestazioni comparabili ad una RTX 2070; la mia Vega 64 Liquid praticamente nuova presa con garanzia a 460,00€ è comparabile ad una RTX 2070:
https://www.youtube.com/watch?v=JW2HkEcEJv0
Per me rimarrà sullo scaffale come tutte le vga sovra prezzate di questo periodo storico/informatico!
La mia critica è per quelli che raccontavano di regali da parte di AMD e vga con prezzi intorno ai 250,00€ come se NVidia facesse regali!
https://www.youtube.com/watch?v=JW2HkEcEJv0
Bomba fine di mondo
https://i.postimg.cc/BnmgPxWK/Annotazione-2019-05-21-152052.png (https://postimages.org/)In sostanza quello che sosteneva Locusta che scrive sui forum Tomshardware
La AMD 3080 o come cavolo si chiamerà dovrebbe costare oltre 550,00 se non 600,00 da noi, avere prestazioni comparabili ad una RTX 2070; la mia Vega 64 Liquid praticamente nuova presa con garanzia a 460,00 è comparabile ad una RTX 2070:
https://www.youtube.com/watch?v=JW2HkEcEJv0
Per me rimarrà sullo scaffale come tutte le vga sovra prezzate di questo periodo storico/informatico!
La mia critica è per quelli che raccontavano di regali da parte di AMD e vga con prezzi intorno ai 250,00 come se NVidia facesse regali!
https://www.youtube.com/watch?v=JW2HkEcEJv0Bho, mi pare pure un controsenso fare delle VGA che vanno uguali, consumano uguale, scaldano uguale e costano uguale alle precedenti, è perfettamente inutile se mi dici che sono delle mid se poi non cambia nulla.
Tra pochi giorni vedremo, non mi fascio la testa per questo, l'unico appunto che sono stato quasi attratto dal vendere la mia 56 pulse, visto che riuscirei a piazzarla bene, prima che esca navi ed evitare in crollo del prezzo ma se le condizioni sono queste, non so se me la sento.
il senso della critica penso sia semplice: se shappire fa una navi a liquido, vuol dire che un "senso" liquidarla ce l'ha, e solitamente perchè si liquida? temperature alte dovute ad alti consumi?...per una architettura mid range a 7nm non è proprio il massimo delle prospettive
poi magari si scopre che è un chip talmente piccolo che i dissi stock faticano a tenerlo a bada nonostante i bassi consumi (non ricordo chi soffriva di questo problema ma non mi è nuova come situazione)
ti ripeto hanno liquidato la 1080, ed era msi, me la sono cercata, magari e' solo una roba di marketing, o la scelta di sapphire.
Che ci siano problemi di smaltimento del calore in un chip piu' piccolo rispetto ad uno piu' grande mi pare lampante, piu' sono piccoli, a parita' di watt e piu' e' difficile dissiparli, pero' a questo punto non si sa molto, ne sulle frequenze ne le prestazioni ne sui consumi.
E ricordo che riguardo i processi produttivi si parla sempre di aumento prestazionale a parita' di watt o diminuzione dei consumi con le stesse prestazioni, non e' che raddoppiano prestazioni e dimezzano consumi, basandosi sulla stessa architettura ovviamente, insomma non rappresentano la quadratura del cerchio.
Ni, che io sappia se è venduto da X e spedito da amazon in caso di problemi te la devi vedere con X e non con amazon, a volte capita che X potrebbe non essere affidabile al 100%Se hai problemi contatti Amazon e ti mette una pezza senza problemi, un mio amico ha avuto problemi con un paio di smartphone e per il reso ha direttamente contattato Amazon senza passare per il venditore. Fine ot
PS: attenzione che ha cancellato il tweet, può significare tutto o niente.
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
arxangel
21-05-2019, 19:41
Ho letto pure che potrebbero trattarsi di dollari di Singapore (hanno il dollaro?)
quindi i prezzi sarebbero 260 e 325 che avrebbero molto più senso.
fraussantin
21-05-2019, 19:53
Ho letto pure che potrebbero trattarsi di dollari di Singapore (hanno il dollaro?)
quindi i prezzi sarebbero 260 e 325 che avrebbero molto più senso.Che senso ha? O parlano in usd o al massimo in hkd
Ale55andr0
21-05-2019, 19:58
Dovrebbe costare meno, visto che va un filo meno e non ha RTX....
ha anche il doppio della ram, e non viene via gratis sai...cmq lotta fra roiti del rapporto inculata-prestazioni, giusto a far capire quanto mi frega nel patteggiare per l'una o l'altra...
Ale55andr0
21-05-2019, 19:59
io non capisco se dici sul serio o se ci prendi in giro facendo finta.
premesso che la 2080ti costa uno sproposito, questa è una top gamma reale dove un dissipatore "monstre" può essere giustificato.
una MID a liquido da 500 dollari e con un nodo di vantaggio per andare come una 2070 per quanto mi riguarda è ridicola
Ripeto, è tutto da verificare
Comunque ci sono grossi cambiamenti peggioramenti lato architettura
in relazione al neretto di cui sopra :asd:
Anche questo è tutto da verificare perché esce tutto dalla stessa bocca.
Oltretutto se veramente è liquid ( cosa che imho non ha il minimo senso visti i consumi teorici) dovrebbe le prestazioni ai clock alti.
sono eoni che cambiano architettura a sentir loro, ma si portano con ammirabile perseveranza gli stessi difetti: sempre consumosi, output geometrico inferiore alla rivale e sempre schema 64cu/4geo dai tempi di cartagine, a dispetto dei suddetti cambi architetturali, del pp 7nm che fa si che "vega is very, very efficient", ecc. Quindi o non le cambiano, o le cambiano ma sono CANI uguale uguale a disegnarle ste architetture :rolleyes:
Can't wait for the R9 4080 64cu 4geo 5nm a 3ghz con dissipatore ad azoto! Ma sarà una nuova architettura dedicata al gaming eh
Roland74Fun
21-05-2019, 20:05
M pigliatevi quel capolavoro di elettrotecnica che è l'xbox1x.
4K in 220W senza cavi strani dal terrazzo o tubi gorgoglianti.
arxangel
21-05-2019, 20:08
Che senso ha? O parlano in usd o al massimo in hkd
Mi sembra sia un intervista tradotta dal cinese se non ho capito male, quindi il pericolo di essere "Lost in translation" è forte, poi considera pure che chi fa le traduzioni non sempre è imparziale.
mircocatta
21-05-2019, 20:47
ah, quindi era una intervista cinese che parlava di dollari americani? è normale che sia stata censurata allora :asd:
Roland74Fun
21-05-2019, 21:09
....un bel TV da 65" HDR caxxi e mazzi, e divano con birra annessa :D :D
E rutto libero... :) :)
il senso della critica penso sia semplice: se shappire fa una navi a liquido, vuol dire che un "senso" liquidarla ce l'ha, e solitamente perchè si liquida? temperature alte dovute ad alti consumi?...per una architettura mid range a 7nm non è proprio il massimo delle prospettive
poi magari si scopre che è un chip talmente piccolo che i dissi stock faticano a tenerlo a bada nonostante i bassi consumi (non ricordo chi soffriva di questo problema ma non mi è nuova come situazione)
ma che ragionamento è? Ho una 1080 liquidata (full liquid, non come evga solo core) e grazie a questo sistema di raffreddamento la gpu raggiunge con un leggero overclock i 2100mhz sul core e giù di li modulando automaticamente voltaggio e frequenza in base alla temperatura (geniale la gestione in questo da parte di nvidia).
Poi una vega 64 non arriva alla 1080 liscia che a sua volta è inferiore (di poco 5-8%) a una 2070, quidi i paragoni lasciano il tempo che trovano tenendo conto di consumi spropositati e temperature. una gpu sui 500€ che vada più di una 2070 sarebbe ottimo però deve rendere davvero di più e non solo "su carta", come su carta la radeon VII dovrebbe rendere chissà quanto ma nei giochi che mi riguardano non va molto di più della mia ottima 1080.
Purtroppo amd è indietro e a farne le spese siamo noi poveri cristi che ci troviamo con tecnologie vecchie e inadeguate a gestire l'avanzare degli standard di risoluzione e dettaglio dei videogame. Non gestiamo i nuovi monitor 4k 144hz, non possimo usare dignitosamente il raytracing e non abbiamo miglioramenti sostanziali da 4 anni quasi. E' una vergogna vera e propria.
Speriamo in AMD ma sopratutto speriamo in una top di gamma all'altezza di una 2080ti alla metà del prezzo. L'unica cosa che può salvarci è una lotta a suon di nuove schede ogni 8-12 mesi.
(ps: parlo da ex possessore amd per 10 lunghi anni per poi cedere alla superiorità netta di nvidia nelle ultime serie di gpu. Contrariamente a quanto ho fatto con Intel e Amd, ho abbandonato la prima per quest'ultima dopo avere sempre e solo avuto Intel e devo dire che i ryzen sono ottimi prodotti e sopratutto onesti, prenderò sicuramente ryzen 2 e ryzen 3)
Free Gordon
22-05-2019, 00:03
Se ho capito bene intende che NAVI avrà 8 shaders engine, ciascuno con 5 CU, quindi 40 totali, e aprirebbe le porte a GPU con più CU di una fury x del mesozoico (ma non si diceva che navi si sarebbe fermata a 64? Era ufficiale o una minchiata?)
Quindi per "shader engine" il leak intenderebbe 8 raster/geo... quindi un numero RADDOPPIATO rispetto all'attuale generazione...
Se così fosse, significherebbe che hanno cambiato decisamente la logica di controllo e il command processor, oltre che "rimappare" tutto lo shader core..
Non ci credo finché non vedo...
Se così fosse cmq, mi aspetto un cambio in meglio nel performance/watt rispetto alle altre GCN, non solamente dovuto ai 7nm ma anche all'architettura (cosa non avvenuta coi 14nm..).
Certo che avete un'ottimismo per ste Navi :rolleyes: abbiate pazienza!
Io spero sempre in una navi per il 4k60fps!
majinbu7
22-05-2019, 08:38
Certo che avete un'ottimismo per ste Navi :rolleyes: abbiate pazienza!
Io spero sempre in una navi per il 4k60fps!
Ah per quella stai tranquillo che ci sarà, PS5 fine 2020 :asd:
Ah per quella stai tranquillo che ci sarà, PS5 fine 2020 :asd:
Seee già che vogliono usare l'rtx a quanto pare la vedo male!
Se i prezzi son questi bisogna realmente che asfalti la concorrenza. Inoltre se è sprovvista di unità dedicate o di un modo a basso impatto per fare ray tracing e se i produttori di videogiochi continueranno a spingerne l'adozione, non vedo come possa competere con 2060 e 2070.
OvErClOck82
22-05-2019, 10:14
Se i prezzi son questi bisogna realmente che asfalti la concorrenza. Inoltre se è sprovvista di unità dedicate o di un modo a basso impatto per fare ray tracing e se i produttori di videogiochi continueranno a spingerne l'adozione, non vedo come possa competere con 2060 e 2070.
in che senso "continueranno" ? al momento ci sono due giochi in croce che la sfruttano, e a quanto sembra nemmeno così alla grande :stordita:
Gyammy85
22-05-2019, 10:58
Se le cu sono del tutto nuove è probabile che riescano a gestire dxr e direct ml, perché il resto è proprietario nvidia e gira con le sue schede
Mi aspetto un big update dei driver dato che è uscito may update
Se le cu sono del tutto nuove è probabile che riescano a gestire dxr e direct ml, perché il resto è proprietario nvidia e gira con le sue schede
Mi aspetto un big update dei driver dato che è uscito may update
che big update?
Gyammy85
22-05-2019, 11:06
che big update?
Immagino che esca qualcosa per il supporto a dxr ma è una mia opinione
Immagino che esca qualcosa per il supporto a dxr ma è una mia opinione
Anche la S3 Virge riesce a fare ray tracing via software :stordita:
Le prestazioni potrebbero non essere esattamente esaltanti però :fagiano:
Gyammy85
22-05-2019, 11:25
Anche la S3 Virge riesce a fare ray tracing via software :stordita:
Le prestazioni potrebbero non essere esattamente esaltanti però :fagiano:
Anche i 286 nell'82 lo facevano, e allora? :rolleyes:
Se fanno lavorare le cu a carichi di lavoro diversi come trapelato dalle presunte caratteristiche del soc per la scarlett, è come se avessi le unità dedicate, ma in gran numero, una cosa in pieno stile amd
AceGranger
22-05-2019, 11:36
Anche la S3 Virge riesce a fare ray tracing via software :stordita:
Le prestazioni potrebbero non essere esattamente esaltanti però :fagiano:
non lo fai "via software", lo fai sempre hardware ma senza unita dedicate...
il DXR sulle GTX mica è software, è hardware, usi i CUDA; BF5,Metro, e TR potrebbero tranquillamente farli andare in hardware sulle AMD attuali, semplicemente andrebbero male esattamente come vanno male sulle GTX perchè manca il guadagno netto delle unita dedicate in quella parte di calcolo.
Gyammy85
22-05-2019, 11:42
non lo fai "via software", lo fai sempre hardware ma senza unita dedicate...
il DXR sulle GTX mica è software, è hardware, usi i CUDA; BF5,Metro, e TR potrebbero tranquillamente farli andare in hardware sulle AMD attuali, semplicemente andrebbero male esattamente come vanno male sulle GTX perchè manca il guadagno netto delle unita dedicate in quella parte di calcolo.
Non è proprio così, via software nel senso che non ci sono unità specializzate che fanno solo quello, come gli aa dalle dx10 in poi tipo taa fxaa mlaa, girano via software cioè sfruttano la potenza delle unità computazionali generiche cioè i cuda e le cu
La grafica in genere gira in hardware sulla scheda video e non via software sulla cpu come avveniva un tempo
AceGranger
22-05-2019, 11:49
Non è proprio così, via software nel senso che non ci sono unità specializzate che fanno solo quello, come gli aa dalle dx10 in poi tipo taa fxaa mlaa, girano via software cioè sfruttano la potenza delle unità computazionali generiche cioè i cuda e le cu
La grafica in genere gira in hardware sulla scheda video e non via software sulla cpu come avveniva un tempo
è il senso sbagliato...
comunque va bè, poco importa, alle fine il punto di arrivo è lo stesso.
Anche i 286 nell'82 lo facevano, e allora? :rolleyes:
Se fanno lavorare le cu a carichi di lavoro diversi come trapelato dalle presunte caratteristiche del soc per la scarlett, è come se avessi le unità dedicate, ma in gran numero, una cosa in pieno stile amd
no per nulla, perchè alla fine quel "gran numero" fa la stessa cosa di poche unita dedicate in modo molto meno efficiente, vedasi i Tensor con le FP16 vs "unita generiche".
ricordate le ageia physx? sarebbe impensabile produrre schede dedicate al calcolo del raytracing lasciando tutto i resto del carico di elaborazione alla gpu principale? Son pazzo o visionario? (sicuramente più la prima) ora la fisica può venire gestita a discrezione dell'utente sulle nvidia se gpu o vga (e quale vga in particolare se ne hai più di una), sarebbe un'idea mica poi tanto strana!
mircocatta
22-05-2019, 12:58
ricordate le ageia physx? sarebbe impensabile produrre schede dedicate al calcolo del raytracing lasciando tutto i resto del carico di elaborazione alla gpu principale? Son pazzo o visionario? (sicuramente più la prima) ora la fisica può venire gestita a discrezione dell'utente sulle nvidia se gpu o vga (e quale vga in particolare se ne hai più di una), sarebbe un'idea mica poi tanto strana!
la pensai e scrissi sul forum tipo un mese fa, chip interamente dedicati al RT da piazzare su un pcie 8x o 16x libero, visto che ormai il multigpu (come lo ricordiamo noi) è praticamente morto
Gyammy85
22-05-2019, 13:04
Mi sembra troppo old style come soluzione
AceGranger
22-05-2019, 13:09
ricordate le ageia physx? sarebbe impensabile produrre schede dedicate al calcolo del raytracing lasciando tutto i resto del carico di elaborazione alla gpu principale? Son pazzo o visionario? (sicuramente più la prima) ora la fisica può venire gestita a discrezione dell'utente sulle nvidia se gpu o vga (e quale vga in particolare se ne hai più di una), sarebbe un'idea mica poi tanto strana!
non ci hanno provato nemmeno in ambito Pro, quindi credo sia una soluzione irrealistica.
A me invece sembra una scelta all'avanguardia e molto sensata, però non succederà mai. Mi sembrava una ottima cosa anche la ageia poi nvidia ha rovinato tutto e dal lato software nessuno ha mai spinto davvero sulle potenzialità che poteva offrire physx a quel tempo. Se è vero che le nuove amd non avranno una struttura hardware dedicata al rt ci sarà un gap sostanziale anche dal punto di vista marketing. Una soluzione del genere probabilmente le permetterebbe di avere più prestazioni in rt di una 2080ti ma con "due hardware distinti" che tutto sommato potrebbero costare anche meno di una scheda nvidia attuale
Free Gordon
22-05-2019, 13:22
A me invece sembra una scelta all'avanguardia e molto sensata, però non succederà mai. Mi sembrava una ottima cosa anche la ageia poi nvidia ha rovinato tutto e dal lato software nessuno ha mai spinto davvero sulle potenzialità che poteva offrire physx a quel tempo. Se è vero che le nuove amd non avranno una struttura hardware dedicata al rt ci sarà un gap sostanziale anche dal punto di vista marketing. Una soluzione del genere probabilmente le permetterebbe di avere più prestazioni in rt di una 2080ti ma con "due hardware distinti" che tutto sommato potrebbero costare anche meno di una scheda nvidia attuale
credo che nel caso del RT, il problema sia di carattere tecnico.
Mentre nel caso della fisica, ci sono dei delay per colpa del bus/architettura PCI che possono essere tollerati ampiamente dal motore grafico, nel caso dell'RT non è una cosa fattibile.
Se fai una scheda a parte, anche su PCI-ex 16x, avrai sempre troppo ritardo. E' lo stesso problema che viene generato dal crossfire/SLI che SE NON viene programmato ad hoc, comporta grossi problemi.
E nessuno programmerebbe ad hoc una scheda che ha l'1% del mercato... magari spendendo anche molto tempo nell'ottimizzazione.
Una scheda del genere ci metterebbe moltissimo a prendere piede nel mercato. Il ROI per le aziende sarebbe terribile...ecc ecc
Già è tanto che le abbiano integrate nelle GPU (delle unità dedicate) e si vede quanto vengono usate :asd: figuriamoci una scheda del genere...
Grizlod®
22-05-2019, 13:28
A me invece sembra una scelta all'avanguardia e molto sensata, però non succederà mai. Mi sembrava una ottima cosa anche la ageia poi nvidia ha rovinato tutto e dal lato software nessuno ha mai spinto davvero sulle potenzialità che poteva offrire physx a quel tempo. Se è vero che le nuove amd non avranno una struttura hardware dedicata al rt ci sarà un gap sostanziale anche dal punto di vista marketing. Una soluzione del genere probabilmente le permetterebbe di avere più prestazioni in rt di una 2080ti ma con "due hardware distinti" che tutto sommato potrebbero costare anche meno di una scheda nvidia attuale
Ciò, in quanto PhysX era fondato sostanzialmente su x87; cosa che oggigiorno potrebbe fare una CPU moderna (non per nulla NVidia l'ha resa open source).
Se qualche software house ha inserito RT nel proprio engine grafico, significa che si puo fare tranquillamente senza unità HW dedicate. IMHO.
Sempre a mio pare, il Ray Tracing, non è paragonabile (come potenza computazionale necessaria) alla gestione della fisica in un videogame.
Andy1111
22-05-2019, 13:51
Ma aspettare di avere informazioni più accurate prima di trarre conclusioni non è meglio?
ma che ragionamento è? Ho una 1080 liquidata (full liquid, non come evga solo core) e grazie a questo sistema di raffreddamento la gpu raggiunge con un leggero overclock i 2100mhz sul core e giù di li modulando automaticamente voltaggio e frequenza in base alla temperatura (geniale la gestione in questo da parte di nvidia).
Poi una vega 64 non arriva alla 1080 liscia che a sua volta è inferiore (di poco 5-8%) a una 2070, quidi i paragoni lasciano il tempo che trovano tenendo conto di consumi spropositati e temperature. una gpu sui 500€ che vada più di una 2070 sarebbe ottimo però deve rendere davvero di più e non solo "su carta", come su carta la radeon VII dovrebbe rendere chissà quanto ma nei giochi che mi riguardano non va molto di più della mia ottima 1080.
Purtroppo amd è indietro e a farne le spese siamo noi poveri cristi che ci troviamo con tecnologie vecchie e inadeguate a gestire l'avanzare degli standard di risoluzione e dettaglio dei videogame. Non gestiamo i nuovi monitor 4k 144hz, non possimo usare dignitosamente il raytracing e non abbiamo miglioramenti sostanziali da 4 anni quasi. E' una vergogna vera e propria.
Speriamo in AMD ma sopratutto speriamo in una top di gamma all'altezza di una 2080ti alla metà del prezzo. L'unica cosa che può salvarci è una lotta a suon di nuove schede ogni 8-12 mesi.
(ps: parlo da ex possessore amd per 10 lunghi anni per poi cedere alla superiorità netta di nvidia nelle ultime serie di gpu. Contrariamente a quanto ho fatto con Intel e Amd, ho abbandonato la prima per quest'ultima dopo avere sempre e solo avuto Intel e devo dire che i ryzen sono ottimi prodotti e sopratutto onesti, prenderò sicuramente ryzen 2 e ryzen 3)
Bella la tua scheda mi piacerebbe avere un confronto diretto per confermare o smentire le tue osservazioni, ho una 64 reference a liquido, io una idea me la sono fatta.
https://www.tomshw.it/hardware/recensione-geforce-gtx-1080-8gb-gddr5x/consumi-gtx-1080/
Consumi in gaming con overclock
Passiamo ai consumi in gaming con l'overclock più alto che siamo riusciti a raggiungere con il nostro sample. Per farlo abbiamo dovuto impostare il power target al massimo di 120% e aumentare il base clock in modo che la frequenza di boost di 2,1 GHz fosse raggiungibile, almeno inizialmente.
Nessuna sorpresa: il consumo cresce del 19%, da 173 a 206 watt
E ci sono picchi di oltre 340W.
Analizzando tutto questo 206W ma non tiene 2,1 fissi quindi come scende consuma meno, la tua ha un chip scelto presumo(la mia non ha chip scelto) e un 2x8 pin come la mia e (mi tengo basso) per tenere i 2,1 fissi consumerà facilmente dai 220 ai 230W quindi sono circa 30W o 40W nei casi peggiori di consumi maggiori per la mia vega 64.
Prestazioni DX11 e con Unreal Engine 4 la tua va sicuramente molto meglio, alla fine è un motore proprietario nvidia.
DX12 e vulkan la tua perde molto terreno e la mia supera tranquillamente le 2070.
Credo di non aver dimenticato nulla, quindi andare a paragonare la tua 1080 a liquido con una VII ad aria non è una buona scelta secondo il mio umile parere.
AceGranger
22-05-2019, 13:58
Se qualche software house ha inserito RT nel proprio engine grafico, significa che si puo fare tranquillamente senza unità HW dedicate. IMHO.
ah bè certo, basta avere a disposizione un botto di CUDA core...
Sempre a mio pare, il Ray Tracing, non è paragonabile (come potenza computazionale necessaria) alla gestione della fisica in un videogame.
no, infatti serve molta piu potenza per l'RT.
ricordate le ageia physx? sarebbe impensabile produrre schede dedicate al calcolo del raytracing lasciando tutto i resto del carico di elaborazione alla gpu principale? Son pazzo o visionario? (sicuramente più la prima) ora la fisica può venire gestita a discrezione dell'utente sulle nvidia se gpu o vga (e quale vga in particolare se ne hai più di una), sarebbe un'idea mica poi tanto strana!
La fisica è cosa separate dalla grafica, il calcolo dei raggi è parte integrante del motore grafico, come fai a farlo a parte ? :fagiano:
I famigerati core RT NON fanno ray tracing
Quello che fanno è solo una delle operazioni usate normalmente nei vari algoritmi di ray/path tracing ( in dettaglio calcolano l' intersezione di un raggio con una superfice ) .
E' un' operazione molto usata e abbastanza pesante da fare con un' unità non dedicata per cui ha senso prevedere un pezzo di HW al solo scopo, ma resta comunque solo una parte di un algoritmo che usa tutta la scheda grafica.
Non esiste nessuna scheda in grado di fare ray tracing da sola, almeno non a un prezzo che sia alla portata del pubblico.
Quello che c' è sul mercato sono schede grafiche che insieme alla cpu possono essere programmate per far girare un motore grafico ray tracing accelerando alcune funzionalità e usando le altre in modo da poter ottenere prestazioni decenti a un prezzo relativamente contenuto ( meno di 2000 euro )
Praticamente quello che vorresti fare tu è prendere una scheda grafica senza RT e metterci di fianco una nVidia RTX per i giochi che usano RT ...
Grizlod®
22-05-2019, 14:06
ah bè certo, basta avere a disposizione un botto di CUDA core...
no, infatti serve molta piu potenza per l'RT.Basta vedere le recenti techdemo dedicate ed anche "vecchi" videogames sul tubo.
AceGranger
22-05-2019, 14:10
Basta vedere le recenti techdemo dedicate ed anche "vecchi" videogames sul tubo.
è ?
fino ad ora le tech demo mostrano proprio che senza RT core non vai da nessuna parte.
Grizlod®
22-05-2019, 14:16
è ?
fino ad ora le tech demo mostrano proprio che senza RT core non vai da nessuna parte.
Quella del Cry Engine e giochi con riflessi a go-go in acqua e non...
Se non si andasse da nessuna parte AMD integrerebbe in HW su navi RT.
Probabile si accorderà con diverse SH per ottimizzazioni dedicate.
AceGranger
22-05-2019, 14:17
Quella del Cry Engine e giochi con riflessi a gogo in acqua e non...
ci mancava il Cry Engine in effetti :asd:
se ne è gia discusso, semplicemente non è come credi; segnati pure tu il post e ci rivediamo fra 1 anno :D.
Grizlod®
22-05-2019, 14:20
ci mancava il Cry Engine in effetti :asd:
se ne è gia discusso, semplicemente non è come credi; segnati pure tu il post e ci rivediamo fra 1 anno :D.Ok, ci risentiamo fra un anno, ma se il risultato visivo è uguale, la sostanza non cambia :) :rolleyes:
Roland74Fun
22-05-2019, 14:27
Mi sembra troppo old style come soluzioneUn tempo uscirono le schede dedicate (slot ISA) per vedere i DVD video.
AceGranger
22-05-2019, 14:31
Ok, ci risentiamo fra un anno, ma se il risultato visivo è uguale, la sostanza non cambia :) :rolleyes:
Il problema non è il risultato visivo, gli RT core di "grafico" non fanno nulla, è una questione di fps generati e di sgravio di calcoli che gli RT core si smazzano lasciando i CUDA a fare altro ;). attualmente, a seconda degli ambiti e software/gioco va dal 40% al doppio e piu.
Prima di credere alla storiella che fra un anno quelli di Crytec ti daranno un gioco RT da giocare sulle attuali GPU domandanti perchè non sono usciti con il loro fantasmagorico RT 2 anni fa, visto che sono stati cosi bravi da farlo addirittura agnostico e che potevano farlo senza dipendere da nessuno, ne AMD, ne nVidia ne Microsoft... :sofico:
Piedone1113
22-05-2019, 14:57
Il problema non è il risultato visivo, gli RT core di "grafico" non fanno nulla, è una questione di fps generati e di sgravio di calcoli che gli RT core si smazzano lasciando i CUDA a fare altro ;). attualmente, a seconda degli ambiti e software/gioco va dal 40% al doppio e piu.
Prima di credere alla storiella che fra un anno quelli di Crytec ti daranno un gioco RT da giocare sulle attuali GPU domandanti perchè non sono usciti con il loro fantasmagorico RT 2 anni fa, visto che sono stati cosi bravi da farlo addirittura agnostico e che potevano farlo senza dipendere da nessuno, ne AMD, ne nVidia ne Microsoft... :sofico:
A dir la mia AMD potrebbe saltare l'rt hardware per ora e passare alla prossima implementazione ( a meno di unità gia presenti nella gpu che possono essere riallocate a tale scopo).
Ma quello che mi chiedo è se sia possibile usare un chip separato interconnesso tramite if sul package stesso della gpu ( quindi gpu/hbm/rpu) senza passare per il bus pci e avendo la possibilità di usare una gpu più piccola e parsimoniosa)
Piedone1113
22-05-2019, 15:01
Un tempo uscirono le schede dedicate (slot ISA) per vedere i DVD video.
Si, pere i decoder mpg2 in hardware, che furono implementati direttamente su chip successivamente.
Ma se il flusso video usciva 1 secondo dopo la lettura dei dati era ininfluente, ma se i dati delle intersezioni arrivano 1/20 di secondo dopo alla gpu nel migliore dei casi il massimo teorico è di 30 fps
AceGranger
22-05-2019, 15:13
A dir la mia AMD potrebbe saltare l'rt hardware per ora e passare alla prossima implementazione ( a meno di unità gia presenti nella gpu che possono essere riallocate a tale scopo).
Ma quello che mi chiedo è se sia possibile usare un chip separato interconnesso tramite if sul package stesso della gpu ( quindi gpu/hbm/rpu) senza passare per il bus pci e avendo la possibilità di usare una gpu più piccola e parsimoniosa)
si, si potrebbe fare; ma potresti farlo anche con schede separate con xGMI ( l'nVlink di AMD ), che è IF fra differenti GPU.
lo scopo dell'xGMI, come quello dell'nVlink, è liberarsi del PCI-EX e collegare direttamente i chip, con tutti i vantaggi che ne conseguono, latenza, banda passante e condivisione Vram.
Tuttavia non ne vedo l'utilita; le unita RT e Tensor occupano circa il 10% del die; una ipotetica 2080 a 7nm avrebbe un die size poco piu grande di quello della Radeon 7, con pero a bordo unita dedicate e nVlink...
Andy1111
22-05-2019, 15:21
Guardate che il Cry Engine per fare questo con Vega 56 https://www.youtube.com/watch?v=1nqhkDm2_Tw ha usato dx11, non ha usato dx12 ne vulkan ne ha usato Radeon-Rays ne DirectML
AceGranger
22-05-2019, 15:57
Guardate che il Cry Engine per fare questo con Vega 56 https://www.youtube.com/watch?v=1nqhkDm2_Tw ha usato dx11, non ha usato dx12 ne vulkan ne ha usato Radeon-Rays ne DirectML
hanno usato le DX 11 per la parte classica e programmazione loro per il pass RT.
techfede
22-05-2019, 16:46
si, si potrebbe fare; ma potresti farlo anche con schede separate con xGMI ( l'nVlink di AMD ), che è IF fra differenti GPU.
lo scopo dell'xGMI, come quello dell'nVlink, è liberarsi del PCI-EX e collegare direttamente i chip, con tutti i vantaggi che ne conseguono, latenza, banda passante e condivisione Vram.
Tuttavia non ne vedo l'utilita; le unita RT e Tensor occupano circa il 10% del die; una ipotetica 2080 a 7nm avrebbe un die size poco piu grande di quello della Radeon 7, con pero a bordo unita dedicate e nVlink...
Magari per seguire la politica di modularità e scalabilità alla quale anche Wang aveva accennato?
Dopotutto, studiare e produrre un die con già integrate unità tensor core (o altro) vorrebbe dire che la proporzione con le altre risorse della gpu sarebbe fissa, mentre un chip separato permetterebbe più flessibilità, sbaglio?
Ma aspettare di avere informazioni più accurate prima di trarre conclusioni non è meglio?
Bella la tua scheda mi piacerebbe avere un confronto diretto per confermare o smentire le tue osservazioni, ho una 64 reference a liquido, io una idea me la sono fatta.
https://www.tomshw.it/hardware/recensione-geforce-gtx-1080-8gb-gddr5x/consumi-gtx-1080/
Consumi in gaming con overclock
Passiamo ai consumi in gaming con l'overclock più alto che siamo riusciti a raggiungere con il nostro sample. Per farlo abbiamo dovuto impostare il power target al massimo di 120% e aumentare il base clock in modo che la frequenza di boost di 2,1 GHz fosse raggiungibile, almeno inizialmente.
Nessuna sorpresa: il consumo cresce del 19%, da 173 a 206 watt
E ci sono picchi di oltre 340W.
Analizzando tutto questo 206W ma non tiene 2,1 fissi quindi come scende consuma meno, la tua ha un chip scelto presumo(la mia non ha chip scelto) e un 2x8 pin come la mia e (mi tengo basso) per tenere i 2,1 fissi consumerà facilmente dai 220 ai 230W quindi sono circa 30W o 40W nei casi peggiori di consumi maggiori per la mia vega 64.
Prestazioni DX11 e con Unreal Engine 4 la tua va sicuramente molto meglio, alla fine è un motore proprietario nvidia.
DX12 e vulkan la tua perde molto terreno e la mia supera tranquillamente le 2070.
Credo di non aver dimenticato nulla, quindi andare a paragonare la tua 1080 a liquido con una VII ad aria non è una buona scelta secondo il mio umile parere.
ti scrivo i dati di un 3dmark che ho fatto un mese fa e ho recuperato tramite whatsapp (lol)
Timespy total 7438pt:
Graphics score 7857
gt1: 50.19fps
gt2: 45.88fps
CPU score 5712
cputest: 19.19fps
TUTTO STOCK CPU E GPU (OC di fabbrica)
HWinfo64, sensor only, quelli che leggi sono i picchi massimi avuti durante il test sia di voltaggi che temp e frequenze:
CPU 50.9°C (3.9ghz@1.288v - 70W)
GPU 46°C (2037mhz@1.063v - 250W picco max - fan 100%)
non ho lo screen purtroppo (almeno non lo trovo) ma potrei allegare la foto del timespy se necessiti.
:rolleyes:
ps: in overclock la gpu la provai un poco appena comprata e teneva i 2148mhz a 1.080v di picco, oltre quel volaggio non va perchè è limitata (molto conservativo come limite ma le frequenze sono già parecchio alte). Però non ho sbattimenti di fare oc e tengo tutto stock, anche la cpu.
Piedone1113
22-05-2019, 19:17
si, si potrebbe fare; ma potresti farlo anche con schede separate con xGMI ( l'nVlink di AMD ), che è IF fra differenti GPU.
lo scopo dell'xGMI, come quello dell'nVlink, è liberarsi del PCI-EX e collegare direttamente i chip, con tutti i vantaggi che ne conseguono, latenza, banda passante e condivisione Vram.
Tuttavia non ne vedo l'utilita; le unita RT e Tensor occupano circa il 10% del die; una ipotetica 2080 a 7nm avrebbe un die size poco piu grande di quello della Radeon 7, con pero a bordo unita dedicate e nVlink...
1 Un bus fuori dal package ha maggiori latenze, minor velocità e più problemi di interfacciamento.
Un unità rt e tensor occupa il 10 % del die?
* la cache che occupa in uso, ed i compromessi di design ( perchè non basta togliere semplicemente la superfice occupata, ma devi togliere le risorse in più ad esse dedicate ed i compromessi di design per i tragitti e per la gestione degli hot spot).
Un chip dedicato a poche funzioni è più economico da progettare e da evolvere, una modica logica viene subito testata e il debugging di nuove revisioni è più rapido.
In più usare una struttura separata e modulare permette di offrire prodotti più economici:
es: Vega 100 chip top + Centaury 100 = top di gamma.
vega 100 + centaury 80 = media alta
Vega 80 + centauri 80 = media
Vega 80 + Centaury 60 = media bassa.
E possiamo ancora scendere, ma se consideri che possono esserci necessità di assenze di core rt la frammentazione di mercato sale ancora, in fondo non tutti usano la gpu per il ray tracing ( ed all'occorrenza si potrebbe pensare pure di usare un solo core centaury 50 e usarne 4 per la top, 2 per la media ed 1 solo per la medio bassa) in fondo diventa un progetto modulare senza la necessità di avere troppe gpu in cantiere : una vega 100 binnata a vega 80 ed una vega 60 binnata a 40 e 30 ( quindi con 2 gpu ed 1 rpu potresti produrre oltre 10 vga per fascia di prezzo)
mikael84
22-05-2019, 23:02
Quindi per "shader engine" il leak intenderebbe 8 raster/geo... quindi un numero RADDOPPIATO rispetto all'attuale generazione...
Se così fosse, significherebbe che hanno cambiato decisamente la logica di controllo e il command processor, oltre che "rimappare" tutto lo shader core..
Non ci credo finché non vedo...
Se così fosse cmq, mi aspetto un cambio in meglio nel performance/watt rispetto alle altre GCN, non solamente dovuto ai 7nm ma anche all'architettura (cosa non avvenuta coi 14nm..).
Sinceramente non conosco il progetto finale, ma aumentare i raster si può fare, anzi si poteva fare anche prima, solo che era troppo complesso da attuare.
Rimanendo su GCN, sarebbe il vero passo in avanti, dopo quello dello sfruttamento thread.
Con 8 engine puoi aumentare le rbe da 64 a 128 (la formula perfetta sarebbe 4096st/128rbe), e le primitive da 4 a 8 ( per fare un esempio 8 sono le teoriche della 2080 , anzi leggermente superiori. 23 P.E engine producono 7,5 primitive, anche se mancano le unità per effettuare i vari tipi di culling.) nonchè una miglior distribuzione della cache.
La distribuzione non cambia, come vedi sono 40CU, suddivise in 8 engine e 16 shader arrays.
Ogni shader arrays è formato da 2 gruppi di CU, uno da 192st ed uno da 128.
E' ovviamente da vedere, ma questo è un passo fondamentale, sopratutto in ottica big chip.
Mi lascia perplesso il doppio vettore da 32, questo ridurrebbe le FP64 ad 1/32 come nvidia (32 cicli una FP64 emulata), ma dimezzerebbe i cicli per istruzione (grande vantaggio).:)
Gyammy85
23-05-2019, 07:56
Mi lascia perplesso il doppio vettore da 32, questo ridurrebbe le FP64 ad 1/32 come nvidia (32 cicli una FP64 emulata), ma dimezzerebbe i cicli per istruzione (grande vantaggio).:)
Essendo un'arch per il gaming non è strano che sia scarsa in fp64, per quello c'è la radeon 7
:muro: sto apsettando na benedetta gpu per sfruttare il moniotr 4k freesync che ho (nel frattempo ho preso una 1080 visto che non ci stavano ancora le vega e va beh)
ora davvero secondo voi non si andrà oltre una rtx 2070....mi aspetto cmq un modello in futuro superiore alla 7!
OvErClOck82
23-05-2019, 09:15
:muro: sto apsettando na benedetta gpu per sfruttare il moniotr 4k freesync che ho (nel frattempo ho preso una 1080 visto che non ci stavano ancora le vega e va beh)
ora davvero secondo voi non si andrà oltre una rtx 2070....mi aspetto cmq un modello in futuro superiore alla 7!
ci sarà ovviamente, navi sarà inizialmente di fascia media/medio-alta
Free Gordon
23-05-2019, 09:48
Sinceramente non conosco il progetto finale, ma aumentare i raster si può fare, anzi si poteva fare anche prima, solo che era troppo complesso da attuare.
Troppo complesso...o forse troppo "costoso" per le disponibilità di RTG? ;)
Credo più la seconda...SE sono andati avanti per OTTO (2012) ANNI con lo stesso schema base. ;)
Rimanendo su GCN, sarebbe il vero passo in avanti, dopo quello dello sfruttamento thread.
Con 8 engine puoi aumentare le rbe da 64 a 128 (la formula perfetta sarebbe 4096st/128rbe), e le primitive da 4 a 8 ( per fare un esempio 8 sono le teoriche della 2080 , anzi leggermente superiori. 23 P.E engine producono 7,5 primitive, anche se mancano le unità per effettuare i vari tipi di culling.) nonché una miglior distribuzione della cache.
Certo..le 8 primitive sarebbero il vero "salto di capacità" da tanto atteso...con delle frequenze degne ci si potrebbe trovare di fronte a un bel mostro (8raster, 8192sp e 128rbe)
La distribuzione non cambia, come vedi sono 40CU, suddivise in 8 engine e 16 shader arrays.
Ogni shader arrays è formato da 2 gruppi di CU, uno da 192st ed uno da 128.
Non avevo capito che per "shader engine" intendesse i raster/geo
E' ovviamente da vedere, ma questo è un passo fondamentale, sopratutto in ottica big chip.
Mi lascia perplesso il doppio vettore da 32, questo ridurrebbe le FP64 ad 1/32 come nvidia (32 cicli una FP64 emulata), ma dimezzerebbe i cicli per istruzione (grande vantaggio).:)
Da Maxwell in poi sono settate così le GPU da gioco per Nvidia, eppure non mi pare che abbiano dei problemi per questo (nel gaming).
Che AMD voglia finalmente separare nettamentente gaming da pro? :)
Se poi il vantaggio sarebbe grande...perché non farlo?
Ultima considerazione: questo sarebbe il progetto di Raja. Se così fosse...parrebbe la prima vera modifica ad un progetto in essere da una decina d'anni...
Non mi pare proprio una bazzecola, considerando quanto l'hanno sfottuto all'uscita di Polaris e per la sua uscita da AMD... ;)
Ale55andr0
23-05-2019, 10:06
...con delle frequenze degne ci si potrebbe trovare di fronte a un bel mostro (8raster, 8192sp e 128rbe)
https://dok7xy59qfw9h.cloudfront.net/678/870/992/1280003030-1r81jk8-b1saq6d5l9c2sqk/original/201pxHomer_sbav.gif
Gyammy85
23-05-2019, 10:21
https://dok7xy59qfw9h.cloudfront.net/678/870/992/1280003030-1r81jk8-b1saq6d5l9c2sqk/original/201pxHomer_sbav.gif
Con 60 o 64 cu sono schede da mining perché AMD ormai se ne frega del povero gamerz, ma con 128 cu invece il computing sarebbe proprio l'ultimo dei pensieri :asd: dai su...
Ale55andr0
23-05-2019, 10:26
Con 60 o 64 cu sono schede da mining perché AMD ormai se ne frega del povero gamerz, ma con 128 cu invece il computing sarebbe proprio l'ultimo dei pensieri :asd: dai su...
non ti ho capito
mikael84
23-05-2019, 11:21
Essendo un'arch per il gaming non è strano che sia scarsa in fp64, per quello c'è la radeon 7
Non esistono architetture gaming e pro con AMD. GCN non ha unità native, è un tuttofare. Lo shader può fare FP64/FP32/FP16 X2 /INT8/INT4, emularsi le unità native, fare culling via software etc.
Sulle FP64 immagino il ratio sia il minimo possibile, ma chi cerca le FP64 va di Tesla o di MI60/MI50 2:1. Anche la VII in quel campo è sempre decente.:)
Troppo complesso...o forse troppo "costoso" per le disponibilità di RTG? ;)
Credo più la seconda...SE sono andati avanti per OTTO (2012) ANNI con lo stesso schema base. ;)
Costoso è complesso allo stesso tempo. Su Vega avrebbe richiesto troppo spazio e transistor, quando i colli di bottiglia sono altrove.
Su Fury i problemi erano ben altri, tra cui il culling, drawcall:)
Certo..le 8 primitive sarebbero il vero "salto di capacità" da tanto atteso...con delle frequenze degne ci si potrebbe trovare di fronte a un bel mostro (8raster, 8192sp e 128rbe)
4096 e 128rbe.
Ormai siamo arrivati ad un punto in cui bisogna ottimizzare gli shader non raddoppiarli.
Vedi anche la 2080ti che non sempre scala benissimo, ma anche li, iniziano a vedersi i primi colli di bottiglia, visto che è un chip piombato ad 88 rop's, quando è capace di memorizzarne 136.:)
Da Maxwell in poi sono settate così le GPU da gioco per Nvidia, eppure non mi pare che abbiano dei problemi per questo (nel gaming).
Si, anche se con AMD è un tantino diverso per vari aspetti. Sopratutto per il modo di lavorare e gli accessi simultanei verso la l1 ed l2.
Accedere in contemporanea di 192 st.alla l1/l2 evita di sprecare vari cicli.
Che AMD voglia finalmente separare nettamentente gaming da pro? :)
Se poi il vantaggio sarebbe grande...perché non farlo?
Non esiste un chip gaming ed uno pro, come dicevo su.:)
Ultima considerazione: questo sarebbe il progetto di Raja. Se così fosse...parrebbe la prima vera modifica ad un progetto in essere da una decina d'anni...
Non mi pare proprio una bazzecola, considerando quanto l'hanno sfottuto all'uscita di Polaris e per la sua uscita da AMD... ;)
Più che progetto è una modifica che consentirebbe di mettere una grossa pezza alle primitive ed alle rop's (e su queste ho sempre dei dubbi).
Gyammy85
23-05-2019, 14:28
Non esistono architetture gaming e pro con AMD. GCN non ha unità native, è un tuttofare. Lo shader può fare FP64/FP32/FP16 X2 /INT8/INT4, emularsi le unità native, fare culling via software etc.
Sulle FP64 immagino il ratio sia il minimo possibile, ma chi cerca le FP64 va di Tesla o di MI60/MI50 2:1. Anche la VII in quel campo è sempre decente.:)
Lo so, ha una enorme flessibilità, ma ora che ci penso, anche vega 10 non ha lo stesso ratio della radeon 7, mi pare che sia intorno ai 700 gigaflops in fp64
Gyammy85
23-05-2019, 14:30
non ti ho capito
Prima del numerone occorre efficienza, se no fai come la fury
mikael84
23-05-2019, 15:13
Lo so, ha una enorme flessibilità, ma ora che ci penso, anche vega 10 non ha lo stesso ratio della radeon 7, mi pare che sia intorno ai 700 gigaflops in fp64
Vega 10 è 1/16 emulata per SIMD, hawaii 1/8 per SIMD (8 cicli), Tahiti 1/4 per simd (4 cicli)
Vega 10 ha un teorico base di circa 768 gflops per 16 cicli simd, un valore del 30% superiore a quello di una 2080 circa (330gflops a unità native).
Il ratio migliore per AMD in emulazione è il 1/2 delle MI, visti i soli 2 cicli.
Dopo ovviamente dipende anche dai software.
ninja750
23-05-2019, 16:08
Prima del numerone occorre efficienza, se no fai come la fury
se fai efficienza senza prestazioni interessanti il prodotto rimane desolatamente sullo scaffale (https://www.hwupgrade.it/forum/showthread.php?t=2882507)
Andy1111
23-05-2019, 16:17
ti scrivo i dati di un 3dmark che ho fatto un mese fa e ho recuperato tramite whatsapp (lol)
Timespy total 7438pt:
Graphics score 7857
gt1: 50.19fps
gt2: 45.88fps
CPU score 5712
cputest: 19.19fps
TUTTO STOCK CPU E GPU (OC di fabbrica)
HWinfo64, sensor only, quelli che leggi sono i picchi massimi avuti durante il test sia di voltaggi che temp e frequenze:
CPU 50.9°C (3.9ghz@1.288v - 70W)
GPU 46°C (2037mhz@1.063v - 250W picco max - fan 100%)
non ho lo screen purtroppo (almeno non lo trovo) ma potrei allegare la foto del timespy se necessiti.
:rolleyes:
ps: in overclock la gpu la provai un poco appena comprata e teneva i 2148mhz a 1.080v di picco, oltre quel volaggio non va perchè è limitata (molto conservativo come limite ma le frequenze sono già parecchio alte). Però non ho sbattimenti di fare oc e tengo tutto stock, anche la cpu.
Grazie il timespy è buono solo per avere una idea iniziale di un oc stabile per me.
Comunque come supponevo ci sono dai 20/30W di differenza con la mia, direi nulla di eclatante.
Non ti sale perchè quasi sicuramente è limitata dal tdp.
Ma video nei giochi con msi afterburner attivo magari aggiungendo anche i watt che rileva hwinfo non ce l'hai? esempio https://www.youtube.com/watch?v=4D50NyXqFYQ
Ecco come fare per aggiungere i valori su msi
https://postimg.cc/cgJjtN3p
https://postimg.cc/PvpRKz2K
Ale55andr0
23-05-2019, 19:19
Prima del numerone occorre efficienza, se no fai come la fury
l'efficienza ad oggi con amd ce la scordiamo, i numeroni..pure. Preferisco i numeroni quindi, se devo scegliere. Sono anni che le prestazioni al vertice (e intendo scheda più veloce sul mercato, senza se ne ma) non ci sono, è ora che tornino, se ne son capaci, che sono fermi a 64 cu e 64rop da quando mio nonno andava in strada a urlare "ultime notizie, i tedeschi sono stati sconfitti dagli americani"
mikael84
23-05-2019, 20:11
l'efficienza ad oggi con amd ce la scordiamo, i numeroni..pure. Preferisco i numeroni quindi, se devo scegliere. Sono anni che le prestazioni al vertice (e intendo scheda più veloce sul mercato, senza se ne ma) non ci sono, è ora che tornino, se ne son capaci, che sono fermi a 64 cu e 64rop da quando mio nonno andava in strada a urlare "ultime notizie, i tedeschi sono stati sconfitti dagli americani"
Questo è già un grosso salto in avanti.:)
https://cdn.wccftech.com/wp-content/uploads/2019/05/37bTTIY3DIYQoA4b.jpg
Ale55andr0
23-05-2019, 20:54
Questo è già un grosso salto in avanti.:)
https://cdn.wccftech.com/wp-content/uploads/2019/05/37bTTIY3DIYQoA4b.jpg
8 raster e 128rop su 40cu?
ma è roba vera?
Grazie il timespy è buono solo per avere una idea iniziale di un oc stabile per me.
Comunque come supponevo ci sono dai 20/30W di differenza con la mia, direi nulla di eclatante.
Non ti sale perchè quasi sicuramente è limitata dal tdp.
Ma video nei giochi con msi afterburner attivo magari aggiungendo anche i watt che rileva hwinfo non ce l'hai? esempio https://www.youtube.com/watch?v=4D50NyXqFYQ
Ecco come fare per aggiungere i valori su msi
https://postimg.cc/cgJjtN3p
https://postimg.cc/PvpRKz2K
Non uso msi afterburner di solito dato che ho installato il software aorus di giga, però qualche volta potrei provarlo, il problema è che con Destiny 2 a cui sto giocando molto ultimamente non sono accettati vari hud e osd di terze parti quindi posso calcolare solo in background e vedere i valori massimi raggiunti. Potresti intanto eseguire un timespy come ho fatto io dando gli stessi valori per una comparazione sommaria :)
mikael84
23-05-2019, 23:00
8 raster e 128rop su 40cu?
ma è roba vera?
No le rop's sul chip medio saranno al massimo 64. Il vero salto è in geometria.
Un netto vantaggio rispetto a Vega.:)
Free Gordon
24-05-2019, 02:43
No le rop's sul chip medio saranno al massimo 64. Il vero salto è in geometria.
Un netto vantaggio rispetto a Vega.:)
Se Navi avesse 64rbe la vedo possibilissima una "2070+"...
Alla fine era quello che speravo..
Ora c'è "solo" :D da vedere i prezzi...
Gyammy85
24-05-2019, 08:01
Ma è del tutto logico, anche polaris ha capacità geometriche superiori a fiji
Stavolta hanno osato di più e messo più potenza bruta
l'efficienza ad oggi con amd ce la scordiamo, i numeroni..pure. Preferisco i numeroni quindi, se devo scegliere. Sono anni che le prestazioni al vertice (e intendo scheda più veloce sul mercato, senza se ne ma) non ci sono, è ora che tornino, se ne son capaci, che sono fermi a 64 cu e 64rop da quando mio nonno andava in strada a urlare "ultime notizie, i tedeschi sono stati sconfitti dagli americani"
Il bello è che poi non si capacitano del fatto che il mercato vga li ritiene "un'azienda di serie b", chissà mai perchè ... :doh:
1 Un bus fuori dal package ha maggiori latenze, minor velocità e più problemi di interfacciamento.
Un unità rt e tensor occupa il 10 % del die?
* la cache che occupa in uso, ed i compromessi di design ( perchè non basta togliere semplicemente la superfice occupata, ma devi togliere le risorse in più ad esse dedicate ed i compromessi di design per i tragitti e per la gestione degli hot spot).
Un chip dedicato a poche funzioni è più economico da progettare e da evolvere, una modica logica viene subito testata e il debugging di nuove revisioni è più rapido.
In più usare una struttura separata e modulare permette di offrire prodotti più economici:
es: Vega 100 chip top + Centaury 100 = top di gamma.
vega 100 + centaury 80 = media alta
Vega 80 + centauri 80 = media
Vega 80 + Centaury 60 = media bassa.
E possiamo ancora scendere, ma se consideri che possono esserci necessità di assenze di core rt la frammentazione di mercato sale ancora, in fondo non tutti usano la gpu per il ray tracing ( ed all'occorrenza si potrebbe pensare pure di usare un solo core centaury 50 e usarne 4 per la top, 2 per la media ed 1 solo per la medio bassa) in fondo diventa un progetto modulare senza la necessità di avere troppe gpu in cantiere : una vega 100 binnata a vega 80 ed una vega 60 binnata a 40 e 30 ( quindi con 2 gpu ed 1 rpu potresti produrre oltre 10 vga per fascia di prezzo)
Oltretutto, se passasse da IF, non ci sarebbe anche un vantaggio verso il multicore?
il passaggio tra scheda dedicata, cpu e gpu sarebbe veloce, quindi in ambito gioco hai modo di sfruttare una mancata parallelizzazione occupando core scarichi della cpu a calcolare parti di RT.
Probabilmente sbaglio qualcosa nel ragionamento (da profano)
ma queste schede saranno pcie 4?
mikael84
24-05-2019, 11:33
Se Navi avesse 64rbe la vedo possibilissima una "2070+"...
Alla fine era quello che speravo..
Ora c'è "solo" :D da vedere i prezzi...
Questo era un passo importante da fare, ora bisogna vedere l'efficienza degli shader. Io avevo ipotizzato tra V56 e V64 (1800 circa), tendente alla seconda in base al tipo di calcolo, però qua oltre al passaggio ad 8 primitive e 64 rop's, si parla anche di una versione a clock piuttosto elevati.
Per il momento questo è ancora da vedere, come le prestazioni, tuttavia come ti dicevo i prezzi sarebbero stati elevati.
Le 2070 o equivalente AMD a quei prezzi non si possono più vedere, in quanto parliamo di schede poco superiori alle 1080, che costavano così 3 anni fa.:rolleyes:
Ma è del tutto logico, anche polaris ha capacità geometriche superiori a fiji
Stavolta hanno osato di più e messo più potenza bruta
Polaris ha migliorato il culling, ma sempre 4x. Vega invece ha aggiunto il DSBR.
Il raddoppio da 2 a 4x è stato fatto da hawaii, che ha permesso anche di rasterizzare 64 rbe
ninja750
24-05-2019, 11:49
Le 2070 o equivalente AMD a quei prezzi non si possono più vedere, in quanto parliamo di schede poco superiori alle 1080, che costavano così 3 anni fa.:rolleyes:
la 1080 founders è stata presentata 2016 699$
la 2070 founders presentata adesso 599$
le prestazioni sono li.. quindi perchè amd dovrebbe presentare domani la 3080 a meno di 599? beneficienza? facciamo 499$ come le non-founders? oppure volete 399$ come vega perchè non ci sono rtx? in quest'ultimo caso sarebbe magnanima a non fare come la controparte che ha creato una fascia di prezzo in più giustificando una feature ad oggi praticamente inesistente
Ale55andr0
24-05-2019, 11:55
la 1080 founders è stata presentata 2016 699$
la 2070 founders presentata adesso 599$
un'affare :asd:
le prestazioni sono li.. quindi perchè amd dovrebbe presentare domani la 3080 a meno di 599? beneficienza?
no, tipo per vendere più schede e guadagnare mercato. Mia stupida idea eh
fraussantin
24-05-2019, 11:56
la 1080 founders è stata presentata 2016 699$
la 2070 founders presentata adesso 599$
le prestazioni sono li.. quindi perchè amd dovrebbe presentare domani la 3080 a meno di 599? beneficienza? facciamo 499$ come le non-founders? oppure volete 399$ come vega perchè non ci sono rtx? in quest'ultimo caso sarebbe magnanima a non fare come la controparte che ha creato una fascia di prezzo in più giustificando una feature ad oggi praticamente inesistente
Forse perchè arriva 1 anno dopo? Forse perchè non ha rt e tensor core ? Forse perchè deve recuperare quote di mercato? Forse perchè tutti son convinti che i prezzi verdi siano da ladroni?
Secondo me quei prezzi sono delle vs costose di sapphire.
Le reference potrebbero costare anche 50 80 dollari meno. E avrebbe tutto più senso . ( E assieme alle reference anche custom varie come gigabyte o asus msi in vs biventola non oc)
Del resto anche le founders sono vs più costose delle reference
State dando per scontato che quel post su Twitter (cancellato quasi subito) sia vero.
Io direi di aspettare news ufficiali.
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
mikael84
24-05-2019, 12:14
la 1080 founders è stata presentata 2016 699$
la 2070 founders presentata adesso 599$
le prestazioni sono li.. quindi perchè amd dovrebbe presentare domani la 3080 a meno di 599? beneficienza? facciamo 499$ come le non-founders? oppure volete 399$ come vega perchè non ci sono rtx? in quest'ultimo caso sarebbe magnanima a non fare come la controparte che ha creato una fascia di prezzo in più giustificando una feature ad oggi praticamente inesistente
Finiamola di diffendere l'indifendibile da entrambe su via;)
Questo è il post polaris, quelle che saranno le prossime nvidia 2660.
Secondo il tuo ragiomento, e di molti, le prossime 2660 dovrebbero costare sempre 499$, tanto le prestazioni saranno quelle....
AMD non deve regalare nulla, non è una onlus, però a furia di fare cartello i prezzi impenneranno su tutte le fasce.
Quando debuttò la 290, nvidia prese una tranvata tanto forte da fargli crollare i prezzi, la 970 ad esempio, non l'hanno piazzata a 600 euro perchè mediamente andava quanto una 780ti;)
Ok erano minori costi, ma almeno il mercato si era notevolmente mosso.
Free Gordon
24-05-2019, 12:40
Questo era un passo importante da fare, ora bisogna vedere l'efficienza degli shader. Io avevo ipotizzato tra V56 e V64 (1800 circa), tendente alla seconda in base al tipo di calcolo, però qua oltre al passaggio ad 8 primitive e 64 rop's, si parla anche di una versione a clock piuttosto elevati.
Dai :D speriamo efficienza dello scheduling migliorata, 8geo e clocks sui 2Ghz.. (personalmente non mi interessano granché i consumi...ma mi rendo conto che sono FONDAMENTALI in ambito chip mobile/laptop).
Per il momento questo è ancora da vedere, come le prestazioni, tuttavia come ti dicevo i prezzi sarebbero stati elevati.
Le 2070 o equivalente AMD a quei prezzi non si possono più vedere, in quanto parliamo di schede poco superiori alle 1080, che costavano così 3 anni fa.:rolleyes:
A che prezzo te l'aspetti la Navi mid-top da 40CU/64RBE 2.0Ghz?
Polaris ha migliorato il culling, ma sempre 4x. Vega invece ha aggiunto il DSBR. Il raddoppio da 2 a 4x è stato fatto da hawaii, che ha permesso anche di rasterizzare 64 rbe
Infatti a mio modo di vedere, l'ultimo atto "sensato" di GCN... (la 290X).
Anche se obiettivamente anche per colpa del grosso bus a 512bit, consumava assai...
OvErClOck82
24-05-2019, 12:41
la 1080 founders è stata presentata 2016 699$
la 2070 founders presentata adesso 599$
le prestazioni sono li.. quindi perchè amd dovrebbe presentare domani la 3080 a meno di 599? beneficienza? facciamo 499$ come le non-founders? oppure volete 399$ come vega perchè non ci sono rtx? in quest'ultimo caso sarebbe magnanima a non fare come la controparte che ha creato una fascia di prezzo in più giustificando una feature ad oggi praticamente inesistenteAspe, con questo criterio però che si fa, si blocca il rapporto prezzo prestazioni per sempre?
Inviato dal mio COL-L29 utilizzando Tapatalk
Free Gordon
24-05-2019, 12:42
Finiamola di diffendere l'indifendibile da entrambe su via;)
QUOTE.
AMD non deve regalare nulla, non è una onlus, però a furia di fare cartello i prezzi impenneranno su tutte le fasce.
Quando debuttò la 290, nvidia prese una tranvata tanto forte da fargli crollare i prezzi, la 970 ad esempio, non l'hanno piazzata a 600 euro perchè mediamente andava quanto una 780ti;)
Ok erano minori costi, ma almeno il mercato si era notevolmente mosso.
Esatto......
credo che AMD dalla serie 4000 alla serie 200 ha dato molta concorrenza e tanta qualità ad un mercato che era comunque in fermento e concorrenziale. Ho avuto una 4870, una 7850 una 280x e una 380x per finire la storia con la rx480. Poi la sua totale assenza dalla fascia alta e mancanza di competitività mi hanno fatto passare ad nvidia (prima 1070 evga e poi l'attuale 1080) e devo dire che questa situazione rende il gaming pc sopratutto molto di nicchia quando proprio nel momento di boom tra le streaming e l'esport (e fortnite ha contribuito molto) ha fatto rendere conto a centinaia di migliaia di utenti come sia diverso e migliore un gaming al pc a differenza delle console. Non perdonerò mai AMD per aver lasciato morire una divisione grafica che stava facendo cose molto buone e almeno in passato ci provava anche con soluzioni estreme e visionarie a dare una spinta in più (tipo la 295x2!)
Andy1111
24-05-2019, 13:25
Non uso msi afterburner di solito dato che ho installato il software aorus di giga, però qualche volta potrei provarlo, il problema è che con Destiny 2 a cui sto giocando molto ultimamente non sono accettati vari hud e osd di terze parti quindi posso calcolare solo in background e vedere i valori massimi raggiunti. Potresti intanto eseguire un timespy come ho fatto io dando gli stessi valori per una comparazione sommaria :)
Eccone uno :
https://i.postimg.cc/gnypZwLH/timespy.jpg (https://postimg.cc/gnypZwLH)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.