View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
DJurassic
10-01-2019, 13:39
non mi sembra che cambi molto per noi pc gamer
Quando ti rendi conto dei prezzi delle attuali top gamma della sola concorrente rimasta in carreggiata allora realizzi che forse è già cambiato più di quanto era lecito.
techfede
10-01-2019, 13:41
Speriamo almeno che il margine che AMD può fare su queste schede sia abbastanza alto (se sono schede da workstation riciclate), e che l'abbiano prezzata vicino alla 2080 per poterci guadagnare.
Comunque decisamente off limits per me, fascia e prezzi troppo alti :sofico:
Il nabbo di turno
10-01-2019, 13:50
Già. Peccato che TUTTO il settore console è ancora in mano loro.
no ma va bene così, sono solo dettagli :asd:
Facciamo prima a dire che AMD ha zero interesse nel mercato delle schede grafiche PC.
Uno parla di validità del prodotto radeon desktop e tu mi tiri fuori le console.:rolleyes:
Già. Peccato che TUTTO il settore console è ancora in mano loro.
no ma va bene così, sono solo dettagli :asd:
Facciamo prima a dire che AMD ha zero interesse nel mercato delle schede grafiche PC.Per ora è in mano loro, in futuro chissà.
Alla fine dipende sempre da quello che offri.
Un sistema unico by Intel potrebbe essere possibile fra un paio di generazioni
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Il nabbo di turno
10-01-2019, 13:53
Nel breve periodo sicuramente, pero' alle spalle hanno giusto qualche miliarduccio di capitale in piu', si puo' sperare in qualcosa...
Miliarducci o meno, non è che una testa pensante in più ti tira fuori il miracolo da dove sono ora, le integrate intel nel 2019 sono allo stesso livello di quelle che erano nel 2015 lato uarch, ci sono dei bench in cui perfino una misera vega 3 dell'athlon 200ge ha performance similari all'igpu del'9900k...
Il miracolo è tutto meno che scontato.
molto deluso per la gpu,da simpatizzante amd devo ammettere che la 2060 ha attualmente il miglior rapporto prezzo prestazioni
fortuna che amd in quella fascia ha ancora vega56
e forse era molto meglio usare i 12nm per il vecchio vega,una vega 56 a 12nm a 300/350€ sarebbe stato un best buy,circa come vega64,1080,2060 e poco meno la 2070
hanno scelto polaris:rolleyes: quando la 580 gia' era leggermente sopra la 1060 costando pure nettamente meno
maxmix65
10-01-2019, 13:59
Forse e' old??
https://i.postimg.cc/n9C6DCKj/10061034412l.jpg (https://postimg.cc/n9C6DCKj)
appleroof
10-01-2019, 14:02
E' semplicemente l'ennesimo shrink di Fiji (con rimaneggiamenti vari) fatto per spendere il meno possibile in progettazione. :)
Stanno a galla così, avendo cmq una gpu che pareggerà la 2080. ;) Mica male da un certo pdv. :)
Il vero problema arriva dopo...con Navi. La nuova fascia media deve convincere ed essere perlomeno vicina alla futura 3060. :) Dato che, purtroppo per noi, la sua uscita non è dietro l'angolo (manco un cenno a questo CES, la presenteranno al Computex con uscita a Settembre quindi... :( )
Ok, capito anzi grazie perché non seguo più come prima e quindi non ho info dettagliate.
Il tutto non cambia però la mia opinione in merito, aggiungo solo che evidentemente non hanno abbastanza risorse per dedicarsi contemporaneamente a GPU e CPU, per dar vita ad architetture competitive su entrambi i fronti contro concorrenti che sostanzialmente fanno rispettivamente solo GPU e solo CPU
Angeland
10-01-2019, 14:03
Quoto.
Diciamo che hanno una GPU che può competere con la 2080 ma il problema sta nella fascia sotto.
La 2060 va come una vega64 / 1070ti / 1080 e costa 350 euro.
Il problema è che la 2060 dovrebbe costare 100 euro in meno :cry:
:asd:
appleroof
10-01-2019, 14:05
Cmq non è uno shrink di Fiji come non lo era Vega, anzi, lo è ancora meno, solo che a lui piace dire così :>
È uno shrink di Vega?
non e' solo questione di risorse, serve il tempo per smaltire i magazzini, vedi nvidia che ha bruciato miliardi perche' ha i magazzini pieni di 1060
le vega comunque offrono prestazioni e prezzi in linea con il concorrente a parte la 2080ti, quindi non c'e' alcun motivo di rilasciare un'architettura nuova.
Il nabbo di turno
10-01-2019, 14:21
No, è una pesante revisione.
Hanno raddoppiato il memory controller (e messo HBM full spec da 2Gbps), aggiunto la logica ed i registri per fare FP64 a 2:1 (che in gaming non è utilizzata) e a quanto pare raddoppiato internamente le RBE (quelle che ora chiamano Pixel Engine, il corrispettivo delle ROPs di nVidia per intendersi).
In ogni caso gli shrink diretti non esistono più. Nemmeno la RX590 è uno shrink diretto della RX580 nonostante sia 12nm vs 14nm, perché la dimensione del chip è la stessa ma gli "oggetti" sono più piccoli e circondati da dark silicon, migliorando il comportamento termico ed elettrico ma non guadagnando in densità (avessero dovuto riprogettarlo non l'avrebbero mai fatto per un salto comunque piccolo).
Pesante revisione qui, pesante passo in avanti la, poi sempre 300w prende, sempre prestazioni/consumi perde rispetto alla diretta concorrente di pari fascia con performance allineate, il tutto con la carta dei 7nm.
L'unica cosa che la fa preferire alla 2080 è la maggior vram, ma per il resto nvidia ha fatto meglio.
appleroof
10-01-2019, 14:22
No, è una pesante revisione.
Hanno raddoppiato il memory controller (e messo HBM full spec da 2Gbps), aggiunto la logica ed i registri per fare FP64 a 2:1 (che in gaming non è utilizzata) e a quanto pare raddoppiato internamente le RBE (quelle che ora chiamano Pixel Engine, il corrispettivo delle ROPs di nVidia per intendersi).
In ogni caso gli shrink diretti non esistono più. Nemmeno la RX590 è uno shrink diretto della RX580 nonostante sia 12nm vs 14nm, perché la dimensione del chip è la stessa ma gli "oggetti" sono più piccoli e circondati da dark silicon, migliorando il comportamento termico ed elettrico ma non guadagnando in densità (avessero dovuto riprogettarlo non l'avrebbero mai fatto per un salto comunque piccolo).
Ah bè altro che shrink allora
Grazie anche a te delle info 👍
mikael84
10-01-2019, 14:34
cioè per loro la differenza da vega è che raddoppia la ram, le rops raddoppiate si vede sono un dettagliuccio inutile e irrilevante :rolleyes:
a pari TDP un 25% di prestazioni in più mi sembra che lo si sapeva già da ryzen 2 o sbaglio?
i 7nm non sono in realtà la metà dei 14 eh e la sola densità non dice comunque tutto
Può sembrare un dato di marketing, per me è fondamentale. Gli 8gb se ti affacci nei 4k sono pochi. Se seguivi i thread nvidia, sono sempre stato contro alla politica di utilizzare mc da 1gb. Ci sono giochi che in 4k, gli 8gb li superano.
In un chip di questi costi, non vorrei trovarmi ad abbassare texture. Questo l'ho già pagato con Kepler, in sli.
vega, non amd, ai tempi di vliw4 efficienza era marchio di fabbrica....e ora ocntinua ad esserlo lato cpu, ed è sempre AMD
Vliw4 è ottimo sui cicli, quando si coinvolgono gruppi di CU. Ora semplificati con Vega 2.
Tuttavia, come Kepler ed anche Fermi (460/560), ha il problema delle dipendenze.
Ogni wavefront (warp nvidia), si ritrovava quasi sempre ad avere un problema di dipedenza, ovvero:
WF 1 parte
WF2 parter
WF 3 aspetta che WF2 termini
WF3 parte
WF4 parte
Risultato, 48 ALU ufficialmente lavorano, una aspetta.
Inoltre nel calcolo paralello non riesci sempre a far lavorare tutto contemporaneamente.
Vliw 4, era praticamente un 384 + 384+ 384+384, in dipendenza i 1536 st totali scendevano a 1152.
Spesso nelle ALU veniva caricata la SFU, dimezzando nei casi estremi il ratio totale.
Con GCN, via vettore questo non succede, lo scheduler, ordina 1 istruzione per vettore, quindi si abbattono le dipendenze, ma è meno operativo quando ti ritrovi a trattare più gruppi di CU.
Per dire 256 thread Vliw li puoi effettuare con 16 cicli, 4 GCN con 23 (16+7).
Il nabbo di turno
10-01-2019, 14:36
Ah si?
Parlavi di quello?
E io che pensavo di aver letto ".. è davvero finita per amd lato gaming."
Ah ma in effetti hai scritto proprio così. :asd:
Ah siamo sul thread della ps4 o delle gpu radeon desktop per gaming?
Il bello è che credete pure di aver ragione mandando avanti sta pantomima di emoticon e pseudotrollate cercando di difendere prodotti che hanno delle lacune.
fraussantin
10-01-2019, 14:47
Guarda è tutto molto semplice.
Radeon VII ha tutti gli stessi problemi di RTX 2080 a parte che:
+ non esplode (fino a prova contraria)
+ non ha poca VRAM per il 4K
+ è certificata per funzionare su tutti i monitor freesync
- non ha la parte RT
Il resto sono chiacchiere inutili, in base a queste cose scegli cosa preferisci e vivi felice. Oppure non scegli nessuna delle due perché non te le puoi/vuoi permettere. Fine.E allora perche in nvidia sono dei ladroni ed in amd fanno solo del bene?
La tecnologia rt sarà anche inutile come il deep learning o come cavolo lo chiamano , ma costa un sacco di soldi a svilupparlo .
Allora vogliamo applicare la par condicio dicendo che entrambe han fatto cartello e ognuno punta a vanderti un prodotto diverso , ma spennandoti il più possibile.
Non è forse così?
Ps il fatto che le rtx si rompono non è che è un guadagno per nvidia èè..
E i monitor non certificati funzionano alla solita maniera sulle nvidia solo che non sono ai livelli del gsync o per un motivo o per un altro.
E allora perche in nvidia sono dei ladroni ed in amd fanno solo del bene?
La tecnologia rt sarà anche inutile come il deep learning o come cavolo lo chiamano , ma costa un sacco di soldi a svilupparlo .
Allora vogliamo applicare la par condicio dicendo che entrambe han fatto cartello e ognuno punta a vanderti un prodotto diverso , ma spennandoti il più possibile.
Non è forse così?
Ps il fatto che le rtx si rompono non è che è un guadagno per nvidia èè..
E i monitor non certificati funzionano alla solita maniera sulle nvidia solo che non sono ai livelli del gsync o per un motivo o per un altro.
ni, la rt ad oggi è una delle tante freature "proprietarie" o non utilizzate come standard. Quindi c'è sempre la doppia strada di "implemento subito per trovarmi il lavoro già avanti" o "ad oggi non me serve quindi pospongo la cosa alla prossima generazione". Imho credo anche che amd sia orientata più che ad unità dedicate a fare RT nel core con unità generiche.
Quindi una feature non utilizzata come l'RT ad oggi vale come le tante feature che ha vega che restano inutilizzate.
fraussantin
10-01-2019, 15:19
E quando l'ho scritto riguardo a questo?
Ah sì? Svilupparlo nell'hardware? E chi lo dice? E le HBM non costano un sacco di soldi e nonostante questo ti danno il doppio di ram della concorrente? :>
Se abbiano fatto cartello non lo so, ma sono abbastanza certo che senza le RTX questa VII non sarebbe uscita, mentre i prezzi folli delle RTX hanno reso economicamente possibile VII a prezzi "di mercato".
E a me consumatore che mi frega di chi ci guadagna più o meno? Io voglio roba che abbia il minimo di qualità sufficiente ad almeno funzionare senza rompersi, non roba economica con un MTBF di 10 ore. E questo a maggior ragione quando il prezzo che mi chiedi è per un prodotto di lusso. Poi se tu consumatore preferisci meno ram e più probabilità di doverti rompere le balle con l'RMA (magari due volte), eh come ho detto proprio nel post che hai quotato quelli sono i parametri su cui scegliere e sei ben libero di spendere i tuoi soldi in quel che ritieni essere la scelta migliore, indipendentemente dal fatto che io pensi che sia la peggiore.
Huang ha detto che i monitor sono profilati espressamente nel driver. Solo quei 12. Vedi tu cosa fare dell'informazione, io preferisco l'originale alla copia, ma anche qui son gusti.E come direbbe banfi ... Cmn freg a me delle hbm? Che vantaggi mi danno in game?
Mo se amd fa le cazzate è colpa di nvidia ... LOL
Ancora qui a dire perchè amd usa le HBM? :asd: minchia oh, fatevene una ragione..........
"il mio falegname con 30.000£ la fa meglio"
Il nabbo di turno
10-01-2019, 15:27
Guarda è tutto molto semplice.
Radeon VII ha tutti gli stessi problemi di RTX 2080 a parte che:
+ non esplode (fino a prova contraria)
+ non ha poca VRAM per il 4K
+ è certificata per funzionare su tutti i monitor freesync
- non ha la parte RT
Il resto sono chiacchiere inutili, in base a queste cose scegli cosa preferisci e vivi felice. Oppure non scegli nessuna delle due perché non te le puoi/vuoi permettere. Fine.
Non mi sembra che la 2080 consumi 300w per avere quelle performance, e le rtx che muoiono veramente troppo spesso sono le 2080 ti, ma le 2080/70 sono abbastanza meno soggette a deperimenti rapidi.
L'unico vantaggio è la vram doppia, ma tolto quella...
Einhander
10-01-2019, 15:31
E come direbbe banfi ... Cmn freg a me delle hbm? Che vantaggi mi danno in game?
Mo se amd fa le cazzate è colpa di nvidia ... LOL
Vabbeh dai...si pensava uscissero a giugno e invece arrivano "domani".
Si pensava -dalle recenti info- che andasse come vega 64 + 15%, e invece va "almeno" il 25% in piu'.
Ha sedici giga di ram, che non servono perche' nvidia ne ha 8, ma come qui qualcuno ha segnalato servono eccome.
E' la declinazione piu' potente del chip, non vieta che ne esista una versione piu' piccola ad un prezzo piu' aggressivo e allineata alla concorrenza, magari con 8-16 gb di vram (penso vs la 2060).
Tu paghi quello compri, e se tanto mi da tanto, penso che qui potresti comprare qualcosa che prima di tutto funziona, no perche' dilla' a sto giro non e' certo manco questo...paghi anche dei driver che sono anni luce in termini di suite avanti alla controparte.
Poi oh, se invece il problema e' che consuma uguale o di piu', non capisco...quando si parla di intel il consumo per l'hardcore gamer non importa anche se mangia come un gpu di fascia media, e costa pure. Mentre per una gpu di fascia medio alta che ha tutt'altro costo diventa un fattore rilevante.
inoltre, cosa non da poco, le prox scatolette avranno vega e derivati dentro, e se tanto mi da tanto, ovvero vedendo recenti giochi come vanno sulle VECCHIE amd, mi vien da pensare che la situazione potra solo che migliorare in seguito.
pero' oh meglio 50 watt in meno e RMA al 50% e la meta' della vram per schede video spacciate per il 4k (scritto sulle scatole).
Lato GpGpu e uso per il settore semipro -creazione di contenuti- invece nulla da dire in termini positivi, siam ancora fermi all'eta' della pietra, ma almeno iniziano a scongelarsi anche se in termini di compatibilita' non contano na cippa ancora-.
Il nabbo di turno
10-01-2019, 15:35
https://twitter.com/AdoredTV/status/1083140603712540672
E se lo dice il messia de noi altri...
sgrinfia
10-01-2019, 15:45
[QUOTE=Veradun;45996213]Quando l'ho scritto sul thread RTX mi hanno detto che non è vero e scoppiano tutte.
Buone per capodanno:D
Gyammy85
10-01-2019, 15:47
https://twitter.com/AdoredTV/status/1083140603712540672
E se lo dice il messia de noi altri...
Si davvero vergognoso.
Lisa avrebbe dovuto scusarsi con lui per non aver parlato di navi, che vuoi farci la compagnia è sua e ci fa quello che vuole.
fraussantin
10-01-2019, 15:51
Vabbeh dai...si pensava uscissero a giugno e invece arrivano "domani".
Si pensava -dalle recenti info- che andasse come vega 64 + 15%, e invece va "almeno" il 25% in piu'.
Ha sedici giga di ram, che non servono perche' nvidia ne ha 8, ma come qui qualcuno ha segnalato servono eccome.
E' la declinazione piu' potente del chip, non vieta che ne esista una versione piu' piccola ad un prezzo piu' aggressivo e allineata alla concorrenza, magari con 8-16 gb di vram (penso vs la 2060).
Tu paghi quello compri, e se tanto mi da tanto, penso che qui potresti comprare qualcosa che prima di tutto funziona, no perche' dilla' a sto giro non e' certo manco questo...paghi anche dei driver che sono anni luce in termini di suite avanti alla controparte.
Poi oh, se invece il problema e' che consuma uguale o di piu', non capisco...quando si parla di intel il consumo per l'hardcore gamer non importa anche se mangia come un gpu di fascia media, e costa pure. Mentre per una gpu di fascia medio alta che ha tutt'altro costo diventa un fattore rilevante.
inoltre, cosa non da poco, le prox scatolette avranno vega e derivati dentro, e se tanto mi da tanto, ovvero vedendo recenti giochi come vanno sulle VECCHIE amd, mi vien da pensare che la situazione potra solo che migliorare in seguito.
pero' oh meglio 50 watt in meno e RMA al 50% e la meta' della vram per schede video spacciate per il 4k (scritto sulle scatole).
Lato GpGpu e uso per il settore semipro -creazione di contenuti- invece nulla da dire in termini positivi, siam ancora fermi all'eta' della pietra, ma almeno iniziano a scongelarsi anche se in termini di compatibilita' non contano na cippa ancora-.Sta vega 64 quando fa comodo va come una 2080ti altre volte va come una 2060 .. mah..:asd:
Einhander
10-01-2019, 15:53
Quanto vorrei che amd si decidesse a stringere accordi "seri" con i principali divulgatori di render engine per i settori creativi -ad occhio chaos group, redshift ecc ecc- ci metterei meno di 3 secondi se avessero prestazioni paragonabili alle controparti desktop nvidia a silurare quest'ultima e passare ad amd gia' solo per la quantita' di ram al costo a cui te la rifila...di la mi ci vogliono 1500 euro e se scoccia :rolleyes:
Lunar Wolf
10-01-2019, 15:53
molto deluso per la gpu,da simpatizzante amd devo ammettere che la 2060 ha attualmente il miglior rapporto prezzo prestazioni
fortuna che amd in quella fascia ha ancora vega56
e forse era molto meglio usare i 12nm per il vecchio vega,una vega 56 a 12nm a 300/350 sarebbe stato un best buy,circa come vega64,1080,2060 e poco meno la 2070
hanno scelto polaris:rolleyes: quando la 580 gia' era leggermente sopra la 1060 costando pure nettamente menoOk ora si capisce da dove arriva questa delusione... Volevate una AMD simil 2080 al prezzo inferiore della 2060...qualcosa effettivamente non quadra e di certo non lato AMD...
Einhander
10-01-2019, 15:56
Sta vega 64 quando fa comodo va come una 2080ti altre volte va come una 2060 .. mah..:asd:
ma guarda io non ho detto nulla, mi riferisco ai rumor, mai detto che va come una 1080ti e quant'altro.
Parli di altri ergo non vedo perche' dire questo in riferimento a quanto da ME scritto.
Mi sono limitato a dire che dagli ultimi post si parlava di 15% in piu', sulla vega 64 e se FORSE hai letto il mio post non ho fatto alcun paragone con ipotetiche gpu nvidia, se non alla concorrente dichiarata ufficialmente da amd, ovvero la 2080.
Poi oh se di tutto quello che ho scritto quello che hai capito tu e' cio' che non HO MAI DETTO, andiamo bene amico mio :asd:
P.s.: e' frustrante scrivere 30 post l'anno e in merito alla meta' le risposte che ricevi sono relative a quanto non si e' MAI detto.
Gyammy85
10-01-2019, 15:59
Ok ora si capisce da dove arriva questa delusione... Volevate una AMD simil 2080 al prezzo inferiore della 2060...qualcosa effettivamente non quadra e di certo non lato AMD...
L'equivoco di base è il seguente
Avevano leakato le presunte specifiche di navi, che essendo nuova arch su pp nuovo dovrebbero andare appunto più di vega 64 a prezzo basso.
Siccome hanno deciso di non presentarla per ora e di mettere vega VII, allora tutti si scandalizzano perché avevano detto 250 ed è 699, ma non è così.
Sta vega 64 quando fa comodo va come una 2080ti altre volte va come una 2060 .. mah..:asd:
Se ti riferisci al mio post ho semplicemente preso come riferimento la review della 2060 di techpowerup. 1070ti, 1080, vega 64(reference, non liquidata) e 2060 vanno praticamente uguali (+/- 3% a seconda delle risoluzioni).
Prendo quel sito di riferimento perché mi piacciono i loro grafici, non per altro :)
L'equivoco di base è il seguente
Avevano leakato le presunte specifiche di navi, che essendo nuova arch su pp nuovo dovrebbero andare appunto più di vega 64 a prezzo basso.
Siccome hanno deciso di non presentarla per ora e di mettere vega VII, allora tutti si scandalizzano perché avevano detto 250 ed è 699, ma non è così.
Quoto.
Ok ora si capisce da dove arriva questa delusione... Volevate una AMD simil 2080 al prezzo inferiore della 2060...qualcosa effettivamente non quadra e di certo non lato AMD...
Io mi sarei aspettato una GPU con le prestazioni della 2060 a 100 euro in meno. Ma per il semplice fatto che quella è la GPU che comprerei per sostituire la mia 480.
Quella GPU dovrebbe essere Navi, sarà semplicemente presentata più avanti. :)
Einhander
10-01-2019, 16:38
L'equivoco di base è il seguente
Avevano leakato le presunte specifiche di navi, che essendo nuova arch su pp nuovo dovrebbero andare appunto più di vega 64 a prezzo basso.
Siccome hanno deciso di non presentarla per ora e di mettere vega VII, allora tutti si scandalizzano perché avevano detto 250 ed è 699, ma non è così.
L'equivoco base e' il due pesi e due misure.
Seguito a ruota da, a quanto pare, dire qualcosa in risposta a quanto asserito da altri (che pero' non hanno detto :asd: )
:rolleyes: :rolleyes:
majinbu7
10-01-2019, 17:02
Ma siate seri per una volta e smettetela di litigare per due case AMD/Nvidia, che stanno facendo un bel cartellone sparando prezzi esagerati...di questo passo nel giro di 3/4 anni se non cambia nulla ci ritroveremo tutti a giocare sulle consolle perchè il mercato pc game andrà a picco...e sinceramente la cosa mi rattrista parecchio... :muro:
ninja750
10-01-2019, 17:04
Io mi sarei aspettato una GPU con le prestazioni della 2060 a 100 euro in meno. Ma per il semplice fatto che quella è la GPU che comprerei per sostituire la mia 480.
senti la necessità di una gpu più potente in FHD?
kira@zero
10-01-2019, 17:05
Ma siate seri per una volta e smettetela di litigare per due case AMD/Nvidia, che stanno facendo un bel cartellone sparando prezzi esagerati...di questo passo nel giro di 3/4 anni se non cambia nulla ci ritroveremo tutti a giocare sulle consolle perchè il mercato pc game andrà a picco...e sinceramente la cosa mi rattrista parecchio... :muro:
Concordo in todos :(
Ale55andr0
10-01-2019, 17:07
Ok ora si capisce da dove arriva questa delusione... Volevate una AMD simil 2080 al prezzo inferiore della 2060...qualcosa effettivamente non quadra e di certo non lato AMD...
scusa ma...non era in questi lidi che si inneggiava e si percultrolleggiava il green visto che si aspettava una simili vega 64 plus 15% a 300 e ti danno pure il resto o sbaglio? è arrivato un minestrone di non si sa cosa (un po' questo e un po' quello) a 700 + furto del 22% che nonostante i 7nm continua a non andare nemmeno in pareggio
questa è carina però :asd: ("7nm is so efficient")
https://media.giphy.com/media/1fo52iTwkHmZlQWVG1/giphy.gif
Lunar Wolf
10-01-2019, 17:26
Quoto.
Io mi sarei aspettato una GPU con le prestazioni della 2060 a 100 euro in meno. Ma per il semplice fatto che quella è la GPU che comprerei per sostituire la mia 480.
Quella GPU dovrebbe essere Navi, sarà semplicemente presentata più avanti. :)E secondo voi navi costerà 200 euro e andrà come una VGA da 600 euro giusto?
maxmix65
10-01-2019, 17:29
Comunque stanno calando di brutto i prezzi della controparte in tedesconia...
Questa mossa c'era da aspettarsela
Il nabbo di turno
10-01-2019, 17:56
Io non ci sto capendo più niente, non s'era detto che i processori Ryzen3 uscivano a Marzo-Aprile e le schede video Navi 7nm ad Agosto-Settembre?
Cioè, han lanciato la 590 per la fascia media il mese scorso e presentato la "Titan" delle Vega adesso. E' un modo elegante per dire che nel 2019 AMD si dedicherà soltanto ai processori e lato GPU non faranno un bel niente? :D
Vega 7 è un rimasuglio della produzione delle instinct/firepro, serve solo per smaltire le unità extra rimaste, non è neanche full chip.
Navi se la lanciano quest'anno, dovrebbe coprire la fascia delle 2060/70, impossibile che un chip di 200 mm^2 con 8gb gddr6 faccia meglio di un chip di 330 mm^2 con 16gb hbm2...
Minkia alessandro ma almeno aspettare che escano e vengano recensite è chiedere troppo prima di dare giudizi no eh?
Lunar Wolf
10-01-2019, 17:59
Io non ci sto capendo più niente, non s'era detto che i processori Ryzen3 uscivano a Marzo-Aprile e le schede video Navi 7nm ad Agosto-Settembre?
Cioè, han lanciato la 590 per la fascia media il mese scorso e presentato la "Titan" delle Vega adesso. E' un modo elegante per dire che nel 2019 AMD si dedicherà soltanto ai processori e lato GPU non faranno un bel niente? :DO magari lato gpu ci stanno ancora lavorando e le ipotesi possono essere 2...o hanno delle belle carte e attendono la next Gen verde o stanno bluffando cercando di rimanere più tempo seduti a giocare... Secondo me è la prima che vorranno ripetere il successo ottenuto sulle CPU...
E secondo voi navi costerà 200 euro e andrà come una VGA da 600 euro giusto?
Mi sembra di aver scritto che mi aspetto prestazioni simili ad una 2060 (che costa 350 euro) ad un prezzo inferiore di 100 euro! Poi se costerà 50 euro in meno andrà bene comunque.
Lunar Wolf
10-01-2019, 18:31
Mi sembra di aver scritto che mi aspetto prestazioni simili ad una 2060 (che costa 350 euro) ad un prezzo inferiore di 100 euro! Poi se costerà 50 euro in meno andrà bene comunque.Dai tempo di far uscire la scheda con quelle prestazioni che oggi sarebbe la Vega 56/64..con qualche undervolt va che è Na meraviglia
Angeland
10-01-2019, 18:42
Io non capisco chi si lamenta del prezzo, non ricordo il listino della Fury X appena uscita, ma ad agosto 2017 anche la Vega 64 Liquid fu lanciata a 699$, il prezzo della proposta top gamma è rimasto invariato.
Mi pare 699 la liquid, 599 la aria e 100$ in meno se acquistate nei kit con ryzen
Ale55andr0
10-01-2019, 19:30
Minkia alessandro ma almeno aspettare che escano e vengano recensite è chiedere troppo prima di dare giudizi no eh?
le triventole e il doppio 8 stanno li perchè è parca, ma aspettiamo conferma nelle rece. Le prestazioni ce le ha date amd in un modo un po' meh
Angeland
10-01-2019, 19:31
Mi pare 699 la liquid, 599 la aria e 100$ in meno se acquistate nei kit con ryzen
Non ricordo di preciso, c'era anche uno sconto sui monitor.
Lunar Wolf
10-01-2019, 19:35
Io non capisco chi si lamenta del prezzo, non ricordo il listino della Fury X appena uscita, ma ad agosto 2017 anche la Vega 64 Liquid fu lanciata a 699$, il prezzo della proposta top gamma è rimasto invariato.Vogliamo parlare della 7990? Forno da 400watt e 1000euro di gpu?
Windtears
10-01-2019, 19:50
:asd:
Quando mette le funzionalità diverse nv1d1a paga le software house per toglierle anche dopo che sono state implementate (Assassin's Creed DX10.1) per non sfigurare.
i see, you are a man of culture as well (cite). ;)
AceGranger
10-01-2019, 20:15
La scheda a 5 ventole è figa però! :D
...cmq boh anche io sono un po' scettico, se la 2080 gestirà il freesync in maniera convincente sarà difficile consigliare l'acquisto della prima AMD capace di gestire il 4k.
Cioè, costasse 600 euro, ok, ma 800 son troppi... :(
Per i prosumer potrebbe essere valida, ma l'unico che potrebbe usarla in tal senso è AceGranger, che però dubito farà l'acquisto... :D :D :D
ma manco per il caz..
mai piu GPU per software Pro by AMD; i driver fanno schifo, ma veramente schifo; Bug a non finire.
lato gaming avranno anche migliorato le cose ( non gioco, ma leggendo in giro sembrerebbe essere migliorata molto ), ma lato pro fa veramente cacare.
AceGranger
10-01-2019, 20:30
Io non capisco chi si lamenta del prezzo, non ricordo il listino della Fury X appena uscita, ma ad agosto 2017 anche la Vega 64 Liquid fu lanciata a 699$, il prezzo della proposta top gamma è rimasto invariato.
la coerenza vorrebbe che chi si è lamentato del prezzo della RTX si lamenti in egual modo del prezzo di questa, visto che costa uguale alla 2080 e va uguale :asd:
DJurassic
10-01-2019, 20:32
Uno parla di validità del prodotto radeon desktop e tu mi tiri fuori le console.:rolleyes:
Hai scritto che AMD è finita sul lato gaming e io ti ho risposto proprio sul lato gaming che ti ricordo non essere composto esclusivamente dai PC, anzi.
Per ora è in mano loro, in futuro chissà.
Alla fine dipende sempre da quello che offri.
Un sistema unico by Intel potrebbe essere possibile fra un paio di generazioni
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Tanto per dire quanto AMD sia finita:
https://www.spaziogames.it/xbox-scarlett-phil-spencer-partnershp-amd/
Il nabbo di turno
10-01-2019, 20:37
Hai scritto che AMD è finita sul lato gaming e io ti ho risposto proprio sul lato gaming che ti ricordo non essere composto esclusivamente dai PC, anzi.
Se io vado in una pizzeria(questo thread), e mi lamento che il cibo faccia schifo, mi sto lamentando di una pizza(gpu di cui si parla di questo thread) o di un altro tipo cibo(soc per console)?:rolleyes:
Angeland
10-01-2019, 20:45
la coerenza vorrebbe che chi si è lamentato del prezzo della RTX si lamenti in egual modo del prezzo di questa, visto che costa uguale alla 2080 e va uguale :asd:
In realtà sembra che la Radeon Vii vada anche più forte, ma imho non è questo il punto.
Secondo me chi si lamenta della cifra si aspettava un prezzo di favore da AMD così da poter acquistare la RTX scontata :asd:
DJurassic
10-01-2019, 20:46
Se io vado in una pizzeria(questo thread), e mi lamento che il cibo faccia schifo, mi sto lamentando di una pizza(gpu di cui si parla di questo thread) o di un altro tipo cibo(soc per console)?:rolleyes:
Si hai ragione in pieno, ma visto come avevi scritto mi sembrava doveroso puntualizzare tramite un dato concreto che gli introidi di AMD ad oggi provengono per una grandissima fetta dal mercato console, poi da quello CPU e solo in minima parte dal settore GPU, motivo per cui secondo me manco si sbattono più di tanto nel fronteggiare il loro competitor.
Dire che è defunta sul lato gaming è un dato falso o perlomeno incompleto. Forse avresti dovuto dire che è defunta sul lato gaming enthusiast relativo al PC, considerato che ancora oggi c'è tanta gente che monta una scheda video rossa nonostante la scelta proposta dalla rivale.
scorpion73
10-01-2019, 20:55
Vedendo la scheda mi sono chiesto una cosa, probabilmente già notata da molti di voi ma non ho spulciato il thread troppo indietro: la scheda è a 7nm, e si notano 2 connettori 8 pin.
Mi chiedo quanto consumi e scaldi sta scheda... e fortuna che è a 7nm, sennò il case diventava peggio dell'Etna sti giorni...
Voglio dire: se si critica Nvidia per aver prodotto degli altoforni, AMD mi pare l'abbia superata a sto giro, considerando che parliamo di una scheda 12nm vs 7nm....
Ale55andr0
10-01-2019, 21:26
Stai rompendo l'anima a tutti i presenti, ecco cosa stai facendo. :D
No, quell'onore spetta a me :O
Windtears
10-01-2019, 21:51
No, quell'onore spetta a me :O
/sarcasm (si dovrebbe capire, ma meglio precisare su)
no, tu hai scritto troppe volte che è meglio vega 2 perché ha più vram.. non sei più credibile... dentro di te cominciano palpitazioni rosse. :asd:
Gyammy85
10-01-2019, 21:59
https://i.postimg.cc/XNHrsPc9/photo-2019-01-10-18-53-13.jpg (https://postimages.org/)
Einhander
10-01-2019, 23:04
la coerenza vorrebbe che chi si è lamentato del prezzo della RTX si lamenti in egual modo del prezzo di questa, visto che costa uguale alla 2080 e va uguale :asd:
Andrebbe specificato che quelle prestazioni li in casa amd non le avevi visto che sono vicine alla 1080ti...mentre in casa nvidia si, appunto con la 1080..ergo allo stesso prezzo ci sono prestazioni cmq superiori...della stessa percentuale in merito alla differenza tra 1080 e 1080ti....solo che la 1080ti costa di piu' anche oggi e ha pure meno vram...un secchio in meno.
Lato pro...lho detto prima, amd non pervenuta e fidati che vorrei tanto si facesse viva in modo serio che per avere un po' di memoria video disponibile con nvidia devi sudare dollari...
Ho fatto il paragone con la scorsa gen perche' attualmente il delta di prezzo tra la 2080 e la 2080ti e' vicino al 100% street price -con, pero', una possibilita' di RMA solo del 30%-.
AceGranger
10-01-2019, 23:20
Andrebbe specificato che quelle prestazioni li in casa amd non le avevi visto che sono vicine alla 1080ti...
ma no scusa, le avevi anche prima...
VEGA 64 è nella fascia della 1080, questa VEGA 7 è nella fascia della 2080, un guadagno medio del 30% per entrambe.
non è cambiato nulla rispetto a prima, se non che ora per pareggiare, a questo giro, son dovuti ricorrere ad un salto di nodo.
Ho fatto il paragone con la scorsa gen perche' attualmente il delta di prezzo tra la 2080 e la 2080ti e' vicino al 100% street price -con, pero', una possibilita' di RMA solo del 30%-.
guarda, con Amazon un RMA lo risolvi in 2 giorni, i driver te li tieni e puoi solo sperare.
Se sommo il tempo perso per via dei driver di merda ( sopratutto quelli dei primi 6 mesi ), potrei fare tranquillamente 3-4 RMA e stare comunque di gran lunga in vantaggio :asd:
Ale55andr0
11-01-2019, 00:30
/sarcasm (si dovrebbe capire, ma meglio precisare su)
no, tu hai scritto troppe volte che è meglio vega 2 perché ha più vram.. non sei più credibile... dentro di te cominciano palpitazioni rosse. :asd:
se me la comprate voi mi limono pure lisa su per 0.99 sec :read:
se ci aggiungete un 8 core ryzen 3000 potrei anche pensare ad altro vestendomi da profilattico e tappandomi tutto il tappabile (...si sa mai :asd: ) :read:
Einhander
11-01-2019, 02:44
ma no scusa, le avevi anche prima...
VEGA 64 è nella fascia della 1080, questa VEGA 7 è nella fascia della 2080, un guadagno medio del 30% per entrambe.
non è cambiato nulla rispetto a prima, se non che ora per pareggiare, a questo giro, son dovuti ricorrere ad un salto di nodo.
guarda, con Amazon un RMA lo risolvi in 2 giorni, i driver te li tieni e puoi solo sperare.
Se sommo il tempo perso per via dei driver di merda ( sopratutto quelli dei primi 6 mesi ), potrei fare tranquillamente 3-4 RMA e stare comunque di gran lunga in vantaggio :asd:
Non mi sono spiegato...non erano presenti tali prestazioni in casa AMD, insomma mancava una scheda in grado di garantire delle prestazioni al livello di una 1080ti...
Era chiaro mi riferissi al settore gaming e nn mi pare che li la situazione sia male, anzi, direi che sono avanti rispetto alla concorrenza (lato driver gaming) e su questo ho testato di prima mano in quanto ho sia una amd che una nvidia -980ti-.
...
Per quanto riguarda il nostro "settore" (creazione di contenuti, cgi, render e quant'altro) manco mi esprimo perche' qui la situazione di amd e' a dir poco tragica, come ho detto gia' diverse volte anche a Gyammy..
Free Gordon
11-01-2019, 04:34
È uno shrink di Vega?
Certo che è uno shrink....all'80% buono. ;)
Ed è tutto in eredità da Fiji, con migliorie certamente...ma poche cose che possono modificare effettivamente la resa a parità di clock.
Coi 7nm ora...dato che ci stavano con lo spazio, son tornati anche a un bus da 4096bit e in più hanno aggiunto 64ROPs..
Ma la sostanza non cambia. Prendono prestazioni con gli shrink e l'incremento di frequenze. Nel caso di Vega7 anche grazie allo sgravio della banda e al maggiore fillrate (128ROPs). :)
fraussantin
11-01-2019, 07:07
https://www.tomshardware.com/news/amd-radeon-vii-specs-pricing,38414.html
Beh in questo campo , almeno finchè qualcuno non sviluppa quelle robe viste in deep learning nelle presentazioni nvidia, è sicuramente il top.
Non capisco però perchè non mettere in bundle il sw adobe invece che 3 giochini , con tutti sti youtuber\fotografi emergenti sarebbe stato un successone.
fraussantin
11-01-2019, 07:27
Io non spenderei mai una cifra del genere per una VGA perché la ritengo incongrua (e questo non è un parametro universale, c'è chi riterrebbe incongruo aver speso tutto quello che ho speso per i numerosi LEGO a tiratura limitata che ho in casa :asd: ).
La questione è un'altra, se vuoi giocare e spendere quella cifra* devi decidere se a quel prezzo preferisci una RTX2080 8GB o una GTX2080 16GB che non ha il problema dello schiantare con probabilità mai viste prima.
Anche qui son scelte personali, e come sul fatto che non comprerei una scheda video da 800, non ho dubbi che a parità di prezzo e prestazioni sceglierei sempre quella con il doppio di vram** e senza problemi di affidabilità (oltre ai driver migliori e alla tranquillità di poter usare un monitor freesync a mia scelta e non quello scelto da Huang***).
*: VII verrà venduta anche direttamente da AMD, quindi il rischio di essere costretti a prezzi oltre l'MSRP è nullo
**: 8GB per una scheda da 4K a 800 sono un insulto
***: ha detto che proveranno ogni singola scheda su ogni singolo monitor su ogni singolo gioco per definire ulteriormente quella lista, il che fa ridere già così senza aggiungere commenti
Giusto per correttezza informativa , hanno detto che i monitor freesync funzionano alla solita maniera che con le radeon . Se un monitor non da un ottima esperienza g sync , non la da neppure freesync.
Il resto sono solo discorsi da fanboy.
fraussantin
11-01-2019, 07:45
Non sono stati così specifici, hanno solo detto che per quelli non validati puoi forzare l'attivazione da driver a tuo rischio e pericolo.
In ogni caso la ridicolezza del gsync è diventata evidente nel momento in cui sono usciti i notebook gsync, che non hanno né mai hanno avuto il modulo gsync, dimostrando definitivamente che non serve a niente ma è solo un pizzo.
In ogni caso non è il centro del discorso che hai quotato, in cui si parla d'altro, ma se proprio ti interessa l'argomento leggi il mio post fino in fondo, l'ultima nota, fai due conti e vedi se è più probabile che sia vero o che abbia mentito ai suoi clienti per l'ennesima volta :asd:
Non è mica un lavoro impossibile?
Sicuramente hanno dei laboratori con pc pronti con su una vga per tipo delle loro g force. ( Certamente non una per marca ma le fe e qualche custom)
E sicuramente le usano per testare i driver , non penserai mica che cambiano le.schede su una benchtest tipo youtuber da 3 soldi.
Beh prendere 1 monitor e passarlo volta volta su quei pc e far partire un exe preparato ad oc per testarlo è certamente un lavorone ma mica costruire una piramide...
A me la cosa che fa sorridere è che nonostante amd ha nuovsmente dimostrato che non gli frega un cazzo dei gamer , ma che gli interessano solo cpu e console , e vi ha sbattuto in faccia la solita minestra riscaldata senza alcun senso , riuscite a farla sembrare un evento miracoloso.
E chiaro che non sto scherzando.
Se fanno cartello le prossime nvidia costeranno ancora più care e le prossime radeon ancor di più . A sto punto navi me lo aspetto a 500 euro.
A me girano le pelotas mentre voi esultate per l'epic fail del 2019.
Primo risultato del fail amd ?
Asus ha presentato la 2060 turbo a bara con 1 ventola a 509 euro .. tanto amd non esiste ... E ovviamente mi aspetto 0 disponibilità per le fe .
Esultiamo .
Einhander
11-01-2019, 07:52
Cmq saranno pure dettagli ma se ci gioco e mi si sfonda ok, vado di RMA e "ciaone", np, ma se per puro caso ci sto anche lavorando e mi si sfonda, la situazione non e' paragonabile...e sappiamo tutti che ormai le schede video non espressamente da workstation vengono usate anche nel mercato semipro, al punto che alcuni test sui motori di render vengono ormai adottati dai siti per le recensire le gpu e online si trovano, spesso sui siti degli sviluppatori di render engine, benchmark stra-stra pieni di schede "gaming".
Ecco, se ti si sfonda la scheda in questi casi sono caxxi.
Non parlo di amd, perche' a parte qualcosa su suite adobe e molto poco su vray e quei 3 utenti relativi a prorender della maxon -che cmq si spera evolvera- (non so cycles come va o se va su amd) la situazione e' semplicemente inesistente ergo i problemi non ci sono per scelta altrui :asd: .
Tutto cio' come se fosse normale dover giustificare il fatto che una gpu da 800/1500 euro debba morire in meno di 60 ore. Come se fosse sempre stato cosi' o sia una cosa abitudinaria...
:muro: :muro: :muro:
P.s.: sta roba e' obiettivamente GRAVISSIMA e se fossi stato huang, avrei evitato di dire che si sarebbe aspettato di piu' da AMD perche' al contrario io mi aspetto non di piu' da lui, ma il minimo indispensabile ovvero che quello che compro funzioni (considerando anche quanto se lo fa pagare).
Fosse stata amd ad avere un problema simile adesso scorrerebbe il sangue per le strade :asd: e invece lui dice che si aspetta di piu'.
Sara' pure un cesso, ma Lisa Su ha tutta un'altra sobrieta' anche nelle risposte e nei modi.
Einhander
11-01-2019, 08:07
Cmq Ace se domani le amd diventano compatibili con REDSHIFT con prestazioni paragonabili alle nvidia...beh non ci penso due volte a fare la migrazione considerando quanto mi serve la vram con RS ;)
fraussantin
11-01-2019, 08:14
Fai i conti, poi torna, ti aspetto.Un 15 gg di lavoro ? un mese ?in 4 persone?
Ah riguarda solo pascal e turing.
Ovviamente non eseguiranno mica ogni singolo gioco ma uno script che li esegue a ruota un assortimento da eslcudere al più possibile problemi ...lo stesso con cui testano i driver.
le triventole e il doppio 8 stanno li perchè è parca, ma aspettiamo conferma nelle rece. Le prestazioni ce le ha date amd in un modo un po' meh
la mia nitro triventola con 2x8pin è la vga più silenziosa e ben costruita che ho mai avuto quindi si, non vuol dire nulla
dal 2012 ci sono vga tdp 250W+, eri sulla luna?
se vuoi una vga parca ti prendi una middle o una 560
le 2080ti sono parchissime con i loro 400W
fraussantin
11-01-2019, 08:27
Le rtx non derivano dalle quadro? Non sono la stessa minestra riscaldata? Proprio non capisco se vi interessa comprate se no vi tenete quello che avete ma dove sta il problema? E secondo te invidia non è sui 7 nm perché è indietro o perché magari non sarebbe arrivata ai soliti parametri di velocità delle attuali? Anche perché leggendo in giro i 7nm sono molto grezzi e sicuramente avranno bisogno di molto affinamento per rendere bene.Si ma non derivano da una scheda di 6 anni fa.
fraussantin
11-01-2019, 08:28
Ok, niente conti, e allora sticazziFalli tu i conti sei tu che metti in dubbio
Gyammy85
11-01-2019, 08:35
ma manco per il caz..
mai piu GPU per software Pro by AMD; i driver fanno schifo, ma veramente schifo; Bug a non finire.
lato gaming avranno anche migliorato le cose ( non gioco, ma leggendo in giro sembrerebbe essere migliorata molto ), ma lato pro fa veramente cacare.
Tutti sti bug li vedi solo tu, perché a livello driver, quelli pro sono i più stabili, come emerso dal paragone "troll markettato fanboiato" di qualche tempo fa
la coerenza vorrebbe che chi si è lamentato del prezzo della RTX si lamenti in egual modo del prezzo di questa, visto che costa uguale alla 2080 e va uguale :asd:
https://i.postimg.cc/Kzf5fsfz/AMD-CES-2019-Radeon-VII-12.jpg (https://postimg.cc/627R5cDJ)
https://i.postimg.cc/GtBbK6RJ/AMD-CES-2019-Radeon-VII-13.jpg (https://postimg.cc/T568Y7pp)
https://i.postimg.cc/j52WVgKC/AMD-CES-2019-Radeon-VII-16.jpg (https://postimg.cc/mzxZCSPG)
Giusto per, fare +60% in opencl e passare pure la 2080ti mi sembra abbastanza, per i giochi, i 18.12.2 e 18.12.3 sono buggati con forza 4, mettici 15-20 fps ed hai le performance normali, coi 19.1.1 son tornati alle prestazioni normali almeno per me
Certo che è uno shrink....all'80% buono. ;)
Ed è tutto in eredità da Fiji, con migliorie certamente...ma poche cose che possono modificare effettivamente la resa a parità di clock.
Coi 7nm ora...dato che ci stavano con lo spazio, son tornati anche a un bus da 4096bit e in più hanno aggiunto 64ROPs..
Ma la sostanza non cambia. Prendono prestazioni con gli shrink e l'incremento di frequenze. Nel caso di Vega7 anche grazie allo sgravio della banda e al maggiore fillrate (128ROPs). :)
A parte il fatto che non sono confermate le 128 rops, son tutti shrink guarda, fina dalla radeon 7500, facciamocene una ragione
Gyammy85
11-01-2019, 08:37
Si però i settings non è detto che siano identici, insomma è utile come tabella ma fino ad un certo punto attendibile.
Li prende da guru3d in maggior parte dove testano sempre a setting ultra senza cose particolari, deus ex shadow strange brigade…
Son quelle al 99,99%
Comunque per parlare di radeon VII spostiamoci sul thread ufficiale
https://www.hwupgrade.it/forum/showthread.php?t=2873719
Appena avrò tempo metterò slide e tutto
intervista integrale di Lisa Su, fatta dopo il keynote al ces
https://www.pcworld.com/article/3331944/components-processors/lisa-su-on-the-record-amds-ceo-talks-ryzen-vega-ray-tracing-and-lots-more-at-ces.html
Si ma non derivano da una scheda di 6 anni fa.
la ruota della mia forester deriva dalla ruota in legno dei romani ma lei non lo sa e gira lo stesso
Per le vergini del fail 2019 al 11/01
"Many enthusiasts were praying for a Navi announcement. However, they received a die-shrunk version of Vega 10 instead."
riassume tutto benissimo
vi piace non vi piace? fate vobis
intervista integrale di Lisa Su, fatta dopo il keynote al ces
https://www.pcworld.com/article/3331944/components-processors/lisa-su-on-the-record-amds-ceo-talks-ryzen-vega-ray-tracing-and-lots-more-at-ces.html
You know you know you know ....
Manca LA DOMANDA ... quella domanda che tutti vorrebbero fare alla Su e che guarda caso il report si è ben guardato dal chidere.
Dove diavolo è finita Navi ? L'architettura in accoppiata con i 7nm doveve essere presentata nel Q1 2019 ...
Per le vergini del fail 2019 al 11/01
"Many enthusiasts were praying for a Navi announcement. However, they received a die-shrunk version of Vega 10 instead."
riassume tutto benissimo
vi piace non vi piace? fate vobis
L'ennesima occasione sprecata IMHO.
la domanda c'e' e c'e' pure la risposta e la spiegazione.
Gyammy85
11-01-2019, 09:38
la domanda c'e' e c'e' pure la risposta e la spiegazione.
Eh ma uno la deve trovare, leggere, tradurre, ecc...
AceGranger
11-01-2019, 09:42
Giusto per, fare +60% in opencl e passare pure la 2080ti mi sembra abbastanza, per i giochi, i vecchi sono buggati con forza 4, mettici 15-20 fps ed hai le performance normali
https://www.overclock3d.net/gfx/articles/2019/01/10061034412l.jpg
30% in piu, quindi uguale alla 2080.
per la quesitone di OpenCL, fai sempre molto ridere che lo confronti con le nVidia vivendo nel tuo mondo completamente slegato dalla realta :asd:
uno che ha una nVidia usa CUDA e se ne sbatte allegramente di quella robaccia li; LuxRender, dio mio, un render engine dei renderisti della domenica :asd:
Gyammy85
11-01-2019, 09:45
A parte le polemiche, ok tutti si aspettavano dettagli su navi, perché sembrava fosse così, ma evidentemente preferiscono uscire subito con un prodotto molto valido e lasciare le chicche per dopo in altri eventi loro, come sempre del resto.
E' stato un keynote più commerciale che tecnico, infatti è la prima volta per loro al ces, ed è durato 90 e passa minuti, direi più che sufficienti.
La presenza di phil spencer è stata una mossa azzeccata, dato che i rumour davano ps5 zen2+navi, ma non c'erano conferme per xbox, ora ci sono.
Ci sarà da divertirsi fra un mese
non esiste solo il rendering.
Personalmente lavorando con la suite adobe e giocando potrebbe essere una scheda adatta. Per fare un esempio.
Comunque preparatevi ad altre delusioni :D
Navi verra' lanciata a giugno ma sara' la performance, per la enthusiast ci vorra' il Q4, cosi' ci si mette l'anima in pace subito
fraussantin
11-01-2019, 09:50
Ci ho ripensato, eccoti i conti:
584 monitor freesync esistenti ad oggi (fonte: https://www.amd.com/en/products/freesync-monitors)
14 diverse schede video supportate ad oggi (in totale sono 38 schede gsync ad oggi, più forse la Titan V che non lo scrivono da nessuna parte, ma solo su 14 viene abilitata questa possibilità)
Solo su Steam, nel 2017, sono usciti 7672 giochi, con un trend in crescita, per semplicità facciamo finta non ci siano altri giochi al di fuori di steam anche se non è vero (fonte: https://www.statista.com/statistics/552623/number-games-released-steam/)
Vengono più di 60 milioni di test. L'anno.
+++
Andiamo avanti.
Loro dicono di averli fatti già su più di 400 monitor. Cioè più di 40 milioni di test per i giochi del 2017 (del solo Steam).
Ora considerando che un monitor non è una cimice e fare i test significa sballarlo, cablarlo, fare il test, staccare e imballare di nuovo non ci puoi mettere meno di 10 minuti a monitor e già mi sembra poco se uno intende fare un test, ma facciamo finta che bastino. Sono quasi 7 milioni di ore uomo.
Buon divertimento.
Infatti:
Mi sai dire quando è stato detto che Navi arrivava nel Q1 quando dalle roadmap si vede solo che è nel periodo 2017-2020?
Non hai considerato che non testeranno tutti i giochi 1x1 ma con uno script che conterrà un assortimento di giochi misto fra i giochi più recenti e i vari engine.
Ma è lo stesso che fanno quando testano i driver . Quel lavoro invece di farlo con un driver lo fanno con un monitor.
Ma con molte meno gpu rispetto a quelle che supporta la relese.
Poi mica penserai che testino hl1 o doom 2 ? :asd:
La vera notizia è che su 584 monitor freesync 388 non sono buoni secondo loro.
Edit e la cosa più importante i centordicimila giochi li han testati solo su 12 monitor. Gli altri al primo gioco( o dopo una decina) che non gli gustava han stoppato subito
Gyammy85
11-01-2019, 09:50
https://www.overclock3d.net/gfx/articles/2019/01/10061034412l.jpg
30% in piu, quindi uguale alla 2080.
per la quesitone di OpenCL, fai sempre molto ridere che lo confronti con le nVidia vivendo nel tuo mondo completamente slegato dalla realta :asd:
uno che ha una nVidia usa CUDA e se ne sbatte allegramente di quella robaccia li; LuxRender, dio mio, un render engine dei renderisti della domenica :asd:
La tabella dei risultati contro la 2080 custom di guru3d e di amd l'ho postata e si commenta da sola, direi che non c'è da aggiungere altro.
Continui a girare attorno alla cosa, lo so che c'è CUDA, ma andare il 19% in più in luxrender sulla 2080ti ti dice che l'hardware è superiore e che il guadagno sulla 64 è potenzialmente più grande, in un ambito dove già andava molto forte.
Poi luxrender benchmark esiste da 10 anni, quindi non credo che sia così inutile, poi boh, è come il cinebench di ryzen mi sa
non esiste solo il rendering.
Personalmente lavorando con la suite adobe e giocando potrebbe essere una scheda adatta. Per fare un esempio.
Comunque preparatevi ad altre delusioni :D
Navi verra' lanciata a giugno ma sara' la performance, per la enthusiast ci vorra' il Q4, cosi' ci si mette l'anima in pace subito
Adobe con AMD?
Auguri!
AceGranger
11-01-2019, 09:59
non esiste solo il rendering.
Personalmente lavorando con la suite adobe e giocando potrebbe essere una scheda adatta. Per fare un esempio.
la suite Adobe ha CUDA ed è possibile avere piu funzionalita; ( nel caso di Premiere il Mercury Playback Engine ) essendo piu avanti nello sviluppo rispetto a OpenCL.
https://create.pro/blog/opencl-vs-cuda/
https://forums.adobe.com/thread/1894349
https://forums.adobe.com/thread/773101
etc. etc. etc.
poi ognuno valutera certamente in base agli usi, ma nella stragrande maggioranza direi casi non sara conveniente; e te lo dico da possessore della FE che è la stessa cosa.
Gyammy85
11-01-2019, 10:04
la suite Adobe ha CUDA ed è possibile avere piu funzionalita; ( nel caso di Premiere il Mercury Playback Engine ) essendo piu avanti nello sviluppo rispetto a OpenCL.
https://create.pro/blog/opencl-vs-cuda/
https://forums.adobe.com/thread/1894349
https://forums.adobe.com/thread/773101
etc. etc. etc.
poi ognuno valutera certamente in base agli usi, ma nella stragrande maggioranza direi casi non sara conveniente; e te lo dico da possessore della FE che è la stessa cosa.
Proprio scema amd a darti la fe nel 2017 con più vram della scheda del 2019 trex che costa quasi il triplo, con la possibilità di mettere driver pro o consumer a piacimento, ha risparmiato qualche millino lo sai vero?
AceGranger
11-01-2019, 10:08
Proprio scema amd a darti la fe nel 2017 con più vram della scheda del 2019 trex che costa quasi il triplo, con la possibilità di mettere driver pro o consumer a piacimento, ha risparmiato qualche millino lo sai vero?
se avessi saputo prima la resa effettiva dei loro driver averi preso al volo la Titan Xp.
Adobe con AMD?
Auguri!
guarda che ho sia nvidia e sia amd e ho avuto tanti problemi di driver e crash su photoshop proprio con nvidia giusto per dirne una.
la suite Adobe ha CUDA ed è possibile avere piu funzionalita; ( nel caso di Premiere il Mercury Playback Engine ) essendo piu avanti nello sviluppo rispetto a OpenCL.
https://create.pro/blog/opencl-vs-cuda/
https://forums.adobe.com/thread/1894349
https://forums.adobe.com/thread/773101
etc. etc. etc.
poi ognuno valutera certamente in base agli usi, ma nella stragrande maggioranza direi casi non sara conveniente; e te lo dico da possessore della FE che è la stessa cosa.
sicuramente a spendere quanto hai speso per la fe ci credo, ma una scheda come la VII, tenendo conto del costo e dell'aumento di prestazioni in opencl e' da tenere in considerazione.
AceGranger
11-01-2019, 10:18
sicuramente a spendere quanto hai speso per la fe ci credo, ma una scheda come la VII, tenendo conto del costo e dell'aumento di prestazioni in opencl e' da tenere in considerazione.
si ma il punto è che con le nVidia non usi quasi mai OpenCL... usi CUDA... quindi che faccia il fantamirabolante 60% in piu in OpenCL in Luxmark no nserve a nulla se poi con nVidia hai 10 render engine schifosamente migliori che con AMD non puoi usare.
si ma il punto è che con le nVidia non usi quasi mai OpenCL... usi CUDA... quindi che faccia il fantamirabolante 60% in piu in OpenCL in Luxmark no nserve a nulla se poi con nVidia hai 10 render engine schifosamente migliori che con AMD non puoi usare.
si con luxmark sono d'accordo con te, pero' per esempio, su premier come si vede e' avanti rispetto alla 2080
majinbu7
11-01-2019, 10:28
Io non spenderei mai una cifra del genere per una VGA perché la ritengo incongrua (e questo non è un parametro universale, c'è chi riterrebbe incongruo aver speso tutto quello che ho speso per i numerosi LEGO a tiratura limitata che ho in casa :asd: ).
La questione è un'altra, se vuoi giocare e spendere quella cifra* devi decidere se a quel prezzo preferisci una RTX2080 8GB o una GTX2080 16GB che non ha il problema dello schiantare con probabilità mai viste prima.
Anche qui son scelte personali, e come sul fatto che non comprerei una scheda video da 800€, non ho dubbi che a parità di prezzo e prestazioni sceglierei sempre quella con il doppio di vram** e senza problemi di affidabilità (oltre ai driver migliori e alla tranquillità di poter usare un monitor freesync a mia scelta e non quello scelto da Huang***).
*: VII verrà venduta anche direttamente da AMD, quindi il rischio di essere costretti a prezzi oltre l'MSRP è nullo
**: 8GB per una scheda da 4K a 800€ sono un insulto
***: ha detto che proveranno ogni singola scheda su ogni singolo monitor su ogni singolo gioco per definire ulteriormente quella lista, il che fa ridere già così senza aggiungere commenti
Se Vega VII non è ancora in commercio come fai a decretare con certezza che non avrà pure lei difetti per i quali si arriva a morte prematura, poi magari spiegalo anche a noi comuni mortali ;)
Cmq tornando sul pianeta terra...magari con i bench vega VII stupisce e andrà più della 2080, magari piazzandosi con uno streetprice (qui da noi, nel resto del mondo non me ne può fregar di meno) più basso, e calcolando che porta pure in dono 3 giochi che mi interessano, beh potrebbe diventare il miglior acquisto fascia alta di questo schifo di mercato che si sta creando.
FrancoBit
11-01-2019, 10:33
Se Vega VII non è ancora in commercio come fai a decretare con certezza che non avrà pure lei difetti per i quali si arriva a morte prematura, poi magari spiegalo anche a noi comuni mortali ;)
Cmq tornando sul pianeta terra...magari con i bench vega VII stupisce e andrà più della 2080, magari piazzandosi con uno streetprice (qui da noi, nel resto del mondo non me ne può fregar di meno) più basso, e calcolando che porta pure in dono 3 giochi che mi interessano, beh potrebbe diventare il miglior acquisto fascia alta di questo schifo di mercato che si sta creando.
Il bundle di tre giochi, piacciano o meno, ha comunque un valore di almeno 100 euro, se la scheda costasse anche intorno ai 750 potrebbe non essere così chiavica come molti dicono. Oltretutto, da un mio punto di ivsta, rispetto alla competizione di un mese fa la situazione è comunque migliorata. Poi chissà, magari riescono a far funzionare il multigpu che per ora su Nvidia mi sembra inesistente
AceGranger
11-01-2019, 10:39
si con luxmark sono d'accordo con te, pero' per esempio, su premier come si vede e' avanti rispetto alla 2080
quello che non vedi in quel bench di AMD sono le feature che non puoi usare in Premiere perchè non hai CUDA e non hai il Mercury.
poi se tu preferisci avere un 6,6% in encoding piuttosto che accelerazioni in hardware bè, son scelte.
ninja750
11-01-2019, 10:45
Vedendo la scheda mi sono chiesto una cosa, probabilmente già notata da molti di voi ma non ho spulciato il thread troppo indietro: la scheda è a 7nm, e si notano 2 connettori 8 pin.
Mi chiedo quanto consumi e scaldi sta scheda... e fortuna che è a 7nm, sennò il case diventava peggio dell'Etna sti giorni...
Voglio dire: se si critica Nvidia per aver prodotto degli altoforni, AMD mi pare l'abbia superata a sto giro, considerando che parliamo di una scheda 12nm vs 7nm....
prima dello shitstorm aspettiamo una recensione, che dici?
i pin vogliono dire tutto e nulla, alcune RX580 hanno il 6+8 e consumano < 200w, la mia R9 380 aveva 6+6 e consumava uguale alla attuale 580 con un singolo 8
l'unica cosa brutta del triventola è la lunghezza idiota
quello che non vedi in quel bench di AMD sono le feature che non puoi usare in Premiere perchè non hai CUDA e non hai il Mercury.
poi se tu preferisci avere un 6,6% in encoding piuttosto che accelerazioni in hardware bè, son scelte.
che io sappia si puo' scegliere anche il mercury playback engine su opencl, ma non sono espertissimo di premiere
majinbu7
11-01-2019, 10:59
Il bundle di tre giochi, piacciano o meno, ha comunque un valore di almeno 100 euro, se la scheda costasse anche intorno ai 750 potrebbe non essere così chiavica come molti dicono. Oltretutto, da un mio punto di ivsta, rispetto alla competizione di un mese fa la situazione è comunque migliorata. Poi chissà, magari riescono a far funzionare il multigpu che per ora su Nvidia mi sembra inesistente
La situazione è sicuramente migliorata ....una bella cippa (scusa l'espressione) visti i presunti prezzi , poi vediamo quelli effettivi appena sarà disponibile....del multyGPU per come funziona sia da una parte che dall'altra, lasciamo proprio stare, non lo calcolo minimamente.
Gyammy85
11-01-2019, 11:02
prima dello shitstorm aspettiamo una recensione, che dici?
i pin vogliono dire tutto e nulla, alcune RX580 hanno il 6+8 e consumano < 200w, la mia R9 380 aveva 6+6 e consumava uguale alla attuale 580 con un singolo 8
l'unica cosa brutta del triventola è la lunghezza idiota
Consumerà a stock quanto una 64 a stock, cioè 220-240 watt, mi sembra logico mettere 2x8 pin, sei sempre al sicuro, come ogni altra top del resto. Stavolta le venderà amd direttamente, quindi quella non è un fantoccio ma la scheda che verrà messa in vendita.
Scusate la domanda ma come mai se esce una scheda gaming si parla di software pro e se esce una pro si racconta sempre con i game ? Se la volessi prendere è per giocare o sono rimasto l'unico a usarle appunto per gaming?
e' quello di cui si parlava ultimamente, questa non e' una scheda esclusiva per gaming, ma e' la pro rimaneggiata per farla gaming per dirla breve, e' comunque una scheda che puo' essere utilizzata anche dai content creators, per esempio chi fa streaming e video e gioca anche
Navi verra' lanciata a giugno ma sara' la performance, per la enthusiast ci vorra' il Q4, cosi' ci si mette l'anima in pace subito
L'enthusiast del 2019 è la VII, la prossima sarà nel 2020.
Per logica non presenti una scheda come top gaming a 700$ nel 2019 per presentarne un altra qualche mese dopo che la raggiunge e costa meno, "Navi enthusiast" o come si chiamerà la prossima top sarà 2020 e si spera essere veramente una scheda da gaming visto che deriverà da ps5/xboxS
Per il 2019 già son buone schede 2060 like con un po' più di ram e prezzo concorrenziale :)
AceGranger
11-01-2019, 11:17
che io sappia si puo' scegliere anche il mercury playback engine su opencl, ma non sono espertissimo di premiere
la variante CUDA ha specifiche accelerazioni non presenti in OpenCL.
Gyammy85
11-01-2019, 11:19
Per logica non presenti una scheda come top gaming a 700$ nel 2019 per presentarne un altra qualche mese dopo che la raggiunge e costa meno, "Navi enthusiast" o come si chiamerà la prossima top sarà 2020 e si spera essere veramente una scheda da gaming visto che deriverà da ps5/xboxS
Per il 2019 già son buone schede 2060 like con un po' più di ram e prezzo concorrenziale :)
Il fatto che una scheda vada incidentalmente bene anche in altri contesti non vuol dire che non sia gaming
Se togli la parte fp64 è gaming e basta
È quindi a chi è destinata ?
A tutti.
AceGranger
11-01-2019, 11:20
È quindi a chi è destinata ?
Ethusiast / Prosumer / Pro.
in campo Pro non c'è piu una divisione netta fra l'avere o meno i driver certificati, perchè tutta la parte ci calcolo, encoding, render etc. etc. non richiedono piu driver specifici presenti solo nelle varianti Pro delle GPU e molti software ti certificano le GTX / RX al pari delle QUADRO / RadeonPRO.
FrancoBit
11-01-2019, 11:23
La situazione è sicuramente migliorata ....una bella cippa (scusa l'espressione) visti i presunti prezzi , poi vediamo quelli effettivi appena sarà disponibile....del multyGPU per come funziona sia da una parte che dall'altra, lasciamo proprio stare, non lo calcolo minimamente.
Guarda sui prezzi purtroppo non ci si può più aspettare i magheggi che faceva AMD in passato (quando vendeva i Duron e gli Athlon che bastonavano Intel costando meno), non possono più permettersi di vendere prodotti validi a prezzi decisamente inferiori a Nvidia. C'è anche tutto un discorso legato alla quotazione in borsa, oggi molto più esposta e considerata in ambito finanziario rispetto a una 15ina di anni fa, non possono sgarrare più di tanto (vendere senza margini decenti). Sulle CPU stanno facendo i miracoli, ma hanno iniziato a guadagnare dopo un bel po' che i ryzen sono stati lanciati. Per quanto riguarda Rvii, il prezzo probabilmente si allinea alle prestazioni offerte. Sono convinto che la scheda si allineerà nei pressi delle rtx 2080 (ormai il prezzo è una specie di benchmark. Detto questo, in ottica di concorrenza, io personalmente penso che sia meglio avere una Rvii come scheda di punta rispetto a una Vega64. E'un passo, piccolo, inefficiente, chiamalo come vuoi, ma è comunque un avvicinamento alle performance di Nvidia. Gli diamo ancora un po' di tempo e magari arriveranno ste benedette Navi che la riporteranno a battersi ad armi pari.
L'enthusiast del 2019 è la VII, la prossima sarà nel 2020.
Io spero ancora in una navi nel back to school: settembre
e la VII diventa la nuova frontier e tanti saluti
Ale55andr0
11-01-2019, 11:38
raga per curiosità, quali sono, a parte BF5, gli ultimi titoli "moderni" in cui le radeon si comportano particolarmente bene?
Solo a me fa specie che per hwupgrade a parte qualcosa sul ryzen 3000 del CES di AMD non si menzioni nulla di nulla? che è? il molise?
Gyammy85
11-01-2019, 11:47
raga per curiosità, quali sono, a parte BF5, gli ultimi titoli "moderni" in cui le radeon si comportano particolarmente bene?
call of duty bo4, strange brigade, forza horizon, wolf 2, f1 2018 sembra guadagnare abbastanza con la radeon 7, poi non so, re7 gira bene, poi c'è far cry 5, poi c'è sunset overdrive, i vari hitman, star wars battlefront, the division, deus ex dx12, insomma ce ne sono molti ormai, dove c'è dx11 non drawcalls limited e dx12/vulkan al 99% va meglio
Fallout 76 sembra andare molto più con radeon 7 +60% rispetto a vega 64
raga per curiosità, quali sono, a parte BF5, gli ultimi titoli "moderni" in cui le radeon si comportano particolarmente bene?
Forza Horizon (a parte una o due release di driver dove calavano le performance, con gli ultimi è tornato a posto), Far Cry 5, Strange Brigade, l'ultimo CoD. Questi sono i primi che mi vengono in mente.
Poi vanno circa pari fascia (1080 -> Vega 64 etc.) in diversi titoli anche sponsorizzati nVidia, come Shadows of the Tomb Raider, o in titoli "terzi" come F1 2018. Diciamo che i titoli in cui vanno particolarmente bene fanno circa pari con quelli dove vanno particolarmente male, che può essere letto anche al contrario.
Penso che uno dei problemi di AMD sia che si prende a riferimento "performance standard" sempre una GeForce, se prendiamo una Radeon allora si può vedere che la situazione è identica al contrario, con una GeForce deludende in alcuni giochi e ottima in altri. Però fa più impressione dire che "va male nel gioco xxx".
EDIT: io sto parlando delle Vega già annunciate, visto che per Radeon VII aspetto anche altre recensioni, ovviamente.
Gyammy85
11-01-2019, 11:51
Dalle mie parti di dice " chi visse sperando morì ....... ". E cmq se mi prende una follia la comprerò e poi cercherò di rivendere la mia 56 che non mi ha deluso.
Se giochi a 4k ti conviene
https://www.guru3d.com/articles_pages/geforce_rtx_2060_review_(founder),13.html
Su shadow andresti +60% liscio, dato che ne fa 50 mi pare la radeon 7
Ale55andr0
11-01-2019, 11:53
la mia nitro triventola con 2x8pin è la vga più silenziosa e ben costruita che ho mai avuto quindi si, non vuol dire nulla
dal 2012 ci sono vga tdp 250W+, eri sulla luna?
se vuoi una vga parca ti prendi una middle o una 560
le 2080ti sono parchissime con i loro 400W
1) non ho parlato di qualità costruttiva
2) non ci azzecca una SEGA che ci sono vga da 400w.... posto che le 2080ti out of the box NON sono da 400w , ergo non fare disinformazione, grassie
3) era OVVIAMENTE (e lo sai bene) un discorso relativo al fatto che:
-da una scheda 7nm non ci si aspettava certo tutto quell'ambardam che lascia presuppore la continua NON efficienza come le precedenti
-il tutto è sempre relazionato alle PRESTAZIONI. Ergo se anche la concorrenza consumasse anche 400w (e NON lo fa) ma andasse ben di più (e lo fa prendendo per buoni i grafici che amd ci ha dato in pasto) il tuo discorso non ha alcuna logica ne attinenza al mio, non sono io sulla luna, ma tu su marte, perchè è ovvio che se avesse consumato tanto quanto andando tanto quanto uno mica la dava per inefficiente...anzi si..sai, è a 7nm e con le parche hbm....:read:
Comunque nasce tutto da una battuta che non è manco mia, era divertente la gif che ho copincollato, perchè NON sappiamo effettivamnte nulla di quanto la scheda consumi, è il pacchetto completo a far pensar male visti i precedenti
call of duty bo4, strange brigade, forza horizon, wolf 2, f1 2018 sembra guadagnare abbastanza con la radeon 7, poi non so, re7 gira bene, poi c'è far cry 5, poi c'è sunset overdrive, i vari hitman, star wars battlefront, the division, deus ex dx12, insomma ce ne sono molti ormai, dove c'è dx11 non drawcalls limited e dx12/vulkan al 99% va meglio
Fallout 76 sembra andare molto più con radeon 7 +60% rispetto a vega 64
da considerare anche: Resident Evil 2, Devil May Cry 5 e Tom Clancy’s The Division 2 che sono stati sviluppati in maniera collaborativa con amd che poi sono i giochi inclusi in bundle con la vii
Ale55andr0
11-01-2019, 11:57
call of duty bo4, strange brigade, forza horizon, wolf 2, f1 2018 sembra guadagnare abbastanza con la radeon 7, poi non so, re7 gira bene, poi c'è far cry 5, poi c'è sunset overdrive, i vari hitman, star wars battlefront, the division, deus ex dx12, insomma ce ne sono molti ormai, dove c'è dx11 non drawcalls limited e dx12/vulkan al 99% va meglio
Fallout 76 sembra andare molto più con radeon 7 +60% rispetto a vega 64
Forza Horizon (a parte una o due release di driver dove calavano le performance, con gli ultimi è tornato a posto), Far Cry 5, Strange Brigade, l'ultimo CoD. Questi sono i primi che mi vengono in mente.
Poi vanno circa pari fascia (1080 -> Vega 64 etc.) in diversi titoli anche sponsorizzati nVidia, come Shadows of the Tomb Raider, o in titoli "terzi" come F1 2018. Diciamo che i titoli in cui vanno particolarmente bene fanno circa pari con quelli dove vanno particolarmente male, che può essere letto anche al contrario.
Penso che uno dei problemi di AMD sia che si prende a riferimento "performance standard" sempre una GeForce, se prendiamo una Radeon allora si può vedere che la situazione è identica al contrario, con una GeForce deludende in alcuni giochi e ottima in altri. Però fa più impressione dire che "va male nel gioco xxx".
EDIT: io sto parlando delle Vega già annunciate, visto che per Radeon VII aspetto anche altre recensioni, ovviamente.
thanks ;)
Ale55andr0
11-01-2019, 12:03
Questo solo perché non avete seguito lo sviluppo dei 7nm e pensate che siano come passare dai .13 micron ai 90nm.
Il FinFET ha raggiunto i suoi limiti, basta vedere quanto sta penando Intel, che infatti alla fine ha rilassato le regole per riuscire ad arrivare sul mercato con tre anni di ritardo rispetto alle previsioni con un processo adatto al segmento HP.
la contropartita la avremo solo con navi e con le verdi a 7nm, perchè se in quel caso a pari prestazioni e processo produttivo invece si avrà un sensibile calo nei consumi ( o un sensibile aumento prestazionale a pari consumi), più che il limite fiosologico dei processi produttivi sarà appurato che sono le ultime architetture ad aver fatto pena su quel fronte
NiubboXp
11-01-2019, 12:22
Si sa quando esce navi?
Ale55andr0
11-01-2019, 12:26
Si sa quando esce navi?
di preciso no, comunque nel corso di quest'anno si dice
Navi avrà prestazioni simili a Vega 64(navi x80) e Vega 56(navi x70), ormai è quasi scontato :read:
VII 300W tdp
https://www.pcgamer.com/hands-on-with-the-amd-radeon-vii/
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
raiden_master_v5
11-01-2019, 12:58
Io devo capire una cosa, ma alla fine Navi è Radeon VII? Tutto qua ._.?
Io devo capire una cosa, ma alla fine Navi è Radeon VII?
no
amon.akira
11-01-2019, 13:19
2) non ci azzecca una SEGA che ci sono vga da 400w.... posto che le 2080ti out of the box NON sono da 400w , ergo non fare disinformazione, grassie
225watt 2080 vs 300w R-VII con solo 75watt,un nodo e 5mesi in più
dai non male se la battaglia a default, se non ti interessa l RT e non badi al consumo, hai pure 3giochi in omaggio.
Gyammy85
11-01-2019, 13:24
225watt 2080 vs 300w R-VII con solo 75watt,un nodo e 5mesi in più
dai non male se la battaglia a default, se non ti interessa l RT e non badi al consumo, hai pure 3giochi in omaggio.
+25-40% at same Power vuol dire che consuma uguale ad una 64
Il TDP è 300 perché è lo stesso delle instinct
AceGranger
11-01-2019, 13:42
+25-40% at same Power vuol dire che consuma uguale ad una 64
Il TDP è 300 perché è lo stesso delle instinct
che non è certo un bel risultato visti i 7nm
https://static.techspot.com/articles-info/1701/bench/Power.png
amon.akira
11-01-2019, 13:55
Ma è esattamente in linea con quello che TSMC diceva dei propri 7nm.
ma infatti a parità di nodo, si evidenzia la differenza di architettura, uno shrink a 7nm tsmc avrebbe un 40% di risparmio energetico? quindi 225w/1.4=160watt
la differenza attuale di architettura a parità di prestazioni sono 160watt vs 300w, l accendiamo?
AceGranger
11-01-2019, 13:57
Ma è esattamente in linea con quello che TSMC diceva dei propri 7nm.
e infatti il problema è l'architettura :p
Ale55andr0
11-01-2019, 13:59
Navi avrà prestazioni simili a Vega 64(navi x80) e Vega 56(navi x70), ormai è quasi scontato :read:
se si sono presi la briga di fare un'architettura solo gaming e di uscire comunque, nel frattempo, con un prodotto diciamo messo insieme alla meglio per tappare comunque la fascia alta, allora mi aspetto che esisterà anche navi in versione high end, non ha senso l'opposto, se se ne sbattevano della fascia alta allora non cacciavano fuori nemmeno Radeon 7
Ale55andr0
11-01-2019, 14:01
Scontato no ma probabile.
Se costano come le 570 e 580 attuali a me piacciono anche.
Poi però devono tirare fuori 2 vga più grosse per fine 2019 o inizio 2020.
infatti, ma anche una, basta che comunque coprano anche la fascia top con la nuova architettura
Ale55andr0
11-01-2019, 14:02
225watt 2080 vs 300w R-VII con solo 75watt,un nodo e 5mesi in più
dai non male se la battaglia a default, se non ti interessa l RT e non badi al consumo, hai pure 3giochi in omaggio.
guarda che a me, pur criticandola (perchè è assolutamente un prodotto con diversi punti critici), sta anche "simpatica" da appassionato: 16gb e 128rops erano uno dei miei numeri favoriti nel favoleggiare una nuova gpu... Sono i numeri del mio portadenari che non mi piacciono :asd:
AceGranger
11-01-2019, 14:13
se si sono presi la briga di fare un'architettura solo gaming e di uscire comunque, nel frattempo, con un prodotto diciamo messo insieme alla meglio per tappare comunque la fascia alta, allora mi aspetto che esisterà anche navi in versione high end, non ha senso l'opposto, se se ne sbattevano della fascia alta allora non cacciavano fuori nemmeno Radeon 7
che NON uscira sicuramente quest'anno.
se si sono presi la briga di far uscire ora questa, vuol dire che Navi TOP arrivera nel 2020.
ma infatti a parità di nodo, si evidenzia la differenza di architettura, uno shrink a 7nm tsmc avrebbe un 40% di risparmio energetico? quindi 225w/1.4=160watt
la differenza attuale di architettura a parità di prestazioni sono 160watt vs 300w, l accendiamo?
interessante
ma quando confronto 2 vga voglio vedere quanti fps fa una e l'altra ai giochi di riferimento tenendo conto del costo di acquisto, non vedo consumi o tdp nell'equazione
oppure mettiamo tutto
9900k occato e 2080 ultra green
scommettiamo che consumi uguale a un 2700x occato e VII a prestazioni confrontabili (non tiratemi in ballo il fullhd che metto la mano alla pistola)?
mikael84
11-01-2019, 14:20
se si sono presi la briga di fare un'architettura solo gaming e di uscire comunque, nel frattempo, con un prodotto diciamo messo insieme alla meglio per tappare comunque la fascia alta, allora mi aspetto che esisterà anche navi in versione high end, non ha senso l'opposto, se se ne sbattevano della fascia alta allora non cacciavano fuori nemmeno Radeon 7
Vega è solo gaming.
L'unica differenza tra questa e la Vega20, è che quest'ultima, tramite 2 FP32 legate emulava una FP64 creando un rapporto 2:1.
Questa come le classiche radeon emula una FP64 in 16 cicli di clock.
Una istruzione per vettore, 1 FP64
guarda che a me, pur criticandola (perchè è assolutamente un prodotto con diversi punti critici), sta anche "simpatica" da appassionato: 16gb e 128rops erano uno dei miei numeri favoriti nel favoleggiare una nuova gpu... Sono i numeri del mio portadenari che non mi piacciono :asd:
Qua hanno fatto un bel lavoro con i raster da 32, levando definitivamente la poca BW effettiva in uscita, dovuta sopratutot alle sole 64 rop's.
Tuttavia, le rop's non sempre sono un collo di bottiglia.
A meno di non fare pesante blending (4k più filtri) o MSAA/SSAA piuttosto campionati, non si avrànno grossi guadagni.
Ciò che veramente migliora è l'utilizzo di BW sempre ottimale.
Con il freno legato ai back end, con 128 rop's questo chip potrebbe utilizzare gran parte del Tb/s teorico.:)
amon.akira
11-01-2019, 14:23
interessante
ma quando confronto 2 vga voglio vedere quanti fps fa una e l'altra ai giochi di riferimento tenendo conto del costo di acquisto, non vedo consumi o tdp nell'equazione
oppure mettiamo tutto
9900k occato e 2080 ultra green
scommettiamo che consumi uguale a un 2700x occato e VII a prestazioni confrontabili (non tiratemi in ballo il fullhd che metto la mano alla pistola)?
per il costo per ora si trovano a partire da 700euro, il mio amico ha preso una palit gaming a novembre a 685€, quindi direi che se la battagliano no?
le prestazioni se la battagliano credo o no? ma partendo da 225watt un quid in piu la posso tirare no? non tiriamo in ballo neanche l rt per dire.
evidenziavo la differenza di watt a parità di prestazioni, certo se mi dici che fa il 20% in piu della 2080 allora si azzera il discorso 160w vs 300w, e vorrebbe dire che uno shrink della 2080 a 7nm utilizzando sempre 225watt pareggerebbe con la 300watt di R-VII.
ma sarebbe reale? XD
Gyammy85
11-01-2019, 14:30
per il costo per ora si trovano a partire da 700euro, il mio amico ha preso una palit gaming a novembre a 685€, quindi direi che se la battagliano no?
le prestazioni se la battagliano credo o no? ma partendo da 225watt un quid in piu la posso tirare no? non tiriamo in ballo neanche l rt per dire.
evidenziavo la differenza di watt a parità di prestazioni, certo se mi dici che fa il 20% in piu della 2080 allora si azzera il discorso 160w vs 300w, e vorrebbe dire che uno shrink della 2080 a 7nm utilizzando sempre 225watt pareggerebbe con la 300watt di R-VII.
ma sarebbe reale? XD
Possiamo anche azzerarlo dato che in certi giochi ci arriva :asd:
Free Gordon
11-01-2019, 14:31
Navi avrà prestazioni simili a Vega 64(navi x80) e Vega 56(navi x70), ormai è quasi scontato :read:
VII 300W tdp
https://www.pcgamer.com/hands-on-with-the-amd-radeon-vii/
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Mah... vedremo.
Possibile anche che la Navi "mid" più veloce invece vada poco meno di Vega56 all'uscita.. ;) o nei dintorni... :)
Al costo di 349€ ovviamente.
per il costo per ora si trovano a partire da 700euro, il mio amico ha preso una palit gaming a novembre a 685€, quindi direi che se la battagliano no?
le prestazioni se la battagliano credo o no? ma partendo da 225watt un quid in piu la posso tirare no? non tiriamo in ballo neanche l rt per dire.
evidenziavo la differenza di watt a parità di prestazioni, certo se mi dici che fa il 20% in piu della 2080 allora si azzera il discorso 160w vs 300w, e vorrebbe dire che uno shrink della 2080 a 7nm utilizzando sempre 225watt pareggerebbe con la 300watt di R-VII.
ma sarebbe reale? XD
minchia raga, facciamola uscire sta vga lol
poi potremmo vedere se non si occa una fava, se ha problemi di throttling da voltaggi assurdi alla amd docet, se se se se
qua siamo al fail 2019 all'undicesimo giorno del 2019 stesso, capisc'?!
RT non pervenuto come il DLSS, fino ad ora è stata accidia a vendere speranze, lato rosso le hanno vendute i soliti quattro cialtroni arraffa click di qualche blog in bangladesh per hyppare e poi fa rimanere delusi, tralasciando completamente il disastro rma
ma hwupgrade quando la cagherà sta VII? Quando uscirà la 2050ti per confrontarla in prestazioni?
Possiamo anche azzerarlo dato che in certi giochi ci arriva :asd:
e daje
facciamola uscire, poi si vedrà
Free Gordon
11-01-2019, 14:39
Ma è esattamente in linea con quello che TSMC diceva dei propri 7nm.
Ovvio, il problema è l'architettura. :D
Bisogna ancora ribardirlo qualche volta...? :D
Vega 10 was manufactured by GlobalFoundries under the company's 14nm FinFET node. It measured 487mm² and contained up to 12,500 million transistors. For Vega 20, AMD turned to TSMC and its 7nm FinFET manufacturing process. Although Vega 20 only measured 331mm², the die housed up to 13,230 million transistors. Thanks to this die-shrunk, AMD was able to deliver up to 1.8 times the gaming performance per area and double the memory capacity and memory bandwidth on the Radeon VII in comparison to the Radeon RX Vega 64.
E cmq sia...solamente 700mila transistor in più per 64ROPs in più e un bus raddoppiato.
Certamente hanno ottimizzato/ricomposto il chip due volte, almeno con Vega10 in maniera più profonda... ma ormai da BEN 3 anni e mezzo a questa parte, la flagship di AMD non cambia una virgola delle specifiche base.
L'unica cosa che è davvero cambiata...è il clock: da 1000 a 1550 e da 1550 a 1800.
Nvidia ha fatto sia questo (salire di clock) solo più proficuamente... :asd: sia modificato i numeri alla base. :)
Siamo indietro, speriamo in NAVI.
amon.akira
11-01-2019, 14:42
Siamo indietro, speriamo in NAVI.
quotone, serve una nuova architettura e dalle parole di Lisa sembra che arriverà presto, secondo me novembre 2019
Gyammy85
11-01-2019, 14:44
e daje
facciamola uscire, poi si vedrà
A spanne quello è, basta fare un giro dei siti e confrontare i numeri, deus ex strange e shadow son sicuri perché fanno girare il bench a preset ultra
Free Gordon
11-01-2019, 14:44
Ciò che veramente migliora è l'utilizzo di BW sempre ottimale.
Con il freno legato ai back end, con 128 rop's questo chip potrebbe utilizzare gran parte del Tb/s teorico.:)
E infatti in Fallout76 vola rispetto alla vecchia (la quale era probabilmente molto BW-limited).
Il problema di AMD è che le case non struttureranno mai i giochi per farla rendere come dovrebbe in 4K, anche se questa caratteristica "nuova" ma a basso costo di progettazione, la potrebbe favorire molto in futuro in alcuni particolari titoli...(rispetto alla 2080 dico).
amon.akira
11-01-2019, 14:45
Dovresti leggere il testo e non solo le figure.
Il processo rende 30% di performance o il 60% di power. E anche il doppio di RAM costa watt.
ahah e chi ha detto il contrario, eppure non ho usato figure XD
ti ho anche tolto un altro 20% dai 12nm ottimizzati :sofico:
Free Gordon
11-01-2019, 14:48
quotone, serve una nuova architettura e dalle parole di Lisa sembra che arriverà presto, secondo me novembre 2019
Novembre sarebbe na sciagura.......................................... :doh:
Sinceramente spero fortemente una presentazione al Computex e un rilascio immediato nel mese di Luglio.
Già male sarebbe Settembre/Ottobre... Novembre andrebbe a ridosso di Natale, con lo spettro del passaggio di Nvidia ai 7nm di lì a 2 mesi..... :stordita: :doh:
amon.akira
11-01-2019, 14:50
Novembre sarebbe na sciagura.......................................... :doh:
Sinceramente spero fortemente una presentazione al Computex e un rilascio immediato nel mese di Luglio.
Già male sarebbe Settembre/Ottobre... Novembre andrebbe a ridosso di Natale, con lo spettro del passaggio di Nvidia ai 7nm di lì a 2 mesi..... :stordita: :doh:
se cambiano arch e sono competitivi il fatto che poi esce invidia non nuocerebbe, l importante è tornare in carreggiata
Free Gordon
11-01-2019, 14:54
Le ROPs sono cambiate,
Le ROPs è ANNI che non cambiano invece.. :asd: informati prima :asd:
la cache hierarchy è cambiata,
Con vega10... e ha portato a....un 2% di guadagno? :asd:
il controller di memoria è cambiato
Sì, con Fiji rispetto a Hawaii... :asd:
Non vorrai dirmi che consideri un cambio il fatto che abbiano introdotto l'HBCC con Vega10 vero? :D
Quali sono stati i vantaggi?
ZERO.
l'ISA è cambiata
l'isa cambia ad ogni rev di GCN, il salto più grosso forse è stato da 1.1 a 1.2...
Questa frase non ha alcun senso... :D Stiamo parlando di numeri e di performance.
Volevi che facessero uno shrink paro-paro dai 28 ai 14 ai 7? :asd:
Sarebbe stato veramente stupido da parte loro...
Hanno fatto quelle 2-3 modifiche (IL MINIMO indispensabile) per non farsi lanciare i pomodori addosso.
Povera RTG...mica ce l'ho direttamente con gli ingegneri o con Raja... sono anni che stanno colle pezze ar culo...
se cambiano arch e sono competitivi il fatto che poi esce invidia non nuocerebbe, l'importante è tornare in carreggiata
Certamente, speriamo. :)
Mah... vedremo.
Possibile anche che la Navi "mid" più veloce invece vada poco meno di Vega56 all'uscita.. ;) o nei dintorni... :)
Al costo di 349€ ovviamente.
Sarebbe ridicolo se lo facessero!
Mi aspetto che vada come la 64 ad un prezzo sotto ai 300 euro, altrimenti sarebbe un disastro. Andrebbe meno di una 2060(costando uguale) con un architettura nuova ed un PP di vantaggio. :confused:
Non ho ben capito, quindi una 2060 va come vega 64 ?
https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2060_Founders_Edition/33.html
Qua dicono di si..
Ton90maz
11-01-2019, 16:17
Mah... vedremo.
Possibile anche che la Navi "mid" più veloce invece vada poco meno di Vega56 all'uscita.. ;) o nei dintorni... :)
Al costo di 349€ ovviamente.
Potrebbero fare a meno di venderlo un coso del genere.
Perfino la scheda del marchio di Serie A va più della baracca cariata a stock, praticamente allo stesso prezzo, col silicio tumorale per i raggi e i sudoku incluso e col processo produttivo vecchio.
E via dicendo come i bambini dell'asilo che discutono se è più forte ufo robot o mazinga :D
Ovviamente Mazinga*... :O
* il Grande Mazinga, non Mazinga Z! :O :O
AceGranger
11-01-2019, 16:22
Qua dicono di no: https://www.computerbase.de/2019-01/nvidia-geforce-rtx-2060-test/3/#diagramm-performancerating-2560-1440
Il punto è che dire "una gpu amd va come una gpu nvidia" non è mai vero.
Un gpu di brand diverso ha un'architettura diversa e ha un range di prestazioni paragonabili all'altro non un fisso.
Per esempio nel caso specifico una vega 64 parlando di 1440p va da come una 1070ti nei casi peggiori (ac origin, ecc.) a poco meno di una 2070 nei casi migliori (deus-ex, ecc.)
Se non si tiene presente questo si va avanti per pagine e pagine a dire:
"va meno di una 2060"
"non è vero, va come una 2070"
"ma pincopirlazzi.com dice che va come una 1080"
"si ma vattelapesca.de dice che va come una 2080"
E via dicendo come i bambini dell'asilo che discutono se è più forte ufo robot o mazinga :D
basta prendere 3D Center che fa la media dei vari recensori cosi si va ad appianare chi ha messo piu giochi a favore di nVidia e chi piu giochi a favore di AMD.
AceGranger
11-01-2019, 16:30
E viene fuori quel che ho scritto io che non ci avevo guardato :D
si la media totale dice 12% meno la 2060 e 7 % meno la 2060 FE.
AceGranger
11-01-2019, 16:51
Datemi il link di sto 3dcenter, che cercando ho trovato questo: www.3dcenter.it :rolleyes:
P.s: scherzo, ho trovato ma non la pagina di queste medie.
questo è il primo che ho trovato ma in giro c'era il post piu approfondito con le varie RTX
https://www.3dcenter.org/news/erster-3dmark-wert-zur-geforce-rtx-2060-zeigt-auf-eine-performance-nahe-der-geforce-gtx-1080-hi
Il nabbo di turno
11-01-2019, 17:11
questo è il primo che ho trovato ma in giro c'era il post piu approfondito con le varie RTX
https://www.3dcenter.org/news/erster-3dmark-wert-zur-geforce-rtx-2060-zeigt-auf-eine-performance-nahe-der-geforce-gtx-1080-hi
C'è anche da dire che la fe, da quando non è più blower, sono schede che hanno già un buon boost, una 2070 fe rispetto ad una custom di un brand di fascia mediocre tipo palit, gainward o certe gigabyte/asus dual fan ha praticamente le stesse performance.
La vega 56 reference è si in mezzo tra la 1070 e la ti, ma da custom anche non spinta tipo la pulse o la windforce di gigabyte è appaiata alla 1070 ti stock, quindi quel 5-7% rispetto a quei dati se lo riprende tranquillamente, quindi sono tutte li per forza bruta, v56,1070ti e 2060, tutto dipende dal prezzo, consumi e risoluzione monitor.
Su un pc con un alimentatore grosso e freesync, una vega 56 sarebbe l'ideale, ma la 2060 è più duttile, con un tdp di 160w circa in gaming se non ci si mette una cpu overcloccata demoniaca tipo l'ultimo i9, ce la vedo bene anche con alimentatori tipo cx450m o evga bt 450w cosa che con le vega è impensabile.
Free Gordon
11-01-2019, 17:25
Sarebbe ridicolo se lo facessero!
Mi aspetto che vada come la 64 ad un prezzo sotto ai 300 euro, altrimenti sarebbe un disastro. Andrebbe meno di una 2060(costando uguale) con un architettura nuova ed un PP di vantaggio. :confused:
scusa ma economicamente non quadra...
Vega 7 a 700€ ---> Vega64 + 30% circa.
Navi 3 300€ ---> = Vega64?
In quei 400€ ci facciamo stare il 30% di performance? :D
Speriamo eh... :D ma anche possibile che la Navi più veloce che vedremo sia attorno alla 56 e con costi qualcosina più alti. ;)
Free Gordon
11-01-2019, 17:27
Qua dicono di no: https://www.computerbase.de/2019-01/nvidia-geforce-rtx-2060-test/3/#diagramm-performancerating-2560-1440
Vega64 il 6% più veloce... :D mah... non so se è un grande trade-off andare ora sulla Vega64, considerando il resto delle specs. :) (consumi, RTX ecc)
Il nabbo di turno
11-01-2019, 17:35
Vega64 il 6% più veloce... :D mah... non so se è un grande trade-off andare ora sulla Vega64, considerando il resto delle specs. :) (consumi, RTX ecc)
Non è mai stata la miglior scelta la v64 da quando hanno reso disponibile la v56.
Gyammy85
11-01-2019, 18:16
Puff puff pant pant quanto scrivete ragazzi... :D
Sono state fatte due affermazioni:
"va il 15% in più di Vega10"
"è un mostro nel gestire i filtri MSAA in 4k".
Ma... i paragoni con la 2080 vengono fatti con che settaggi di antialiasing?
Perchè se VII permette di attivare "gratis" MSSA grazie alle 128 rop's con banda smodata le cose possono cambiare veramente tanto!!!
...cmq in 4k a 60hz dovendo scegliere fra DLSS (in arrivo) e MSAA4x gratis (adesso) non ho molti dubbi su cosa scegliere.
Sono 4k ultra o max settings, credo che quello con l'aa classico sia fallout 76 dove fa +60% sulla 64.
Son pochi ormai i giochi con msaa
mikael84
11-01-2019, 18:38
Sono 4k ultra o max settings, credo che quello con l'aa classico sia fallout 76 dove fa +60% sulla 64.
Son pochi ormai i giochi con msaa
Sicuramente è un dato sballato, non per la nuova Vega ma per la vecchia.
I "presunti" test sono in media tra il 20/30%, ma con fallout hanno rilevato 68%.
Sono andato a vedere e Vega64 sembra avere un frame più basso della media.
Vega7 fa 76, in linea direi, ma Vega64 dovrebbe stare poco sotto i 60, non 45.
https://i.postimg.cc/Sx35c0q7/fallout76.png
Angeland
11-01-2019, 18:43
Io comunque su FH4 supero sia la Radeon VII che la rtx 2080 :asd:
https://i.postimg.cc/T3L3RCyK/578c89b0-9265-4074-a23a-e7f1ed8f341a.jpg
https://i.postimg.cc/hGnWHrVW/7ed2831c-89d9-4e53-beac-30f8ddab6edf.jpg
Gyammy85
11-01-2019, 18:45
Sicuramente è un dato sballato, non per la nuova Vega ma per la vecchia.
I "presunti" test sono in media tra il 20/30%, ma con fallout hanno rilevato 68%.
Sono andato a vedere e Vega64 sembra avere un frame più basso della media.
Vega7 fa 76, in linea direi, ma Vega64 dovrebbe stare poco sotto i 60, non 45.
https://i.postimg.cc/Sx35c0q7/fallout76.png
Forse benchano aree diverse
mikael84
11-01-2019, 23:11
Il fatto è che Vega10 con l'AA attivo crollava.
Quindi se fai un confronto Vega10 Vega20 con AA attivo mi aspetto differenze eclatanti.
Cioè, il 10% lo si prendeva anche solo occando le memorie....
Inviato dal mio SM-G960F utilizzando Tapatalk
Vega7 e vega liquid hanno la stessa identica potenza (la seconda un pelo di latenza sulla l1).
La differenza sta nella rimozione del collo di bottiglia ram e rop's.
Quei 20/30% si prendono tranquillamente.
Il clock più elevato migliora anche la geometria, e molto dipenderà anche dalla l2, in quanto con il DSBR il singolo passaggio migliora il culling.
Con 32 pixel per raster, potrebbe anche starci un aumento della l2.:)
mikael84
12-01-2019, 00:28
Le ROPs sono 64 come avevo detto qualche pagina fa, ho chiesto a Ryan Smith di verificare con AMD, ha verificato e confermato:
https://twitter.com/RyanSmithAT/status/1083876562238201857
Mi pareva strano che avessero cambiato la topologia dopo 11 anni (cioe' da sempre, da quando siamo passati agli shader unificati) per una scheda HPC in cui sarebbe stata una modifica inutile.
Infatti hanno corretto anche loro. Da una parte mi sembrava strano, solitamente amd ha sempre adottato 1 rop's 4 stencil.
Neppure nvidia è mai riuscita a rasterizzare 32 pixel per GPC, in quanto con 4 SFU per TPC ne servirebbero 8, ma fa di tutto per sviare.:)
amon.akira
12-01-2019, 00:31
l unica cosa che piaceva ad alessandro 128rops :nonsifa:
mikael84
12-01-2019, 00:34
l unica cosa che piaceva ad alessandro 128rops :nonsifa:
Le varie testate hanno i PDF tecnici, stranamente tutte hanno scritto 128. Ora ho visto che anandtech ha corretto, le altre continuano a riportare 128.:p
sertopica
12-01-2019, 08:05
Ho visto una breve recensione della nuova Vega VII. Confermate che si piazza a prestazioni ai livelli di una 2080? L'acquisto mi tenta ma mannaggia a me che ho un monitor GSync, mi toccherebbe cambiare pure monitor.
Gyammy85
12-01-2019, 08:11
Anche a me sembrava molto strano, hanno fatto un mezzo miracolo mi sa, che ci sia l'aiuto del primitive?
Gyammy85
12-01-2019, 08:29
Domanda, come mai vega VII viene data per 300w quando viene paragonata alla vega 64 che ha il pl a 220w? È sta detto e me lo sono perso oppure è una supposizione fatta sulla base dei 2 connettori da 8 pin?
Loro mettono 300 watt di TDP, così come la 64 ha un board power di 295 watt, ma si intende sempre potenza da dissipare, per cui la scheda a stock consumerà orientativamente 220-240 watta con margine di OC che dovrebbe garantire uno scaling lineare con questo pp
fraussantin
12-01-2019, 08:51
Però io con una scheda del genere andrei di 4k ( visto che è a cambiarlo).
Concordo di aspettare le rece , ma in qdh è sprecata.
Gyammy85
12-01-2019, 09:09
Se vendi il tuo prendi il Dell S2719DGF e ti avanzano ancora soldi :asd:
Però secondo me è prematura pensare di prendere la VII, aspetterei qualche recensione in più, che sia veramente sul mercato, che si assestino i prezzi (sperando che non facciano come le precedenti vega).
In assenza di mining il prezzo può solo scendere, e stavolta le venderà anche AMD direttamente
Però io con una scheda del genere andrei di 4k ( visto che è a cambiarlo).
Concordo di aspettare le rece , ma in qdh è sprecata.
Ci sono freesync 4k 144 hz? Sarebbe l'ideale
Ale55andr0
12-01-2019, 09:29
Se vendi il tuo prendi il Dell S2719DGF e ti avanzano ancora soldi :asd:
Però secondo me è prematura pensare di prendere la VII, aspetterei qualche recensione in più, che sia veramente sul mercato, che si assestino i prezzi (sperando che non facciano come le precedenti vega).
cioè un TN e manco 4k. Vade retro, saragat :asd:
https://www.youtube.com/watch?v=KLEGrUn96Hg
fraussantin
12-01-2019, 09:35
cioè un TN e manco 4k. Vade retro, saragat :asd:
https://www.youtube.com/watch?v=KLEGrUn96HgNon ricominciamo dai ... C'è chi vuole i tn , chi vuole gli ips , chi vuole i va ognuno fa schifo in qualcosa.
Almeno quello costa poco. ( Ora che è in sconto)
A proposito bivvoz hanno messo le impostazioni gamma su quelli nuovi ?
Ale55andr0
12-01-2019, 09:41
Non è luogo per parlarne, ma sei rimasto un po' indietro :asd:
i colori non sono e non saranno mai quelli di un ips e il 2.5k resta 2.5k rispetto il 4k, oggi come nel duemilacredici :)
/OT
In assenza di mining il prezzo può solo scendere, e stavolta le venderà anche AMD direttamente
Ci sono freesync 4k 144 hz? Sarebbe l'ideale
c'e' il nuovo acer 1k mi pare xv273k
In assenza di mining il prezzo può solo scendere, e stavolta le venderà anche AMD direttamente
Ci sono freesync 4k 144 hz? Sarebbe l'idealeIl nuovo Acer a 899 dollari, dovrebbe essere già uscito
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Gyammy85
12-01-2019, 12:27
Il nuovo Acer a 899 dollari, dovrebbe essere già uscito
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Pure un TV HDR freesync 4k non sarebbe male
Pure un TV HDR freesync 4k non sarebbe maleOra come ora sarebbe meglio aspettare l'hdmi 2.1 sulle tv per il freesync e prendere una di quelle, anni luce rispetto i monitor e a prezzi migliori.
Peccato per le dimensioni proibitive
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
TheDarkAngel
12-01-2019, 12:41
Ora come ora sarebbe meglio aspettare l'hdmi 2.1 sulle tv per il freesync e prendere una di quelle, anni luce rispetto i monitor e a prezzi migliori.
Peccato per le dimensioni proibitive
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Taglio minimo 55" perchè il 49nu8000 è senza pannello a 120hz, non è proprio roba da scrivania per quanto uno possa sforzarsi di farselo andare bene.
Taglio minimo 55" perchè il 49nu8000 è senza pannello a 120hz, non è proprio roba da scrivania per quanto uno possa sforzarsi di farselo andare bene.Le dimensioni sono proprio infattibili, purtroppo i tagli dei pannelli OLED sono quelli, tutti by LG.
Chissà se faranno mai un 32 pollici o bisognerà aspettare i micro led
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
amon.akira
12-01-2019, 12:53
Taglio minimo 55" perchè il 49nu8000 è senza pannello a 120hz, non è proprio roba da scrivania per quanto uno possa sforzarsi di farselo andare bene.
il 55 è 120hz 1440p o 60hz 4k, causa banda passante hdmi2.0
Free Gordon
12-01-2019, 12:56
Quindi supercazzole a parte non c'è bisogno di stravolgere più di tanto gcn per risolvere i problemi.
Devo averla già sentita da qualche parte sta cosa, devo cominciare anche io ha condire i post di acronimi così magari risulto più convincente.
Hanno alzato il clock (@1800mhz) ed eliminato il collo della banda (con un bus allucinante :asd: ).
Il tutto in TRECENTO watt su un nuovo processo produttivo... :doh:
Non proprio un buon auspicio direi... :D
#speriamoinNavi :sofico:
Free Gordon
12-01-2019, 12:58
Il TDP di V64 è 295W.
Sì...peccato che quì c'è un salto intero di nodo tra una e l'altra.. :sofico:
TheDarkAngel
12-01-2019, 12:58
Le dimensioni sono proprio infattibili, purtroppo i tagli dei pannelli OLED sono quelli, tutti by LG.
Chissà se faranno mai un 32 pollici o bisognerà aspettare i micro led
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
che io sappia solo i pannelli samsung attualmente supportano il freesync, non c'è un oled in commercio con il vrr
https://www.rtings.com/tv/tests/motion/variable-refresh-rate
il 55 è 120hz 1440p o 60hz 4k, causa banda passante hdmi2.0
vero, c'è anche quest'ultima limitazione, tra l'altro in 4k è pure limitato 48-60hz
amon.akira
12-01-2019, 13:13
Probabilmente volevano "testare" il nuovo nodo produttivo con qualcosa di vendibile, ma non così strategico come la nuova fascia media.
Le presunte 128 rops mi avevano entusiasmato, ma ora che s'è dimostrato essere un fake la scimmia ha aperto la gabbia da sola, c'è entrata, mi ha guardato triste e mi ha fatto "dai chiudi".
Cmq bella prova per le varie testate di tecnologia.
Cioè, se è tuo cazzo di lavoro recensire schede grafiche dovresti farci caso alle 128rops. E invece niente, copia&incolla della news di qualcun altro e via...
i bench sono sempre quelli eh, non sono calati
fraussantin
12-01-2019, 13:55
Edit
amon.akira
12-01-2019, 14:02
Qualcuno mi spiega come viene calcolato il tdp e con che criterio ? Esempio: rtx 2080 tdp 215w consumo (pl) 225w, vega 64 tdp 295w consumo (pl) 220w. Sbaglio i valori io?
https://www.techpowerup.com/vgabios/203751/nvidia-rtx2080-8192-180828
https://www.techpowerup.com/vgabios/194441/amd-rxvega64-8176-170719
2080reference 215watt, 2080founder edition 225watt
questi sono PL 100%
il power limit ha un margine ulteriore di wattaggio
per esempio nella founder edition è il 24% o 124% quindi 225w+24%=280watt
Einhander
12-01-2019, 15:06
Sì...peccato che quì c'è un salto intero di nodo tra una e l'altra.. :sofico:
Ma TSMC che comunicava che a parita' di consumo si hanno il 30% di prestazioni in piu'
O
che si possa mantenere lo stesso consumo riducendo l'area del 60% ti e' sfuggito?
Oppure dobbiamo continuare a dire cose senza senso?
Hanno fatto cio' che permetteva il nodo stando alle comunicazioni della fonderia: ovvero stesso consumo MA con il 30 % di prestazioni in piu', inoltre hanno rivisto qualcosina per evitare il collo di bottiglia della banda.
Il salto di nodo ha permesso esattamente questo.
Ovviamente non si parla di una nuova architettura, anche perche sospetto che quando arrivera' NAVI cambieranno anche il nome per meglio rimarcare il distacco dall'attuale gen/architettura.
detto cio' vorrei capire se uno che spende 800 euro di vga si preoccupa di 50/60 watt per non so, 4 ore al giorno di media se e' un videogiocatore incallito, MA magari non se ne preoccupa per quanto riguarda il processore che nel caso di intel -attualmente quello che garantisce prestazioni migliori -anche se con margine risibile- consuma come un centrale e scalda altrettanto.
Il gaming spinto adesso si preoccupa di 50 watt a monte del sistema? che pero' non esistono perche' se li mangia tutti il processore che ATTUALMENTE in abbinamento a gpu di fascia alta altissima garantisce le migliori prestazioni medie a risoluzioni 1440p e 4k -anche se in modo a dir poco risibile, fermo restando che qui un 5% in piu' equivale al termine "asfalta" :asd: -
Certo qualcuno potra' dire che le nvidia hanno le unita per il ray tracing, ma appena le attivo smetto di essere un enthusiast gamer perche' sostanzialmente gli fps crollano di brutto....che poi se non le adottano sulle console ste tecnologie mi sa che nvidia dovra' spendere moooooolti soldi per garantirsi un parco titoli minimamente sufficiente che usi questa tecnologia..
Cmq vedremo se con i filtri attiva anche ad alte res queste nuove gpu avranno i benefici di cui parlava anche mikeal..
La possiamo vedere cosi': amd compete con la fascia alta di nvidia semplicemente passando di nodo e facendo il minimo oppure che amd consuma troppo perche' in mezzo c'e' il salto di nodo, ma a me, gamer, fondamentalmente non cambia un cippa, ammesso che a qualcuno importi il secondo punto (parliamo di 40, 50 watt per 4 ore al giorno se sono fomentato...una lampadina neanche troppo potente di 10 anni fa)
Ton90maz
12-01-2019, 15:33
Le ROPs sono 64 come avevo detto qualche pagina fa, ho chiesto a Ryan Smith di verificare con AMD, ha verificato e confermato:
https://twitter.com/RyanSmithAT/status/1083876562238201857
Mi pareva strano che avessero cambiato la topologia dopo 11 anni (cioe' da sempre, da quando siamo passati agli shader unificati) per una scheda HPC in cui sarebbe stata una modifica inutile.
Meglio così, no? Tanto le performance rimangono, indipendentemente dai numeri su cui segarsi e basta.
Se le baracca andasse così come 128 rops e magari anche 8 geo sarebbe ben peggio.
Ale55andr0
12-01-2019, 15:42
l unica cosa che piaceva ad alessandro 128rops :nonsifa:
:cry: :cry: :cry:
niente mutuo per comprarla quindi :O
che generazione di MERDA è questa per comprare gpu, manco coi numeri ti fanno masturbare oh, non bastasse il rapporto prezzo prestazioni vomitevole :asd: tutto cio che non sia una 580 e FORSE una 2060 (si piange per una 50ina di ero diciamo) è più che overpriced, roba da fare cartello NOI, lasciandoli a marcire, sta massa di LADRONI...e invece...:rolleyes:
Il nabbo di turno
12-01-2019, 16:57
https://twitter.com/RyanSmithAT/status/1083959608371175424?s=20
Non ha 128 rops ma in compenso le fp64 non mancano.
Ton90maz
12-01-2019, 17:26
Diciamo che non e' ne' meglio ne' peggio, e' proprio irrilevante, all'atto pratico conta come vanno.
Il resto e' il contorno tecnico che puo' o meno interessare :>
E' irrilevante per le prestazioni di quello che abbiamo, ma può dare idea del margine che possono avere senza dover stravolgere tutto.
Sarei molto meno tranquillo se venisse fuori che non ha la geometria e le rops a mutilare le prestazioni.
Free Gordon
12-01-2019, 17:40
Ma TSMC che comunicava che a parita' di consumo si hanno il 30% di prestazioni in piu'
Dato che la metti così.. :asd: ti stoppo subito e ti chiedo:
cosa significa esattamente questa frase? :)
Cosa vuole dire TSMC con questa affermazione?
Free Gordon
12-01-2019, 17:46
Non ha 128 rops ma in compenso le fp64 non mancano.
Possibile che mantenga questa caratteristica. Del resto è la stessa MI60...che fa la doppia precisione utilizzando 2 unità a singola.
Del resto il ratio di Tahiti era 1:4...non poi così distante, faceva 1Tflops in doppia precisione.
Ale55andr0
12-01-2019, 18:10
https://twitter.com/RyanSmithAT/status/1083959608371175424?s=20
Non ha 128 rops ma in compenso le fp64 non mancano.
Si, ma mentre le prime differenza, tanta o poca che sia, nel gaming la facevano, le seconde ce le sbattiamo nelle terga e basta
sertopica
13-01-2019, 06:07
Se vendi il tuo prendi il Dell S2719DGF e ti avanzano ancora soldi :asd:
Però secondo me è prematura pensare di prendere la VII, aspetterei qualche recensione in più, che sia veramente sul mercato, che si assestino i prezzi (sperando che non facciano come le precedenti vega).
Wow. :D
Si, chiaramente aspetto, acquisti precipitosi mai fatti. Devo anche vedere se effettivamente guadagno molto in relazione alla 1080Ti.
La prima settimana di febbraio ci saranno le recensioni.
Ok grazie. :)
Gyammy85
13-01-2019, 08:42
Wow.
Si, chiaramente aspetto, acquisti precipitosi mai fatti. Devo anche vedere se effettivamente guadagno molto in relazione alla 1080Ti.
Dovrebbe andare dal 5% al 25% in più a seconda dei giochi con una bella riserva di calcolo per il futuro
Ale55andr0
13-01-2019, 10:10
A me piaceva l'idea di avere una VGA nella quale l'antialasing si poteva attivare senza grosse rinunce prestazionali.
Cioè, in 4k a 60hz avresti davvero potuto avere una qualità visiva superba.
:D
già, quel 128 mi aveva fatto schizzare da guinnes :(
mircocatta
13-01-2019, 10:29
fare il cambio 1080ti per radeon vii mi sembra abbastanza superfluo, troppo poca la differenza per giustificarne lo sbattimento (almeno per me)
però già chi possiede una 1080 liscia potrebbe farci un pensierino, visto il valore dell'usato della gtx
Einhander
13-01-2019, 13:18
Dato che la metti così.. :asd: ti stoppo subito e ti chiedo:
cosa significa esattamente questa frase? :)
Cosa vuole dire TSMC con questa affermazione?
Come che vuol dire? che mantenendo l'architettura praticamente la stessa alla base, si possono ottenere il 30% di prestazioni in piu' a parita' di consumo perche' immagino che si possano pompare le frequenze e con la frequenza maggiore si ha lo stesso consumo dei 12/14nm.
Vega 7 fa la stessa roba, ovvero pompa frequenze e ottiene quelle prestazioni medie in piu' -ovviamente immagino che i driver siano ancora un po' acerbi anche se non molto causa l'esistenza delle altre vega molto simili a questa-.
Hanno solo modificato il minimo per poter togliere il collo di bottiglia della BW.
Sostanzialmente come dice bivvoz, gli basta usare delle frequenze maggiori per pareggiare una rtx 2080 -lato gaming-.
Poi se il dramma sono i 50 watt in piu' (su 800 euro di vga)ah beh allora guarda e' proprio grave :asd: :asd:
Cmq il prox anno escono le scatolette nuove con base Navi, ergo se cambia la Uarch e da li in poi tutti i giochi saranno pensati per questa architettura, non mi sorprenderei se poi i risultati medi siano simili a quelli di forza o BF5, visto che sono scritti su misura per le console e relativo hardware.
P.s.:ma poi se si vedono i giochi piu' recenti le amd vanno gran bene eh, non voglio fare il discorso che compro un vga oggi per giocare bene domani, ma neanche compro una vga oggi per giocare bene ieri -tipo civ5, gta5 ecc ecc e altri titoli VETUSTI in cui le nvidia vanno molto di piu'- se non altro quelli amd sono degli ultimi due anni
OvErClOck82
13-01-2019, 13:41
Come che vuol dire? che mantenendo l'architettura praticamente la stessa alla base, si possono ottenere il 30% di prestazioni in piu' a parita' di consumo perche' immagino che si possano pompare le frequenze e con la frequenza maggiore si ha lo stesso consumo dei 12/14nm.
Vega 7 fa la stessa roba, ovvero pompa frequenze e ottiene quelle prestazioni medie in piu' -ovviamente immagino che i driver siano ancora un po' acerbi anche se non molto causa l'esistenza delle altre vega molto simili a questa-.
Hanno solo modificato il minimo per poter togliere il collo di bottiglia della BW.
Sostanzialmente come dice bivvoz, gli basta usare delle frequenze maggiori per pareggiare una rtx 2080 -lato gaming-.
Poi se il dramma sono i 50 watt in piu' (su 800 euro di vga)ah beh allora guarda e' proprio grave :asd: :asd:
Cmq il prox anno escono le scatolette nuove con base Navi, ergo se cambia la Uarch e da li in poi tutti i giochi saranno pensati per questa architettura, non mi sorprenderei se poi i risultati medi siano simili a quelli di forza o BF5, visto che sono scritti su misura per le console e relativo hardware.
P.s.:ma poi se si vedono i giochi piu' recenti le amd vanno gran bene eh, non voglio fare il discorso che compro un vga oggi per giocare bene domani, ma neanche compro una vga oggi per giocare bene ieri -tipo civ5, gta5 ecc ecc e altri titoli VETUSTI in cui le nvidia vanno molto di piu'- se non altro quelli amd sono degli ultimi due anniSull'ultima parte ti quoto alla grande, ma tanto si sa come vanno le cose no ? :asd:
Inviato dal mio COL-L29 utilizzando Tapatalk
Gyammy85
13-01-2019, 13:56
fare il cambio 1080ti per radeon vii mi sembra abbastanza superfluo, troppo poca la differenza per giustificarne lo sbattimento (almeno per me)
però già chi possiede una 1080 liscia potrebbe farci un pensierino, visto il valore dell'usato della gtx
Rispetto alla 1080 siamo a +40-50% a seconda dei giochi, sulla 1080ti ovviamente meno ma considera che ha molta più potenza bruta e credo aiuti molto per il discorso frametime...e dmc girava a tipo 90 fps medi a 4k maxato che è una valore da zona 2080ti
mircocatta
13-01-2019, 14:00
Rispetto alla 1080 siamo a +40-50% a seconda dei giochi, sulla 1080ti ovviamente meno ma considera che ha molta più potenza bruta e credo aiuti molto per il discorso frametime...e dmc girava a tipo 90 fps medi a 4k maxato che è una valore da zona 2080ti
vedremo con le review ;) in effetti potri a prescindere vendere la ti e aspettare un mese questa radeon, con un 50-100€ di aggiunta dovrei riuscire a prenderla.. il problema è che ho la Ti sotto liquido e smontare tutto è una bella pugnetta :D
Ale55andr0
13-01-2019, 18:26
fare il cambio 1080ti per radeon vii mi sembra abbastanza superfluo, troppo poca la differenza per giustificarne lo sbattimento (almeno per me)
però già chi possiede una 1080 liscia potrebbe farci un pensierino, visto il valore dell'usato della gtx
In che senso? per me la 1080 ora ha visto il suo valore colare a picco sull'usato, per via della 2060. Venderla per passare a radeon 7 sarebbe solo perdere soldi e dover aggiungere altri 4 cartoni :stordita:
Ale55andr0
13-01-2019, 18:28
edit doppio
In che senso? per me la 1080 ora ha visto il suo valore colare a picco sull'usato, per via della 2060. Venderla per passare a radeon 7 sarebbe solo perdere soldi e dover aggiungere altri 4 cartoni :stordita:
Teniamocela stretta, la 1080, bro'! :O
:sofico:
Gyammy85
13-01-2019, 19:37
Ma infatti è sempre così, se è una invidia vale la pena passare da una x80 ad una x80 dopo, se però è targata amd no.
Poi oh, la penso come voi, ma tant'è...
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Sai com'è il +40% medio in più fa schifo a quanto pare, tutta questa razionalità che sta emergendo è stupefacente
Ale55andr0
13-01-2019, 20:01
Teniamocela stretta, la 1080, bro'! :O
:sofico:
puccioppo....
Ale55andr0
13-01-2019, 20:02
Sai com'è il +40% medio in più fa schifo a quanto pare, tutta questa razionalità che sta emergendo è stupefacente
il 40% MEDIO (o addirittura il 50 sono arrivato a leggere) lo vedono solo alcuni illuminati attraverso misteriosi occhiali fabbricati oltreverso
Gyammy85
13-01-2019, 20:19
il 40% MEDIO (o addirittura il 50 sono arrivato a leggere) lo vedono solo alcuni illuminati attraverso misteriosi occhiali fabbricati oltreverso
Vedremo quante 2080ti da 600 euro in più umilierà coi tech demo e giochi in bundle e futuri
Toto Navi, se amd ha dichiarato che ryzen3000 arriverà a metà anno, Navi uscirà prima o dopo?
Per logica se uscisse dopo e quindi nel q3 avrei fatto un refresh di vega10 piazzandola meglio vs tu106, un po' come quando è uscito r390/x con clock leggermente superiori, altrimenti mo vien da pensare che esca prima Navi di ryzen 3000.
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Magari escono a maggio insieme, o fanno un Horizon per le CPU e un capsaicin per le gpu
Ale55andr0
13-01-2019, 20:52
Non incominciare, amd dichiara +30% medio sul proprio sito, con tanto di tabella, e ci sono giochi dove magari fa solo +7% e altri dove prende addirittura il +60%...
Comunque il concetto non è quello, e l'hai capito benissimo, ma se dovete parlare di Vega7 c'è il thread apposta
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
non sono mica io che non devo cominciare, è chi (continua, non comincia) s sparrea percentuali che proprio ora tu hai smentito dandomi ragione.
Ale55andr0
13-01-2019, 20:53
Vedremo quante 2080ti da 600 euro in più umilierà coi tech demo e giochi in bundle e futuri
salvato
Gyammy85
13-01-2019, 21:16
non sono mica io che non devo cominciare, è chi (continua, non comincia) s sparrea percentuali che proprio ora tu hai smentito dandomi ragione.
Parlavo vs la 1080
Ale55andr0
13-01-2019, 21:23
pure io
Ale55andr0
13-01-2019, 23:22
Dalle medie di techpowerup che vi piacciono tanto una 2080 fa cosi':
https://tpucdn.com/reviews/NVIDIA/GeForce_RTX_2080_Founders_Edition/images/relative-performance_3840-2160.png
La VII che va in media uguale fara' in media uguale sulla 1080. O no?
ti dico solo che amd allora deve far pace con se stessa e col cervello visto il numero dichiarato sulla vega 64 e che secondo loro la porrebbe in pari alla 2080. Qualquadra non cosa....
Gyammy85
14-01-2019, 07:58
ti dico solo che amd allora deve far pace con se stessa e col cervello visto il numero dichiarato sulla vega 64 e che secondo loro la porrebbe in pari alla 2080. Qualquadra non cosa....
Si ma vedi loro dicono che il processo ti aumenta del 25% di prestazioni a parità di consumo o stesse performance a metà consumo, di base proprio, poi loro con le ottimizzazioni varie superano quella percentuale in molti casi, figurati che in base a quelle performance sono nate le indiscrezioni sulle 128 rops poi smentite.
Considera che l'andazzo nella roba nuova sarà simile a strange brigade, dove pure una 64 pagava il 15% di performance sulla 2080
Per i giochi vecchi invece avrai 2080 poco più o poco meno, lasciamo perdere ac, magari prima o poi esce la patch che attiva il secondo core della cpu così passeremo dalle performance del 2004 a quelle del 2008
Gyammy85
14-01-2019, 08:16
Comunque già ad oggi sarebbe fattibile una scheda uguale a vega 64 a consumi dimezzati, amd lo ha sempre detto che si va di più performance a consumi uguali o stesse performance a metà consumi
Ale55andr0
14-01-2019, 08:26
Quadra che le medie di tpu sono carta straccia.
Il calcolo mio era riferito ai 26 giochi provati, almeno dicono i siti, da AMD. La media calcolata risultava essere inferiore al 30%... ripeto, grafici che is presume fossero forniti da amd che non ha certo interessi a mortificare in difetto i suoi valori
Ale55andr0
14-01-2019, 08:29
Si ma vedi loro dicono che il processo ti aumenta del 25% di prestazioni a parità di consumo o stesse performance a metà consumo, di base proprio, poi loro con le ottimizzazioni varie superano quella percentuale in molti casi, figurati che in base a quelle performance sono nate le indiscrezioni sulle 128 rops poi smentite.
Considera che l'andazzo nella roba nuova sarà simile a strange brigade, dove pure una 64 pagava il 15% di performance sulla 2080
Per i giochi vecchi invece avrai 2080 poco più o poco meno, lasciamo perdere ac, magari prima o poi esce la patch che attiva il secondo core della cpu così passeremo dalle performance del 2004 a quelle del 2008
non resta che attendere meno di un mese per dissipare i dubbi :)
AceGranger
14-01-2019, 15:51
https://twitter.com/RyanSmithAT/status/1083959608371175424?s=20
Non ha 128 rops ma in compenso le fp64 non mancano.
no, mancano anche quelle :stordita:
https://techgage.com/news/radeon-vii-caps-fp64-performance/
"We reached out to AMD’s Director of Product Marketing Sasa Marinkovic to inquire whether or not the FP64 inclusion was real, and were told quite simply that “Radeon VII does not have double precision enabled.” That means instead of delivering 6.7 TFLOPS of FP64 like the MI50, Radeon VII will be closer to ~862 GFLOPS (it’s 1:32 with half-precision like RX Vega)."
nulla di grave, praticamente nessuno ne sentira la mancanza, se non quei pochi che non potranno piu urlare ai 4 venti che era una GPU computing super uber mega perchè aveva le FP64, invece le brutte e cattive RTX no :asd:
Il nabbo di turno
14-01-2019, 15:54
no, mancano anche quelle :stordita:
https://techgage.com/news/radeon-vii-caps-fp64-performance/
"We reached out to AMD’s Director of Product Marketing Sasa Marinkovic to inquire whether or not the FP64 inclusion was real, and were told quite simply that “Radeon VII does not have double precision enabled.” That means instead of delivering 6.7 TFLOPS of FP64 like the MI50, Radeon VII will be closer to ~862 GFLOPS (it’s 1:32 with half-precision like RX Vega)."
Eh vabbe', niente prosumerismo :asd:
AceGranger
14-01-2019, 15:58
Eh vabbe', niente prosumerismo :asd:
ma va, il grosso del mercato Prosumer/Pro è fatto di utenti che lavorano in campo visual/render/editing/real-time; le FP64 sono e saranno sempre inutili per il grosso del mercato.
le FP64 sono roba di nicchia, saranno numericamente molto pochi quelli che ne sentiranno realmente la mancanza.
Il nabbo di turno
14-01-2019, 16:00
ma va, il grosso del mercato Prosumer/Pro è fatto di utenti che lavorano in campo visual/render/editing/real-time; le FP64 sono e saranno sempre inutili per il grosso del mercato.
le FP64 sono roba di nicchia, saranno numericamente molto pochi quelli che ne sentiranno realmente la mancanza.
Ma infatti esiste la mi instinct, che senso ha fare una instinct a 700 dollari con tutto abilitato, ammazzerebbero solo la variante professionale...
Gyammy85
14-01-2019, 17:12
no, mancano anche quelle :stordita:
https://techgage.com/news/radeon-vii-caps-fp64-performance/
"We reached out to AMD’s Director of Product Marketing Sasa Marinkovic to inquire whether or not the FP64 inclusion was real, and were told quite simply that “Radeon VII does not have double precision enabled.” That means instead of delivering 6.7 TFLOPS of FP64 like the MI50, Radeon VII will be closer to ~862 GFLOPS (it’s 1:32 with half-precision like RX Vega)."
nulla di grave, praticamente nessuno ne sentira la mancanza, se non quei pochi che non potranno piu urlare ai 4 venti che era una GPU computing super uber mega perchè aveva le FP64, invece le brutte e cattive RTX no :asd:
Mettiamola così, anche senza fp64 full fa 862 gigaflops +70% sulla titan rtx :asd:
Il nabbo di turno
14-01-2019, 17:38
Comunque è un bene che questa scheda ci sia, magari non è parca nei consumi, ma le performance per un 4k da gaming ci sono tutte, e i 16gb aiutano e non poco anche in ottica longevità.
AceGranger
14-01-2019, 18:41
Certo che te le leghi proprio al dito le cose, se la metti così allora sto ancora aspettando che:
- ci confermi o smentisci(smentisci ovviamente) che i 12nm che usa invidia 12nmFFN by TSMC, sono i 12nm by GF che usa amd con ryzen e polaris;
guarda che ti sei sempre fatto tu il viaggio mentale sui 12nm di TSMC perchè io ho sempre parlato di 12nm in generale...
AMD è arrivata semplicemente dopo perchè non aveva i soldi di nVidia da spendere e ha aspettato GF; nulla avrebbe ipmpedito ad AMD di collaborare con TSMC per farsi il suo 12nm.
- ci spieghi perchè Turing è la prima vera architettura gaming della storia di invidia con padelle vendute nelle quadro e usano gli scarti nel gaming;
da che mondo e mondo le GTX sono SEMPRE state le Quadro scartate, SEMPRE, comprese le Pascal; se per te le Turing sono solo pro, lo sono anche le Pascal visto che sono la stessa identica cosa.
le unita RT servono molto di piu alto gaming; lato Pro danno benefici solo in campo rendering, nulla che fino a ieri non potesse essere fatto aggiungendo una GPU in piu alla farm... no perchè lato Pro è un attimo smistare il carico su 1-2 o 4 GPU o avere GPGPU distribuito in rete, il problema è sempre stato solo lato gaming e il real-time gmaing; fra l'altro il mercato Rendering è una parte del mercato Quadro; è senza senso pensare che nVidia abbia speso un paio di miliardi in R&D per un'architettura rivolta ad una fetta di 300 Milioni del mercato Quadro, manco tutto.... con il mercato Gaming che ne vale 1,8 Miliardi...
semplicemente, QUADRO e GTX ( cosi come RX e RadeonPRO ) dovranno SEMRPE condividere l'architettura perchè con le prime crei i contenuti e con le seconde ne fruisci;
di sole Quadro con l'RT non te ne faresti nulla perchè poi non avresti GPU gaming sul quale far girare i contenuti...
- come mai amd è già passata ai 7nm mentre invidia no, accumulando esperienza sul silicio nuovo con un anno di vantaggio, ed è impossibile che sarebbe accaduto perchè se amd esce nel q4 2018 e q1 2019 a 7nm addirittura su desktop allora lo deve fare anche invidia perchè è "è così" o per grazia ricevuta;
ma, forse perchè nVidia ha un volume di vendita che è n° volte quello di AMD ?
cioè.. è passata ai 7nm con le Instinct, e ora con una singola GPU da 700 dollari.... tipo che per ogni Instinct che vende AMD, nVidia vende minimo quante, 30-40 Tesla ? no perchè di Instinct non esiste manco 1 HPC che le monti... saranno tutte in super PC nascosti.
di 1080 quante ne ha vendute nVidia piu di vega 64 ? dai, seriamente credi che i 7nm siano pronti per i volumi di nVidia ?
per la qustione Turing poi, dovevano uscire su un pp differente, abortito quello hanno ripiegato sui 12nm che gia avevano svilupapto, avendo tutto pronto non avrebbe avuto senso aspettare 1 anno per avere in volumi i 7nm.
- che ci rispondi sul grafico a torta di JPR e su cosa intendono loro per mainstream, peformance e enthusiats;
?
- ci spieghi perchè invidia sarebbe brutta e cattiva se come amd non mette le fp64 in gpu gaming;
:asd: questo lo devi chiedere a qualcun'altro qua dentro , perchè io ho sempre scritto che le FP64 sono inutili per il 99% del mercato PRO e che una GPU PRo non la si guarda dalla presenza o meno delle FP64, e non ho mai fatto differenza fra Titan, Vega , QUADRO o Radeon PRO.
AceGranger
14-01-2019, 18:48
Mettiamola così, anche senza fp64 full fa 862 gigaflops +70% sulla titan rtx :asd:
mettiamola cosi, l'inutilia + 70% rimane comunque inutile :asd: e continuera a far rimanere AMD nella sua pozza al 20% di market share lato pro e 0,xx lato computing.
Gyammy85
14-01-2019, 19:24
mettiamola cosi, l'inutilia + 70% rimane comunque inutile :asd: e continuera a far rimanere AMD nella sua pozza al 20% di market share lato pro e 0,xx lato computing.
Che ti devo dire manda la mail ad amd
Einhander
15-01-2019, 16:47
guarda che ti sei sempre fatto tu il viaggio mentale sui 12nm di TSMC perchè io ho sempre parlato di 12nm in generale...
AMD è arrivata semplicemente dopo perchè non aveva i soldi di nVidia da spendere e ha aspettato GF; nulla avrebbe ipmpedito ad AMD di collaborare con TSMC per farsi il suo 12nm.
da che mondo e mondo le GTX sono SEMPRE state le Quadro scartate, SEMPRE, comprese le Pascal; se per te le Turing sono solo pro, lo sono anche le Pascal visto che sono la stessa identica cosa.
le unita RT servono molto di piu alto gaming; lato Pro danno benefici solo in campo rendering, nulla che fino a ieri non potesse essere fatto aggiungendo una GPU in piu alla farm... no perchè lato Pro è un attimo smistare il carico su 1-2 o 4 GPU o avere GPGPU distribuito in rete, il problema è sempre stato solo lato gaming e il real-time gmaing; fra l'altro il mercato Rendering è una parte del mercato Quadro; è senza senso pensare che nVidia abbia speso un paio di miliardi in R&D per un'architettura rivolta ad una fetta di 300 Milioni del mercato Quadro, manco tutto.... con il mercato Gaming che ne vale 1,8 Miliardi...
semplicemente, QUADRO e GTX ( cosi come RX e RadeonPRO ) dovranno SEMRPE condividere l'architettura perchè con le prime crei i contenuti e con le seconde ne fruisci;
di sole Quadro con l'RT non te ne faresti nulla perchè poi non avresti GPU gaming sul quale far girare i contenuti...
ma, forse perchè nVidia ha un volume di vendita che è n° volte quello di AMD ?
cioè.. è passata ai 7nm con le Instinct, e ora con una singola GPU da 700 dollari.... tipo che per ogni Instinct che vende AMD, nVidia vende minimo quante, 30-40 Tesla ? no perchè di Instinct non esiste manco 1 HPC che le monti... saranno tutte in super PC nascosti.
di 1080 quante ne ha vendute nVidia piu di vega 64 ? dai, seriamente credi che i 7nm siano pronti per i volumi di nVidia ?
per la qustione Turing poi, dovevano uscire su un pp differente, abortito quello hanno ripiegato sui 12nm che gia avevano svilupapto, avendo tutto pronto non avrebbe avuto senso aspettare 1 anno per avere in volumi i 7nm.
?
:asd: questo lo devi chiedere a qualcun'altro qua dentro , perchè io ho sempre scritto che le FP64 sono inutili per il 99% del mercato PRO e che una GPU PRo non la si guarda dalla presenza o meno delle FP64, e non ho mai fatto differenza fra Titan, Vega , QUADRO o Radeon PRO.
Ragazzi, penso che sappiate che non sono certo un simpatizzante Accidia, ma in questi discorsi Ace dice la sacrosanta verita'....ho provato piu' volte a farlo capire anche a Gyammy, ma pare che non si voglia sentire.
Se parliamo di lato gaming, ok amd e' presente, e senza dubbio ha iniziato ad essere presente pure in alcuni settori scientifici tipo deeplearnig & Co.
Ma la situazione lato prosumer o semipro e' a dir poco tragica...
Il motivo per cui si usa lux render come render engine nelle recensioni e' perche' e' uno dei pochi motori di render che e' ottimizzato per le opencl e non per CUDA.
Ma da qui a pensare che Lux render sia UN SOFTWARE usato e diffuso in ambito prosumer e, in particolar modo, nella creazione di contenuti, rendering, cgi di varia natura equivale alla follia pura.
Cioe' non bisogna pensare che siccome sta nelle recensioni perche' altrimenti che ci mettiamo, allora significa che nel mondo di cui sopra e' minimamente calcolato eh :stordita:
Lho sempre ribadito che una delle pecche piu' gravi e storiche di amd e' stata quella di lasciare -stessa roba con ati- il mercato professionale INTERAMENTE o quasi in mano ad nvidia.
Sta situazione e' la medesima da quando io ho memoria e se vuoi cambiarla o ci investi fior fiore di dindi creandoti delle "punte di diamante" in suite strategiche oppure semplicemente fai prima ad abbandonare la corsa, perche' fare come si sta facendo ora e' SOLO FARE FINTA di fare qualcosa.
E per la miseria sarei supermegaiper felicissimo di poter scegliere fra 3-4 anni tra un'alternativa amd o nvidia in base al software che uso vedendo quale delle due mi offre di piu'.
Non se ne puo' piu' del monopolio nvidia in questo settore anche e soprattutto per una mera questione di prezzi e di innovazione.
Ma la situazione attuale, salvo stravolgimenti, e' tragica ragazzi.
E mi chiedo, anche con i soldi di ryzen, quanto la divisione gpu si possa permettere di investire in questa direzione.
Va da se che anche i numeri di gpu vendute da nvidia in relazione a questo settore siano semplicemente non paragonabili a quelle nVidia. Punto.
Ma e' un tallone di achille dei "rossi" da tempi atavici questo, non e' certo figlio degli ultimi 10 anni eh, men che meno degli ultimi sotto LISONA :)
AceGranger
15-01-2019, 17:27
Ma in ritardo sui 12nm con cosa, con Volta intendi? guarda che AMD ha pensato bene di dirottare tutta la produzione dei 12nm GF sulle cpu con i Ryzen2000, molto prima di Turing, poi gli saranno avanzati degli slot e ci ha piazzato Polaris20, Vega10 ormai è tardi ci sono i 7nm e infatti li sperimenta con Vega20 e la messa in produzione finale e quindi in vendita, sia nel Pro/DL a novembre 2018 che nel gaming tra meno di un mese a febbraio 2019.
AMD ha saltato i 12nm perchè i guadagni sulla sua architettura sarebbero stati pochi; vedasi d'altronde che riesce a pareggiare nVidia solo con i 7nm.
Ma non sono mai stati "scarti", ma chip completi, non ricordo una ma che sia una x80 che fosse derivata da un CUT, l'unica Full chip delle RTX è la 2070, poi c'è la Titan RTX che costa 2500$, si certo un prezzo da Gaming come no.
:rolleyes: Tutte le x08Ti sono sempre stati dei CUT, compresa la prima una Titan.
Attualmente i chip sono piu grandi e in piu varianti e quindi ci sono versioni CUT, e le versioni CUT vengono scelte in base alle rese e ai volumi di vendita.
Che poi sono ragionamenti senza senso, visto che anche le QUADRO, a seconda dei chip e delle generazioni sono state dei CUT, quindi quelle cuttate sono meno pro delle altre ?
Indubbiamente non hanno i volumi, ma fai esperienza su un silicio nuovo e con 1 anno di vantaggio, quando invece stavate tutti qua a scrivere che se amd fosse uscita nel Q4-2018 o Q1 2019 con un prodotto a 7nm Pro o Gaming che sia allora invidia per forza di cose lo avrebbe fatto altrettanto, io vi dicevo di no che è mica scontato, e invece uscirà sui 7nm nel 2020 col silicio Samsung.
puoi fare tutta l'esperienza che vuoi ma se non hai i volumi non hai volumi, e attualmente NON esistono i volumi per nVidia.
4 Instinct in croce e 5000 Vega VII... praticamente 1 solo ordine di nVIdia di Tesla per un HPC a caso.
Hai capito benissimo, JPR indica nel suo grafico a torta che:
mainstream <150$
mid-range 150-350$
high-end >350$
workstation 200-2000$
per cui quando dici che si vendono un botto di gpu high-end o enthusiast richiamando il grafico JPR, ricordatevi anche che per loro sono comprese schede come la 1070, e da domani anche le rtx2060 siccome hanno msrp >350$.
Quindi non si può dal grafico JPR sostenere che si vendono come pane le 1080ti, perchè in quella parte di torta sono comprese anche le gtx1070 e gtx1080, da domani lo saranno dalla rxt 2060 in su, e storicamente le x60 sono quelle che vendono di più per ovvi motivi di costi contenuti al consumatore.
continuo a non capire, mica avevamo sempre parlato del fatto che le 1060 fossero fascia media e dalla 1070 in su fascia alta ?
Sono talmente inutili che invidia le inserisce nel sua gpu di punta HPC com'era Volta, Turing non ce l''ha perchè altrimenti sarebbe andati intorno ai 1000mmq :sofico:
veniva fuori tipo 1 chip funzionante a wafer, già intorno i 750-800mmq sei ai limiti dello yield, se te ne escono 10-15 completi sei fortunato su un wafer da 300mm...
mi pare di aver scritto chiaramente e in italiano ma provo una seconda volta.
sono inutili per il mercato Visual e difatti il 99% delle Quadro non ce l'ha.
le GPU HPC non sono le QUADRO e hanno un loro chip differente.
Gyammy85
15-01-2019, 19:05
Mah, tutte le partnership con Amazon, Alibaba, fnatic (che ha già dichiarato l'utilizzo di Radeon 7 nelle competizioni), credo che usino un bel po' di schede
sgrinfia
15-01-2019, 20:55
[QUOTE=AceGranger;46007345]AMD ha saltato i 12nm perchè i guadagni sulla sua architettura sarebbero stati pochi; vedasi d'altronde che riesce a pareggiare nVidia solo con i 7nm.
Ancora sento questa storia,:doh: guarda che una azienda non fa gara con l'altra concorrente , ho perlomeno lo fa per riflesso.
Una azienda fa concorrenza al prodotto che a messo prima lei in commercio , il raggiungimento del successo di un prodotto è superare e migliorare se stesso.( prestazioni, consumi e confort acustico ....si insomma una miriade di cose ....
Ton90maz
15-01-2019, 22:32
Che poi anche fossero solo 5k pezzo, a 200$ di guadagno l'uno fa 1 milione pulito su chip di fascia nababbi, non sono mica cellulari dove la gente si vende davvero i reni...
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
200? Ma figuriamoci :asd:
Ton90maz
15-01-2019, 23:37
300?
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Per me è più vicino a ZERO, che a 200, se gli va bene
Free Gordon
16-01-2019, 00:01
Per me è più vicino a ZERO, che a 200, se gli va bene
Secondo me un chip AMD lo vende attorno ai 200-250$ non di più..
Se sottraiamo il costo che ha per produrlo, credo ci guadagno un centinaio di $ ma non di più..
Sicuro non è ZERO.
Ton90maz
16-01-2019, 01:30
Magari -200
Ti ho fatto i conti di quanto può costare un chip full vega20, max $120 dollari e sono stato largo, ora dimmi come fai ad arrivare a 700$ col resto sentiamo.
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Intanto bisognerebbe essere chiari su cosa si intende per guadagno. Quali costi vengono considerati? Anche quelli di ricerca e sviluppo, pubblicità, certificazione, lancio del prodotto, inclusi i vari sample?
O intendi il "guadagno" supponendo che i costi li paghino le instinct?
Però anche considerando il "guadagno"... accettiamo come vera l'ipotesi dei 200 dollari.
Potrebbero avere delle schede super competitive e invece se ne stanno a fare cartello col marchio "di serie A" che al 100% venderà un fottio di più? Proprio adesso che le invidia hanno cominciato a puzzare di marcio e a non andare troppo a genio si mettono a vendere a prezzi alti? Perché con delle valide alternative a prezzi competitivi non ho dubbi che farebbero numeri soddisfacenti (al netto delle capacità produttive, che se fossero castrate sarebbero scemi doppi), ma chi se le fila delle baracche che a questo giro hanno anche feature in meno? Tenendo conto del rivenditore, che sicuramente vorrà un margine più alto su componenti più costosi, questi potrebbero vendere a oltre 200 dollari di meno, se andassero in pari. Che con le tasse vorrebbe dire una differenza ancora maggiore. Anche senza fare la caritas, potrebbero trovare un prezzo intermedio e guadagnarci ugualmente.
Non mi torna proprio che possano prendere duecento dollari per baracca, e non serve fare calcoli strani.
Potrebbero preparare la anti 2060-2070 gratis semplicemente con uno o due stack in meno, e venderla a prezzi più bassi di una 56. Se invece nel mondo reale hanno altri prezzi devono avere dei motivi.
Gyammy85
16-01-2019, 08:41
Ma sinceramente: a noi che ci frega quanto guadagna una multinazionale dalla vendita di una VGA?
Infatti, sembra che amd debba chiedere il permesso prima di lanciare un prodotto :asd: salvo poi lamentarsi del "volevo amd ma siccome schede non ce ne sono devo prendere nvidia"
Lunar Wolf
16-01-2019, 12:24
Tanto AMD non guadagna dalle schede video, le lancia solo per far scendere i prezzi delle Nvidia così la gente può comprarle :OAvevo sentito che le piazza pure sottocosto...
fraussantin
16-01-2019, 12:48
Edit non vale la pena farsi bannare ..
Ton90maz
16-01-2019, 13:46
Questo era Hawaii vs Fiji come costi:
https://www.overclock.net/photopost/data/1626421/a/ae/aeac88da_Sys-plus-1.png
come dire Tu106 vs Vega20 (ma è grossa la metà di Fiji)
R&D in Vega20 sono irrisori, non sono mica come quelli di Turing è lampante la cosa e vorrai mica dirmi che 1 modulo hbm2 uscito a metà del 2017 costi il doppio di un nuovo modulo gddr6 uscito a fine 2018?
certo amd ti da il doppio di vram quindi almeno il doppio su quella gli costa certo.
Però ti chiedo, anche assumendo che il 12nm costi la metà del 7nm, mettiamo 5'000 vs 10'000 a wafer, se secondo te amd ci perde con un die size da 331mmq dove considerando un incidenza Defect Density (#/sq.cm) di 0.2 (silicio nuovo) ci escono comunque 90 chip buoni e 80 con dei difetti i quali ne recuperi diciamo la metà (come lo yield iniziale) quindi 40, fanno 10'000$/130D = 77$/Die, come fa allora invidia a guadagnarci con die size che vanno dai 450mmq ai 750mmq?
il calcolo è presto fatto: https://caly-technologies.com/die-yield-calculator/
Assumendo uno yield migliore sui 12nm con un incidenza Defect Density (#/sq.cm) di 0.1 invece che 0.2 rispetto i 7nm, con die size 450mmq escono 70 die puliti e 40 con difetti, ne reciclano 20? con un costo a Die di 5'000/90 = 55$/Die...22$ di differenza al costo del chip contro msrp molto più bassi, eppure vendono la 2070 a 500$ e la 2060 a 350$ (msrp) molto meno che questa VII, ma dai margini altissimi immagino dato che si chiama invidia, però il come sia possibile è un mistero.
con 550mmq ne escono 55 buoni e 37 con difetti, quelli che si chiamano 2080, con 750mmq ne escono 34 e 34 quelli che si chiamano TitanRTX e 2080ti.
Per me ti stai fossilizzando troppo sul costo del die, tra l'altro stimato da un programmino del piffero, e su stime non necessariamente affidabili.
Anche rimettere in pista la baracca coi freni a tamburo ha dei costi, è sempre un chip totalmente nuovo anche se basato sulla solita 131 arrugginita.
Io non credo che li vendano in perdita come qualcuno sostiene, ma sono convinto che il margine sia più vicino a 0 che a 200, e, ripeto, non ci sono calcoli che tengano, potrebbero sbancare con niente e invece se ne staranno lì a raccogliere le briciole solo per fare i rabbini?
Ale55andr0
16-01-2019, 16:01
comunque facendo due conti riflettendo:
vega 64
4096sp/64cu
256tmu
64rops
~1500mhz
~500gb/s banda
radeon 7
3840sp/60cu
240tmu
64rops
1800mhz
1tb/s banda
lato gpu fondamentalmente hanno perso unità e compensato in frequenza, lato banda l'hanno raddoppiata (insieme alla capienza) raddoppiando il bus con 4 moduli hbm. In pratica in termini di raw performance il chip ha solo perso, non fosse per il clock, infatti la potenza di calcolo è solo leggermente più alta della 64, sempre grazie al clock di cui sopra.
Di buono c'è che se consideriamo i 7nm e il cutting, nonstante il clock più alto non ci sono grossi motivi perchè debba consumare molto, a dire il vero mi aspettrei tipo 225w max stanti i numeri di cui sopra (se non hanno fatto cazzate con il vcore come in passato...). Peccato davvero però per la mancanza di novità sostanziali, i 3840sp mi avevano fatto urlare ai 6 geo e 96rop, poi si parlò di 128rop (e sbavavo) e invece hanno fatto proprio il minimo, e dovrebbe essere il top per tutto il 2019 :stordita: se manco coi 7nm si schiodano dai quei numeri "storici" però che du ball :rolleyes
...Idem nvidia, che nella 2080 imho doveva fare 3072/96 12gb/384 e invece ha fatto quel perculamento con meno ram della 1080ti. Che anno di merda per le gpu oh :muro:
Lunar Wolf
16-01-2019, 16:44
comunque facendo due conti riflettendo:
vega 64
4096sp/64cu
256tmu
64rops
~1500mhz
~500gb/s banda
radeon 7
3840sp/60cu
240tmu
64rops
1800mhz
1tb/s banda
lato gpu fondamentalmente hanno perso unità e compensato in frequenza, lato banda l'hanno raddoppiata (insieme alla capienza) raddoppiando il bus con 4 moduli hbm. In pratica in termini di raw performance il chip ha solo perso, non fosse per il clock, infatti la potenza di calcolo è solo leggermente più alta della 64, sempre grazie al clock di cui sopra.
Di buono c'è che se consideriamo i 7nm e il cutting, nonstante il clock più alto non ci sono grossi motivi perchè debba consumare molto, a dire il vero mi aspettrei tipo 225w max stanti i numeri di cui sopra (se non hanno fatto cazzate con il vcore come in passato...). Peccato davvero però per la mancanza di novità sostanziali, i 3840sp mi avevano fatto urlare ai 6 geo e 96rop, poi si parlò di 128rop (e sbavavo) e invece hanno fatto proprio il minimo, e dovrebbe essere il top per tutto il 2019 :stordita: se manco coi 7nm si schiodano dai quei numeri "storici" però che du ball :rolleyes
...Idem nvidia, che nella 2080 imho doveva fare 3072/96 12gb/384 e invece ha fatto quel perculamento con meno ram della 1080ti. Che anno di merda per le gpu oh :muro:Ma cosa dovevano fare di più se è un cut/riciclo proveniente da un altro modello?
Se vuoi la novità attendi navi o quello che sarà attualmente questa è una soluzione per vendere scarti che dovevano buttare e giustamente togliere qualche utente a Nvidia che anzi, se avesse pronto navi, visto che gli rma della serie Turing, poteva giocare a vantaggio di AMD nel offrire una VGA migliore ma d'altronde, per quel che mi riguarda, a parità di soldi e meglio AMD.. Almeno hai una VGA che anche se non fa 500fps in più non ti dura una settimana...
Gyammy85
16-01-2019, 18:32
Resta il fatto che quella potenza rende molto più nei bench rispetto a Vega 10, uno si aspetterebbe un comportamento stile zen a zen+ dove limano i punti deboli essenzialmente, ma qui guadagna di più dove andava già forte prima, cioè luxball già andava quanto la 2080 e ora fa +62%, strange Brigade +42%, neanche una liquid spinta tweakata ottimizzata con memorie OC arriva a quelle performance.
Qualcosa hanno cambiato per forza
Ale55andr0
16-01-2019, 19:38
Gli unici numeri che contano sono quelli delle prestazioni e del prezzo, al massimo la quantità di vram.
Di quante rop, cu, sp, geo e di come fa il culling sinceramente è aria fritta.
Al massimo può essere una discussione interessante una volta che hai in mano i dati approfonditi delle prestazioni per cercare di comprenderne i motivi, ma visto che i dati delle prestazioni sono pochi e incerti è aria fritta al 100% a questo stato.
è sempre vega, non navi, perciò dai numeri le prestazioni le desumi in linea di massima: perdi un po di unità, guadagni 200mhz abbondanti e togli il limite di banda passante che ovviamente non sarà più un freno per la gpu, ma il chip quello resta.
A chi diceva di navi, sinora pare si sia detto che sarà in declinazioni non high end per i primi tempi, quindi non è che c'è da aspettare qualche mese, perchè arriverà verso fine anno ad andar bene già la sola fascia media e bassa
Ale55andr0
16-01-2019, 19:43
in realtà a livello di base e boost i clock sono aumentati poco rispetto alle medie prese nei giochi:
vega64 lc 1400/1670
vega64 air 1250/1550 (usata nel confronto)
vega60 air 1450/1800 (da confermare) +16% clock sulla air, appena +4/8% sulla liquid
A livello di TF tra vega64 lc e radeonVII non cambia nulla, sono 13.7TF entrambe, ma la VII outperforma la air del 30% e quindi la liquid del 20% stando alle info fornite da amd e come media, quindi o la banda fa miracoli o c'è qualcosa che la fa funzionare meglio nonostante lo stesso schema di sempre...
E io cosa ti dicevo, non ti fossilizzare sui numeri di geo rops cu, ecc, alla fine conta quanto va e a meno di clamorose debacle delle review va forte e come i 6 geo della concorrenza se a pari clock, ma è anche vero che la VII è come se invidia utilizzasse i 512bit.
Il vantaggio della 2080 probabilmente lo si potrà magari vedere in quei giochi tipo AC, dove fanno leva sulla geometria spinta, perchè la 2080 ha i 6 gpc anche se poca potenza di alu e banda tagliata a 256bit, ma nei giochi più orientati al compute VII penso che la batterà praticamente sempre.
se prima era bandwidth starved come più volte si è discusso in questi lidi è ovvio che togliendo quel probema guadagni in modo apprezzabile. Sulla 2080 il 256bit non è un problema, avendo le gddr6 14gbps possiede una banda passante di 448gb/s quindi non bassa....e le sue gpu non si sono dimostrate particolarmente avide in quel senso, o almeno non tanto quanto
Il nabbo di turno
16-01-2019, 20:00
se prima era bandwidth starved come più volte si è discusso in questi lidi è ovvio che togliendo quel probema guadagni in modo apprezzabile. Sulla 2080 il 256bit non è un problema, avendo le gddr6 14gbps possiede una banda passante di 448gb/s quindi non bassa....e le sue gpu non si sono dimostrate particolarmente avide in quel senso, o almeno non tanto quanto
Perchè la dcc di pascal/turing è troppo superiore a quella di polaris/vega, praticamente all'atto pratico le nvidia a parità di banda hanno un 70% in più di banda disponibile.
Penso sia un teorico massimo, non tutto è ugualmente comprimibile
Il nabbo di turno
16-01-2019, 20:31
Penso sia un teorico massimo, non tutto è ugualmente comprimibile
Si per carità, all'atto pratico sarà meno del 70% che si vede nei test sulla bandwith, però ti da' un'idea di dove nvidia risparmia la banda rispetto ad amd.
fraussantin
16-01-2019, 22:09
Direi al 100%
Per un giorno si è letto qualche "eh ma non ha il DLSS" poi è arrivata la notizia su DirectML e le voci si sono spente.Se per quello amd sta lavorando anche ad raytracing senza hw dedicato. O almeno i rumor eran quelli.
Almeno il mercato si darà una svegliata.
Che tristezza, esce la 2080 e .... wow , si rompe la 2080 e ... tanto è in garanzia. Uscirà radeon VII e .... è un fail , fatta a rimessa , non ci si può giocare e costa troppo e amd non sa fare le schede video. Riassunto bene le ultime 5 pagine ?
Più che un fail è il prezzo che mi ha deluso, metti sul mercato una simil 2080 senza unità dedicate e la prezzi uguale?
ok che per il 4k 16 giga hanno molto più senso di 8 però non spendo 800 euri per quella che è poco più di una 1080ti che costava 700€ due anni fa (quando era il top che esisteva per il gaming).
Free Gordon
16-01-2019, 22:58
Il problema di questa Vega 7 non è tanto che vada come una 2080 allo stesso prezzo...
Il problema è che è la solita GCN solamente è sui 7nm e probabilmente riesce a consumare un botto anche così!
Detto questo, chi cerca una scheda gaming di quella fascia dovrebbe prenderla in considerazione, perché ha il potenziale di andare forse persino meglio della 2080 in DX12 (e nei giochi futuri, esosi in memoria).
Se Navi se uscisse ai primi di Luglio...dopo il Computex....sarebbe ok!!! Big win!
Ma temo assai che esca a Ottobre, a pochi mesi dal lancio delle pari fascia Nvidia a 7nm... :doh:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.