View Full Version : AMD Radeon RX 480: la prima scheda Polaris dal 29 Giugno a 199$
Redazione di Hardware Upg
01-06-2016, 03:03
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/4656/amd-radeon-rx-480-la-prima-scheda-polaris-dal-29-giugno-a-199_index.html
AMD anticipa al Computex 2016 di Taipei alcune caratteristiche tecniche della prima scheda basata su GPU di nuova generazione, appartenente alla famiglia Polaris. Radeon RX 480 integra GPU Polaris 10 con 2.304 stream processors abbinata a 4 o 8 Gbytes di memoria, il tutto al prezzo di 199 dollari tasse escluse con debutto previsto dal 29 Giugno
Click sul link per visualizzare l'articolo.
Aggiungo qualche dato mancante
Boost clock GPU: > 1.08GHz
Alimentazione: 1x6pin
Viva la concorrenza 199$ per questa ottima scheda è un prezzo pazzesco. Grazie AMD! (da attuale possessore di GTX980)
tuttodigitale
01-06-2016, 05:05
Bella schedozza mid-range.
manca anche un'altra informazione
throughput >5TFlops
considerando che la r9 390 ne ha 5,1TFlops, ci sono buone possibilità che la superi.
un dato ancora più esagerato, oltre al prezzo, è che AMD ha stimato in 1,7x i vantaggi delle prestazioni per watt dei 14nm e ben 2,8x quelle delle soluzioni Polaris su quelle a 28nm (credo hawaii).
E ha fornito un dato molto eloquiente...nell'esecuzione del famoso gioco DX12, 2 RX480 fanno marginalmente meglio (ma nel video comparato mi sono apparse persino più fluide della soluzione a singola carta :eek: ), consumando meno della gtx 1080, (c'è da dire che le rx480 erano al 60% del potenziale, quindi non pare essere il classico funzionamento a cui siamo abituati)...
in pratica sembra che per la prima volta si giochi meglio con il crossfire. Da verificare se questo miracolo dipende dalle dx12...
digieffe
01-06-2016, 05:20
Bella schedozza mid-range.
manca anche un'altra informazione
throughput >5TFlops
considerando che la r9 390 ne ha 5,1TFlops, ci sono buone possibilità che la superi.
un dato ancora più esagerato, oltre al prezzo, è che AMD ha stimato in 1,7x i vantaggi delle prestazioni per watt dei 14nm e ben 2,8x quelle delle soluzioni Polaris su quelle a 28nm (credo hawaii).
E ha fornito un dato molto eloquiente...nell'esecuzione del famoso gioco DX12, 2 RX480 fanno marginalmente meglio (ma nel video comparato mi sono apparse persino più fluide della soluzione a singola carta :eek: ), consumando meno della gtx 1080, (c'è da dire che le rx480 erano al 60% del potenziale, quindi non pare essere il classico funzionamento a cui siamo abituati)...
in pratica sembra che per la prima volta si giochi meglio con il crossfire. Da verificare se questo miracolo dipende dalle dx12...
facendo un paio di conti in base alla r9 390 (tflops e sp) viene fuori che avrà una freqenza base di 850mhz
edit: da 850 a 925 (altri siti danno 5,5 tflop)
Ecco la scheda che aspettavo :D
Se come prestazioni sta costantemente sopra alla 970/R9-390, a 200 euro me la prenderei subito. E non dovrò nemmeno aspettare tanto.
Ecco la scheda che aspettavo :D
Se come prestazioni sta costantemente sopra alla 970/R9-390, a 200 euro me la prenderei subito. E non dovrò nemmeno aspettare tanto.
200 dollari + tasse. Probabilmente il prezzo di lancio in Italia sarà più vicino ai 250 euro.
AleLinuxBSD
01-06-2016, 06:42
Supporto dei driver a parte (per qualità e durata nel tempo) mi domando come questa scheda si comporta per l'uso con applicazioni per OpenCL.
Per l'HBM2, che non sarà mai abbastanza presto prima che sia finalmente disponibile, speriamo che questa volta producano schede a profilo singolo, anziché limitarsi a sbandierare le minori dimensioni, in lunghezza, delle schede, ignorando il resto.
L1ttlesn1tch
01-06-2016, 06:59
Ma questa sarà la proposta TOP di polaris 10?
Se così fosse non ci siamo, la scheda è data consumare 150W per prestazioni da 970, nVidia invece con gli stessi W arriva alla 980Ti, ed ecco che purtroppo i 500Eur ce li porteremo avanti per un bel po'.
Anche se per logica dovrebbero esserci anche la 480X 490 e 490X con Polaris e la Fury II con Vega.
Io sono ancora fermo alla 780 e voglio fare un upgrade, ma mi rifiuto di dare a nVidia quei soldi per le 10x0.
tuttodigitale
01-06-2016, 07:01
Per l'HBM2, che non sarà mai abbastanza presto prima che sia finalmente disponibile, speriamo che questa volta producano schede a profilo singolo, anziché limitarsi a sbandierare le minori dimensioni, in lunghezza, delle schede, ignorando il resto.
Ma guarda, hanno prodotto la Nano, perchè prima di tutto potevano.
Fare schede che consumano 150W a singolo slot, porta con sè molti compromessi a livello di temperature (e già lavorano a 82°C le FE) e rumore..
E' da parecchi anni, che non si vedono schede di fascia alta a singolo slot (l'ultima mi pare che sia stata la 7800gtx....)
L1ttlesn1tch
01-06-2016, 07:05
Bella schedozza mid-range.
manca anche un'altra informazione
throughput >5TFlops
considerando che la r9 390 ne ha 5,1TFlops, ci sono buone possibilità che la superi.
un dato ancora più esagerato, oltre al prezzo, è che AMD ha stimato in 1,7x i vantaggi delle prestazioni per watt dei 14nm e ben 2,8x quelle delle soluzioni Polaris su quelle a 28nm (credo hawaii).
E ha fornito un dato molto eloquiente...nell'esecuzione del famoso gioco DX12, 2 RX480 fanno marginalmente meglio (ma nel video comparato mi sono apparse persino più fluide della soluzione a singola carta :eek: ), consumando meno della gtx 1080, (c'è da dire che le rx480 erano al 60% del potenziale, quindi non pare essere il classico funzionamento a cui siamo abituati)...
in pratica sembra che per la prima volta si giochi meglio con il crossfire. Da verificare se questo miracolo dipende dalle dx12...
Dubito che possano consumare meno di una singola 1080 che già di per se è piuttosto efficiente. Ovviamente AMD ha mostrato il caso migliore per loro ma la scheda va valutata in un contesto più ampio. Comunque visto dove la posizionano non è certamente l'annuncio che mi aspettavo.
Mi sa che l'upgrade bisogna spostarlo a inizio 2017.
L1ttlesn1tch
01-06-2016, 07:08
Ma guarda, hanno prodotto la Nano, perchè prima di tutto potevano.
Fare schede che consumano 150W a singolo slot, porta con sè molti compromessi a livello di temperature (e già lavorano a 82°C le FE) e rumore..
E' da parecchi anni, che non si vedono schede di fascia alta a singolo slot (l'ultima mi pare che sia stata la 7800gtx....)
Se la memoria non mi inganna anche le X1950 e sicuramente le 7900Gt erano a singolo slot, dalla 8800 tutte doppio slot.
tuttodigitale
01-06-2016, 07:08
Ma questa sarà la proposta TOP di polaris 10?
Se così fosse non ci siamo, la scheda è data consumare 150W per prestazioni da 970, nVidia invece con gli stessi W arriva alla 980Ti, ed ecco che purtroppo i 500Eur ce li porteremo avanti per un bel po'.
Anche se per logica dovrebbero esserci anche la 480X 490 e 490X con Polaris e la Fury II con Vega.
Io sono ancora fermo alla 780 e voglio fare un upgrade, ma mi rifiuto di dare a nVidia quei soldi per le 10x0.
non guardare il TDP....
ad esempio la gtx680 era dato con TDP da 195W e la hd7950 200W, eppure la prima consuma decisamente di più della seconda, e persino più della 7970 liscia (TDP 250w)
https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_680/images/power_average.gif
allo stesso modo le gtx 980 hanno un tdp dichiarato di 165W, ma consumano 50 watt in più della hd7870 che ha un tdp di 175W
ciliegina sulla torta, la gtx480 aveva un TDP dichiarato di 250W..
in pratica, se AMD torna a qualificare il TDP come faceva pre-Hawaii, consumerà molto meno dei 150W dichiarati. Ed essendo una soluzione, così si dice, di appena 232mmq. è estremamente probabile che sia così:
Al computex AMD ha dichiarato che in game DUE rx480 consumano meno della gtx1080
tuttodigitale
01-06-2016, 07:10
Se la memoria non mi inganna anche le X1950 e sicuramente le 7900Gt erano a singolo slot, dalla 8800 tutte doppio slot.
si il periodo è comunque quello.
Visto il posizionamento di prezzo, direi che non è assolutamente pensata per battagliare con la GTX 1070 come inizialmente avevo pensato.
Se quanto emerso è vero, ossia SP più efficienti e frequenze più elevate, potrebbe battagliare con la 390 (che oggi si trova a partire da poco più di 300 euro) o magari persino con la 390x.
Proprio la questione delle frequenze mi lascia qualche dubbio, Nvidia è salita tantissimo (ma ha ridotto il numero di SP), questa scheda però credo salirà molto meno (forse a causa degli SP più complessi e della ricerca dell'efficienza energetica), altrimenti avrebbe prestazioni da ben altra fascia di prezzo (basti pensare ad una scheda GNC 1.2 con frequenza doppia...).
Piuttosto, l'HDMI 2.0 dovrebbe essere sicuro, giusto? Sarebbe una pessima cosa se mancasse anche in questa generazione.
L1ttlesn1tch
01-06-2016, 07:21
non guardare il TDP....
ad esempio la gtx680 era dato con TDP da 195W e la hd7950 200W, eppure la prima consuma decisamente di più della seconda, e persino più della 7970 liscia (TDP 250w)
https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_680/images/power_average.gif
allo stesso modo le gtx 980 hanno un tdp dichiarato di 165W, ma consumano 50 watt in più della hd7870 che ha un tdp di 175W
ciliegina sulla torta, la gtx480 aveva un TDP dichiarato di 250W..
in pratica, se AMD torna a qualificare il TDP come faceva pre-Hawaii, consumerà molto meno dei 150W dichiarati. Ed essendo una soluzione, così si dice, di appena 232mmq. è estremamente probabile che sia così:
Al computex AMD ha dichiarato che in game DUE rx480 consumano meno della gtx1080
Il problema è che invece di dichiarare che 2 RX480 consumano meno di una 1080 doveva dichiarare che la 480 va almeno uguale alla 1070!
Dei consumi quando valutiamo una scheda per gaming non me ne può fregar di meno! O hanno almeno una 480X da 299$ con prestazioni almeno da 980 nella manica oppure nVidia spadronerà incontrastata.
Visto il posizionamento di prezzo, direi che non è assolutamente pensata per battagliare con la GTX 1070 come inizialmente avevo pensato.
Se quanto emerso è vero, ossia SP più efficienti e frequenze più elevate, potrebbe battagliare con la 390 (che oggi si trova a partire da poco più di 300 euro) o magari persino con la 390x.
Proprio la questione delle frequenze mi lascia qualche dubbio, Nvidia è salita tantissimo (ma ha ridotto il numero di SP), questa scheda però credo salirà molto meno (forse a causa degli SP più complessi e della ricerca dell'efficienza energetica), altrimenti avrebbe prestazioni da ben altra fascia di prezzo (basti pensare ad una scheda GNC 1.2 con frequenza doppia...).
Si ma grazie al caxxo che consuma di meno se rimangono a 1080Mhz contro i 1900Mhz della concorrenza!
Siamo in una situazione assurda, nVidia che partorisce un mezzo fail con le 10X0 che però stando a quello che ha mostrato AMD si trasformerà in un EPIC WIN!
Con il risultato che il nostro :ciapet: sarà bello largo.
tuttodigitale
01-06-2016, 07:35
Il problema è che invece di dichiarare che 2 RX480 consumano meno di una 1080 doveva dichiarare che la 480 va almeno uguale alla 1070!
Dei consumi quando valutiamo una scheda per gaming non me ne può fregar di meno! O hanno almeno una 480X da 299$ con prestazioni almeno da 980 nella manica oppure nVidia spadronerà incontrastata.
ma scusami, questo chip è grande quasi la metà di gp104, come puoi pensare che possa battagliare contro la 1080..secondo me, al massimo con la gtx 980 liscia. Ma per 250 euro, mi pare anche onesto....le 1070 costeranno 475/560 euro...
E' normale che consumi meno (anche le frequenze di clock assai meno spinte e la maggior densità aiutano).
Sono dubbioso sulla effettiva disponibilità delle 1070...visto che molte redazioni non hanno potuto testare la scheda..
Bel prezzo, probabilmente sarà la mia nuova scheda :D
Ovviamente prima vedere cammello :O
Idem come sopra :D
Si ma grazie al caxxo che consuma di meno se rimangono a 1080Mhz contro i 1900Mhz della concorrenza!
Non vedo il problema, sono scelte progettuali della scheda.
Questa RX 480 con le frequenze di una 1080 magari avrebbe consumato di più, ma sarebbe anche andata molto di più (architettura permettendo, ovviamente... questi sono conti della serva, di certo non è applicabile alla realtà).
L1ttlesn1tch
01-06-2016, 07:47
ma scusami, questo chip è grande quasi la metà di gp104, come puoi pensare che possa battagliare contro la 1080..secondo me, al massimo con la gtx 980 liscia. Ma per 250 euro, mi pare anche onesto....le 1070 costeranno 475/560 euro...
E' normale che consumi meno (anche le frequenze di clock assai meno spinte e la maggior densità aiutano).
Sono dubbioso sulla effettiva disponibilità delle 1070...visto che molte redazioni non hanno potuto testare la scheda..
Le 1070 credo le troveremo a 450-500 Eur appena finirà l'effetto fanboy scimmiati, e a 450 si va di 1070 tutta la vita visto che questa andrà al massimo come una 390 costando 50 Eur in meno. AMD invece di creare concorrenza si è messa in un angolino sperando che qualcuno gli compri qualche scheda di queste.
Sulla disponibilità vedremo, ma sicuramente meglio averne poche e vendute che milioni a prender polvere perché non concorrenziali. nVidia ti piazza una 1060 che va il 10% in più costa 250$ e ricicla gli scarti degli scarti.
Non vedo il problema, sono scelte progettuali della scheda.
Questa RX 480 con le frequenze di una 1080 magari avrebbe consumato di più, ma sarebbe anche andata molto di più (architettura permettendo, ovviamente... questi sono conti della serva, di certo non è applicabile alla realtà).
Scelte progettuali sicuramente, ma anche scelte sbagliate, secondo me, vista la posizione di AMD che deve attaccare invece di proporre sta roba qui. La 480 se la giocherà con la 1060 se tutto va bene, cioè con gli scarti degli scarti di nVidia.
tuttodigitale
01-06-2016, 07:55
Si ma grazie al caxxo che consuma di meno se rimangono a 1080Mhz contro i 1900Mhz della concorrenza!
Siamo in una situazione assurda, nVidia che partorisce un mezzo fail con le 10X0 che però stando a quello che ha mostrato AMD si trasformerà in un EPIC WIN!
Con il risultato che il nostro :ciapet: sarà bello largo.
non capisco come può trasformarsi un fail, una scheda che consumerà almeno la metà e probabilmente andrà più della 390, prezzata a 250 euro di listino, quindi 200 euro on-street....
Capisco la delusione di chi si aspettava una rivoluzione lato prestazioni, ma AMD era stata chiara che sarebbe stato un prodotto per la massa.
Ed imho è ottimo per aumentare lo share...
Mi aspetto, visto il prezzo popolare, che non ci siano problemi produttivi, che almeno alla apparenza affliggono le soluzioni nvidia (colpa anche di un die dalle dimensioni generose)
Goofy Goober
01-06-2016, 07:55
Se la memoria non mi inganna anche le X1950 e sicuramente le 7900Gt erano a singolo slot, dalla 8800 tutte doppio slot.
una delle ultime top di gamma a singolo slot vista era la 8800GT 512mb (e faceva un casino assurdo).
sicuramente è stata l'ultima Nvidia di fascia alta (all'epoca andava più forte della 8800GTX) a singolo slot ad aria.
http://www.tomshw.it/guides/hardware/graphic/20071030/images/zotac_8800GT-512DDR3-P.jpg
le 580gtx invece sono state le ultime top di gamma single slot a liquido. dopo di queste il bracket di fissaggio con i connettori video è sempre stato dual slot.
a livello di ultimissima scheda di fascia medio-alta single slot, c'è stata la Radeon HD4850 se non sbaglio
http://www.gpureview.com/database/images/videocards/his/radeon-hd-4850-7802.jpg
dopo di questa tutte dual slot.
cmq le X1900XTX reference e diversi modelli di X1950 XT (Powercolor, Asus, HIS) inclusa la reference erano già dual slot (la variante Pro reference era single, e la GT c'era anche single slot).
http://static.trustedreviews.com/94/e30b29/20f5/3337-1.jpg
le 7900GT erano single slot in effetti, non a caso per la 7950GX2 avevano usato due di quelle facendo la dual gpu dual slot.
la 7900GTX invece era già dual.
a me non dispiacerebbe una vga di nuovo single slot, ma sarebbe una cosa davvero dura tenerla anche silenziosa.
PaulGuru
01-06-2016, 07:58
http://i64.tinypic.com/k221e8.jpg
In pratica due RX480 van poco più di una 1080 su un titolo dove AMD generalmente va meglio.
Pessima notizia
Ottimo annuncio per nvidia.
Ora tocca a lei la scelta. Lasciare AMD sul bordo del baratro o limare 50$ alla 1070 uccidendo di fatto quel poco di concorrenza rimasta (se ne è rimasta sul serio ovviamente).
Goofy Goober
01-06-2016, 07:59
http://i64.tinypic.com/k221e8.jpg
In pratica la RX480 va poco più di una 1080 su un titolo dove AMD generalmente va meglio.
Pessima notizia
da quella slide si capisce che sono DUE RX480 in crossfire ad andare più di una 1080, non una :asd:
PaulGuru
01-06-2016, 08:02
da quella slide si capisce che sono DUE RX480 in crossfire ad andare più di una 1080, non una :asd:
Si pardon ;)
Pessima notizia per AMD.
300W assieme per andare poco più di una 1080, su un titolo selezionato per altro ( quindi presumo che nel resto vada pure di meno ).
AMD Vega 10 è stimano per 4096 stream processors.
L1ttlesn1tch
01-06-2016, 08:04
una delle ultime top di gamma a singolo slot vista era la 8800GT 512mb (e faceva un casino assurdo).
sicuramente è stata l'ultima Nvidia di fascia alta (all'epoca andava più forte della 8800GTX) a singolo slot ad aria.
http://www.tomshw.it/guides/hardware/graphic/20071030/images/zotac_8800GT-512DDR3-P.jpg
le 580gtx invece sono state le ultime top di gamma single slot a liquido. dopo di queste il bracket di fissaggio con i connettori video è sempre stato dual slot.
a livello di ultimissima scheda di fascia medio-alta single slot, c'è stata la Radeon HD4850 se non sbaglio
http://www.gpureview.com/database/images/videocards/his/radeon-hd-4850-7802.jpg
dopo di questa tutte dual slot.
cmq le X1900XTX reference e diversi modelli di X1950 XT (Powercolor, Asus, HIS) inclusa la reference erano già dual slot (la variante Pro reference era single, e la GT c'era anche single slot).
http://static.trustedreviews.com/94/e30b29/20f5/3337-1.jpg
le 7900GT erano single slot in effetti, non a caso per la 7950GX2 avevano usato due di quelle facendo la dual gpu dual slot.
la 7900GTX invece era già dual.
a me non dispiacerebbe una vga di nuovo single slot, ma sarebbe una cosa davvero dura tenerla anche silenziosa.
Si la 1950 era la Pro! A me cambia poco single dual o tri slot. Tanto ho deciso che XFire o Sli mai più nella vita (6600Gt, 7900Gt, 8800Gtx, HD4970, HD6970, Gtx 780, HD7970 tutte provate in configurazione doppia VGA) quindi preferisco, al limite, spendere 700Eur per una 1080 (o VGA Amd che ha quel livello di prestazioni) che 500Eur per 2 480.
Goofy Goober
01-06-2016, 08:05
Si pardon ;)
Pessima notizia per AMD.
300W assieme per andare poco più di una 1080, su un titolo selezionato per altro ( quindi presumo che nel resto vada pure di meno ).
AMD Vega 10 è stimano per 4096 stream processors.
cmq non c'è molto da stupirsi a livello di prestazioni.
più che altro c'è da stupirsi che AMD faccia una slide suicida come quella, per far vedere che DUE gpu vanno meglio di una, scegliendo un gioco proprio "a caso" :D , e dicendo poi "miglior efficienza" :asd:
il multi gpu efficiente mi mancava...
cioè boh, questo secondo me è marketing lesivo.
l'unica cosa che dovevano scriverci è che per comprare 2 RX480 spendi meno che una 1080... anche se con tutte le variabili del crossfire questa resta un affermazione un po' pointless.
Le 1070 credo le troveremo a 450-500 Eur appena finirà l'effetto fanboy scimmiati, e a 450 si va di 1070 tutta la vita visto che questa andrà al massimo come una 390 costando 50 Eur in meno.
Premesso che secondo me anche 450 sono troppi per la 1070 (c'è stato un cambio generazionale netto, non si possono fare i conti sul prezzo/prestazioni della generazione precedente, la 1070 è la versione castrata del chip di media dimensione), non mi pare che si conoscano le prestazioni della 480, quindi difficile giudicarla come stai facendo tu ora. Quando usciranno le schede vedremo.
Scelte progettuali sicuramente, ma anche scelte sbagliate, secondo me, vista la posizione di AMD che deve attaccare invece di proporre sta roba qui. La 480 se la giocherà con la 1060 se tutto va bene, cioè con gli scarti degli scarti di nVidia.
La 1060 sono gli scarti degli scarti, un chip relativamente grosso che Nvidia non potrà tenere molto a lungo per battagliare con la 480, e andrà sicuramente sostituito da un GP 106 appena possibile.
300W assieme per andare poco più di una 1080, su un titolo selezionato per altro ( quindi presumo che nel resto vada pure di meno ).
Non confondere il TDP con i consumi, se ne parlava già nell'altra News, secondo TuttoDigitale AMD ha dichiarato che va di più consumando meno.
tuttodigitale
01-06-2016, 08:07
http://i64.tinypic.com/k221e8.jpg
In pratica due RX480 van poco più di una 1080 su un titolo dove AMD generalmente va meglio.
Pessima notizia
c'è anche scritto che consumano meno, e che le gpu sono al 60%, e il gioco è pure più fluido...
Scelte progettuali sicuramente, ma anche scelte sbagliate, secondo me, vista la posizione di AMD che deve attaccare invece di proporre sta roba qui. La 480 se la giocherà con la 1060 se tutto va bene, cioè con gli scarti degli scarti di nVidia.
AMD sta attaccando la fascia di mercato più remurativo del PC GAMING. :read:
L1ttlesn1tch
01-06-2016, 08:07
Si pardon ;)
Pessima notizia per AMD.
300W assieme per andare poco più di una 1080, su un titolo selezionato per altro ( quindi presumo che nel resto vada pure di meno ).
Ma è così difficile commentare senza sparare caxxate grosse come una casa?
Loro dichiarano che 2 VGA consumeranno meno di una 1080, vediamo i test, io dubito che possano consumare meno, ma se stanno sui 200W significa solamente che Amd ha fatto la scelta sbagliata di uscire adesso con la fascia media.
PaulGuru
01-06-2016, 08:08
cmq non c'è molto da stupirsi a livello di prestazioni.
più che altro c'è da stupirsi che AMD faccia una slide suicida come quella, per far vedere che DUE gpu vanno meglio di una, scegliendo un gioco proprio "a caso" :D , e dicendo poi "miglior efficienza" :asd:
il multi gpu efficiente mi mancava...
cioè boh, questo secondo me è marketing lesivo.
l'unica cosa che dovevano scriverci è che per comprare 2 RX480 spendi meno che una 1080... anche se con tutte le variabili del crossfire questa resta un affermazione un po' pointless.Prendi una 1080 cloccata di fabbrica e va di più pure con quel titolo :D
Non confondere il TDP con i consumi, se ne parlava già nell'altra News, secondo TuttoDigitale AMD ha dichiarato che va di più consumando meno.I consumi lasciano il tempo che trovano.
2*RX480 sono 300W di TDP e 4606 stream processors .....
c'è anche scritto che consumano meno, e che le gpu sono al 60%, e il gioco è pure più fluido...
Questo passaggio non l'ho capito... perchè le GPU non sono sfruttate?
Per poter consumare meno? Perchè non riescono ad andare oltre il 60% teorico? Perchè volevano solo far vedere come potesse andare di più consumando meno e quindi le hanno castrate?
I consumi lasciano il tempo che trovano.
2*RX480 sono 300W di TDP e 4606 stream processors .....
E... quindi?
Ripeto, non confondere TDP con consumi, è da principianti. ;)
Il numero di SP non conta nulla, sono architetture differenti su processi produttivi differenti.
PaulGuru
01-06-2016, 08:11
Ma è così difficile commentare senza sparare caxxate grosse come una casa?
Loro dichiarano che 2 VGA consumeranno meno di una 1080, vediamo i test, io dubito che possano consumare meno, ma se stanno sui 200W significa solamente che Amd ha fatto la scelta sbagliata di uscire adesso con la fascia media.
Ma non prendiamoci in giro !
L1ttlesn1tch
01-06-2016, 08:13
Premesso che secondo me anche 450 sono troppi per la 1070 (c'è stato un cambio generazionale netto, non si possono fare i conti sul prezzo/prestazioni della generazione precedente, la 1070 è la versione castrata del chip di media dimensione), non mi pare che si conoscano le prestazioni della 480, quindi difficile giudicarla come stai facendo tu ora. Quando usciranno le schede vedremo.
La 1060 sono gli scarti degli scarti, un chip relativamente grosso che Nvidia non potrà tenere molto a lungo per battagliare con la 480, e andrà sicuramente sostituito da un GP 106 appena possibile.
Non confondere il TDP con i consumi, se ne parlava già nell'altra News, secondo TuttoDigitale AMD ha dichiarato che va di più consumando meno.
Beh se danno 2 480 poco sopra una 1080 diciamo che s'intuisce il livello di prestazioni. La 1070 va come un 980Ti cioè un 40-50% in più di una 970, la 480 se tutto va bene andrà come una 970 a 250 Eur, ecco che 400Eur sono già giustificati, 450Eur sono il risultato della mancata concorrenza.
Sul chip grosso devi sempre calcolare che sono degli scarti che altrimenti dovrebbero buttare e pagare comunque, quindi è tutto grasso che cola.
tuttodigitale
01-06-2016, 08:16
Questo passaggio non l'ho capito... perchè le GPU non sono sfruttate?
Per poter consumare meno? Perchè non riescono ad andare oltre il 60% teorico? Perchè volevano solo far vedere come potesse andare di più consumando meno e quindi le hanno castrate?
penso che questo sia dovuto al crossfire che non è il classico AFR mode..lo scaling è MOLTO peggiore, ma visivamente tutto appare più fluido anche rispetto alla configurazione singola. (AMD ha messo un video di confronto)
Test di Anandtech avevano dimostrato che i minimi subiscono un'aumento notevole, mentre i massimi, sono più o meno stazionari.
In pratica e chiudo, AMD ha dichiarato che prendendo 2 rx480 l'esperienza di gioco con titoli dx12, è migliore che non acquistando una più costosa 1080.
La prima scheda GCN 4.0, la nuovissima architettura AMD!
Sicuramente devasterà le schede video della stessa fascia di prezzo. :eek:
PaulGuru
01-06-2016, 08:19
E... quindi?
Ripeto, non confondere TDP con consumi, è da principianti. ;)
Il numero di SP non conta nulla, sono architetture differenti su processi produttivi differenti.
Ennesimo :mc:
Sono sempre stream processors CGN4.0 e sono 4606 in totale, Vega10 avrà anche una migliore implementazione ma è quotato per 4096 stream.
Dei consumi non mi interessa, 300W di TDP non li tireranno mai fuori su un singolo chip, anche se consumerà molto meno.
L1ttlesn1tch
01-06-2016, 08:19
Ma non prendiamoci in giro !
Ecco bravo, quindi evita di sparare scemenze. Tanto oramai è chiaro a tutti che nVidia può anche metterti un pezzo di sterco di somaro al posto del chip che tu 800Eur glieli dai lo stesso.
Ti ricordo che un 1080 costa quanto 3 di queste 480 e fino a ieri predicavi che dei consumi non t'importa nulla, ma suppongo questo valga solo se a consumere corrente ci sia un chip nVidia......
La discussione è sul fatto che AMD ha sbagliato la fascia da presentare in risposta ad nVidia, la bontà del prodotto la valuteremo quando ci saranno i test.
DakmorNoland
01-06-2016, 08:20
Si pardon ;)
Pessima notizia per AMD.
300W assieme per andare poco più di una 1080, su un titolo selezionato per altro ( quindi presumo che nel resto vada pure di meno ).
AMD Vega 10 è stimano per 4096 stream processors.
Sì però devi calcolare che due 480 liscie costeranno 400-450 euro, cioè quanto una 1070 e vanno più di una 1080. :stordita:
La 1080 costa almeno 700 euro o poco meno... Fai te...
PaulGuru
01-06-2016, 08:21
Sì però devi calcolare che due 480 liscie costeranno 400-450 euro, cioè quanto una 1070 e vanno più di una 1080. :stordita:
La 1080 costa almeno 700 euro o poco meno... Fai te...
La 1080 FE costerà 700€, le versioni custom partiranno da 599$.
Sempre di più, ma stiamo parlando di una scheda singola, decisamente più comoda e meno problematica di una soluzione multigpu.
Almeno però bisogna dire che se sarà questa la linea di prezzi, AMD farà crollare i prezzi di Nvidia.
Peccato che le High end escano solo verso il prossimo anno.
L1ttlesn1tch
01-06-2016, 08:25
Ennesimo :mc:
Sono sempre stream processors CGN4.0 e sono 4606 in totale, Vega10 avrà anche una migliore implementazione ma è quotato per 4096 stream.
Dei consumi non mi interessa, 300W di TDP non li tireranno mai fuori su un singolo chip, anche se consumerà molto meno.
4096 su singolo chip e singola scheda renderanno sempre più di 4096 su 2 schede, ma bisogna spiegarti tutto dall' ABC? Vega con HBM2 non supererà i 250W di TDP forse meno con consumi sui 200W ipotizzabili anche per GP100 in declinazione 1080Ti.
Il problema sarà vedere a che freq faranno girare Vega, a 1Ghz è un suicidio, ma a 1.5Ghz potrebbe essere un osso duro per Nvidia, anche se in ritardo di 6 mesi.
tuttodigitale
01-06-2016, 08:25
Ennesimo :mc:
Sono sempre stream processors CGN4.0 e sono 4606 in totale, Vega10 avrà anche una migliore implementazione ma è quotato per 4096 stream.
Dei consumi non mi interessa, 300W di TDP non li tireranno mai fuori su un singolo chip, anche se consumerà molto meno.
si mormora che ci siano 2 chip VEGA, uno con ben 6144sp, entrambi userebbero memorie HBM2 (la mia ipotesi che il chip più piccolo userà solo 2 stack contro i 4 del modello superiore)
ricordo che Polaris 10, ha una dimensione del die, secondo rumors pari a soli 232mmq contro i 394mmq di gp104...
Il problema sarà vedere a che freq faranno girare Vega, a 1Ghz è un suicidio, ma a 1.5Ghz potrebbe essere un osso duro per Nvidia, anche se in ritardo di 6 mesi.
sempre se la causa dello scarsa densità non sia stata causata dalle alte frequenze...
PaulGuru
01-06-2016, 08:26
4096 su singolo chip e singola scheda renderanno sempre più di 4096 su 2 schede, ma bisogna spiegarti tutto dall' ABC? Vega con HBM2 non supererà i 250W di TDP forse meno con consumi sui 200W ipotizzabili anche per GP100 in declinazione 1080Ti.
Il problema sarà vedere a che freq faranno girare Vega, a 1Ghz è un suicidio, ma a 1.5Ghz potrebbe essere un osso duro per Nvidia, anche se in ritardo di 6 mesi.
2*RX480 forniscono 4606 stream, non 4096.
DakmorNoland
01-06-2016, 08:27
La 1080 FE costerà 700€, le versioni custom partiranno da 599$.
Sempre di più, ma stiamo parlando di una scheda singola, decisamente più comoda e meno problematica di una soluzione multigpu.
Almeno però bisogna dire che se sarà questa la linea di prezzi, AMD farà crollare i prezzi di Nvidia.
Peccato che le High end escano solo verso il prossimo anno.
Sì guarda anch'io sono contrario al Crossfire/SLI, però scusa se davvero andasse al livello di una 1080 (chiaramente va qualcosa più su titoli ottimizzati AMD e magari qualcosa meno su quelli Nvidia), però costa come una 1070. :stordita:
Cioè praticamente risparmi almeno 200 euro!! I consumi poi sono molto bassi, il TDP non è indicativo, in due potrebbero consumare come la 1080 o poco più. ;)
Secondo me a sto giro AMD ha fatto un lancio davvero tattico!!! :eek:
Infine c'è da contare il fattore rivendibilità!! 2 x 480 che già partono da 200 e qualcosa euro, perdono molto meno valore rispetto ad una 1080!! Quindi le rivendi perdendoci molto meno! ;)
L1ttlesn1tch
01-06-2016, 08:29
Beh costa il doppio...
http://jonpeddie.com/images/uploads/news/graph-pr-2rev2.png
http://jonpeddie.com/images/uploads/news/graph-pr-2rev2.png
Secondo chi per lavoro analizza il mercato sembrerebbero scelte ottimali. Chi vivrà vedrà.
Beh tutto ok sui numeri di vendita, tutta roba ovvia, il problema è che quel grafico non mostra un dato che è quello fondamentale cioè il guadagno che generano quelle vendite ;) E a giudicare dai bilanci direi che vendere mln di GPU mainstream e performance generi ben pochi profitti....
Ripeto, non discuto la bontà della GPU, ma le scelte di marketing sbagliate per l'ennesima volta.
tuttodigitale
01-06-2016, 08:31
2*RX480 forniscono 4606 stream, non 4096
Ma in coppia con quel gioco le rx480 vengono usate al 60%...
Non è stato usato il classico AFR, che raddoppia (o quasi) i frame.
L1ttlesn1tch
01-06-2016, 08:32
2*RX480 forniscono 4606 stream, non 4096.
Si ho sbagliato a scrivere, lo scaling in multi Gpu sappiamo sia la cosa peggiore come rendimento dopo il motore termico. :D
PaulGuru
01-06-2016, 08:34
bello vedere come ancora nel 2016 c'è chi pensa che il TDP sia il consumo :asd:
come fa un 6pin a consumare come un 6+6? semplice, non può.
quel TDP è sovrastimato, si avranno reference che in game non superano i 60° :read: altro che i +80° dei dissipatori nvidia FE...
e poi lo dicono apertamente, 2 480 vanno meglio della 1080 consumando meno! questo perché sono sfruttate al 50%! aka 80+80→160watt vs 180...
e se questa è la 480, pensate alla 490 e alle prossime fury, non è la fascia delle 1070 e 1080 questa! il prezzo lo dimostra.
performance/cost altissimo!Questo l'avete pensato tu e Calabar soltanto.
Il TDP è un limite, del consumo non interessa nulla a nessuno, l'unica peculiarità del consumo è che tende a tradursi in calore prodotto.
300W di TDP su single chip è comunque infattibile ( o meglio è fattibilissimo ma nel mercato di oggi i consumatori non lo fanno a prescindere ) anche se la scheda in totale dovesse consumarne appena 150W
tuttodigitale
01-06-2016, 08:34
E a giudicare dai bilanci direi che vendere mln di GPU mainstream e performance generi ben pochi profitti....
mi pare di ricordare che è la fascia media, quella che genera più profitti...Si dice(va) che le top di gamma, servivano solo da traino per le vendite dei modelli inferiori
PaulGuru
01-06-2016, 08:34
Si ho sbagliato a scrivere, lo scaling in multi Gpu sappiamo sia la cosa peggiore come rendimento dopo il motore termico. :D
Non mi pare che 2*GTX960 vadano meno di una 980 ( almeno laddove il gioco supporta il multigpu o dove la vram non sia sufficiente ).
L1ttlesn1tch
01-06-2016, 08:34
Ma in coppia con quel gioco le rx480 vengono usate al 60%...
Non è stato usato il classico AFR, che raddoppia (o quasi) i frame.
C'era anche una slide Amd dove diceva che Polaris sarebbe stato il non plus ultra delle VGA.... Io alle loro slide non credo più.
Come diceva qualcuno, prima "vedere cammello" :)
PaulGuru
01-06-2016, 08:36
Ma in coppia con quel gioco le rx480 vengono usate al 60%...
Non è stato usato il classico AFR, che raddoppia (o quasi) i frame.
E questa da dove viene fuori ?
A questo punto tanto valeva usare una singola scheda al 100% e far vedere che era poco dietro la 1080. :rolleyes:
L1ttlesn1tch
01-06-2016, 08:38
mi pare di ricordare che è la fascia media, quella che genera più profitti...Si dice(va) che le top di gamma, servivano solo da traino per le vendite dei modelli inferiori
Allora, non confondiamo cash flow, gross margin e net profit.
La fascia media e bassa generano il cash flow e il gross margin per coprire le spese o almeno dovrebbero ma per Amd non è così a giudicare dai bilanci.
La fascia alta e enthusiast generano il net profit e se non sei all'altezza non generi profitti.
tuttodigitale
01-06-2016, 08:40
ecco cosa significa cambiare passare dal AFR al SFR
http://images.anandtech.com/graphs/graph8643/68473.png
il crossfire MANTLE è in SFR mode
PaulGuru
01-06-2016, 08:43
ecco cosa significa cambiare passare dal AFR al SFR
http://images.anandtech.com/graphs/graph8643/68473.png
il crossfire MANTLE è in SFR mode
Mamma mia quante scuse ! ( senza offesa ma è un arrampicamento bello e buono )
Questo perchè su alcuni titoli l'SFR mode funziona male, ma dubito che AMD abbia presentato una propria slide in modalità handicappata.
Quel titolo è particolamente selezionato per AMD e il fatto che abbiano scelto solo quello è un pessimo presagio.
L1ttlesn1tch
01-06-2016, 08:44
E questa da dove viene fuori ?
A questo punto tanto valeva usare una singola scheda al 100% e far vedere che era poco dietro la 1080. :rolleyes:
Fosse stato così credi che non l'avrebbero sbandierato? Ovviamente la 480 va poco più della metà di una 1080.
tuttodigitale
01-06-2016, 08:48
mamma mia quante scuse !
dimmi allora perchè le GPU erano sfruttate al 60%...
facile criticare...
non ti pare plausibile, il fatto che abbiano usato il SFR mode? Ma il video comparativo l'hai visto?
PaulGuru
01-06-2016, 08:49
Fosse stato così credi che non l'avrebbero sbandierato? Ovviamente la 480 va poco più della metà di una 1080.
Quindi AMD avrebbe messo una slide suicida per nascondere l'effetto sorpresa con Vega ? :D
E' un titolo chiaramente selezionato, il fatto che abbiano mostrato solo quello è un chiaro indice, quindi direi di no.
Potevo capire 3-4 titoli in croce, ma 1 solo titolo e per giunta proprio quello ....... e va pure poco di più.
PaulGuru
01-06-2016, 08:49
dimmi allora perchè le GPU erano sfruttate al 60%...
facile criticare...
non ti pare plausibile, il fatto che abbiano usato il SFR mode? Ma il video comparativo l'hai visto?
Hai uno screen relativo a ciò ? Altrimenti è la solita cavolata per giustificare AMD.
Io non ho visto alcuno screen a riguardo e non penso che AMD mostri un risultato dove si auto-castra.
Scheda interessante.
Aspetto di vedere i consumi reali sul campo.
Il tdp è fuorviante.
L1ttlesn1tch
01-06-2016, 08:54
dimmi allora perchè le GPU erano sfruttate al 60%...
facile criticare...
non ti pare plausibile, il fatto che abbiano usato il SFR mode? Ma il video comparativo l'hai visto?
Ma tu hai mai avuto un Sli o XFire? 2 GPU sfruttate al 100% in multi Gpu è un caso più unico che raro. Quando va bene e il gioco è ottimizzato arrivi ad un 75-80% medio. Lo scaling degli FPS poi è un altro discorso ancora!
L1ttlesn1tch
01-06-2016, 08:55
Quindi AMD avrebbe messo una slide suicida per nascondere l'effetto sorpresa con Vega ? :D
E' un titolo chiaramente selezionato, il fatto che abbiano mostrato solo quello è un chiaro indice, quindi direi di no.
Potevo capire 3-4 titoli in croce, ma 1 solo titolo e per giunta proprio quello ....... e va pure poco di più.
Da AMD credo sia appurato che possiamo aspettarci di tutto...
tuttodigitale
01-06-2016, 08:57
Hai uno screen relativo a ciò ? Altrimenti è la solita cavolata per giustificare AMD.
Io non ho visto alcuno screen a riguardo e non penso che AMD mostri un risultato dove si auto-castra.
http://sm.uploads.im/d/dXcSN.jpg
DakmorNoland
01-06-2016, 09:13
Quindi AMD avrebbe messo una slide suicida per nascondere l'effetto sorpresa con Vega ? :D
E' un titolo chiaramente selezionato, il fatto che abbiano mostrato solo quello è un chiaro indice, quindi direi di no.
Potevo capire 3-4 titoli in croce, ma 1 solo titolo e per giunta proprio quello ....... e va pure poco di più.
Tu non hai capito il punto focale della questione. Il Crossfire funziona bene o male, va un pò meno o un pò più della 1080? Anche andasse meno...
Si parla di 200+ euro in meno!!!
Cioè 450 VS 650-700 euro.
Non è difficile, è matematica di base.
PaulGuru
01-06-2016, 09:27
http://sm.uploads.im/d/dXcSN.jpg
Ah ecco quindi non ha alcuno screen che mostra il 60%, bene.
Come immaginavo.
Il solito screen taroccato ! ( 51% ? ma non dicevi 60% poco fa ? E' diminuito ? Ancora un po' e la singola 480 balza davanti .... )
Ah dimenticavo la GTX 1080 dovrebbe stare a 599$ e 2 schede sono sempre 2 schede con tutti i disagi che comportano.
PaulGuru
01-06-2016, 09:30
Tu non hai capito il punto focale della questione. Il Crossfire funziona bene o male, va un pò meno o un pò più della 1080? Anche andasse meno...
Si parla di 200+ euro in meno!!!
Cioè 450 VS 650-700 euro.
Non è difficile, è matematica di base.
Punto 1 )
Sono 2 schede ! Costerà anche meno in soldi ma pagherai da altri punti di vista.
Punto 2 )
I prezzi di Nvidia sono lievitati rispetto ai prezzi ufficiali perchè è appena uscita e manca AMD ( La 1080 liscia ufficialmente parte da 599$ )
Se AMD Vega costerà meno di Nvidia, quest'ultima abbasserà i prezzi, ma è chiaro che la gamma migliore rimarrebbe quella Nvidia ed è altrettanto chiaro che Nvidia c'è già e AMD uscirà in netto ritardo.
L1ttlesn1tch
01-06-2016, 09:35
Ah ecco quindi non ha alcuno screen che mostra il 60%, bene.
Come immaginavo.
Il solito screen taroccato ! ( 51% ? ma non dicevi 60% poco fa ? E' diminuito ? Ancora un po' e la singola 480 balza davanti .... )
Ah dimenticavo la GTX 1080 dovrebbe stare a 599$ e 2 schede sono sempre 2 schede con tutti i disagi che comportano.
Intanto ad oggi la 1080 non sta a 599$ che ancora non hai capito è il prezzo senza tasse quindi iva inclusa siamo gia a 730$ che sono 700Eur nel migliore dei casi.
Punto 1 )
Sono 2 schede ! Costerà anche meno in soldi ma pagherai da altri punti di vista.
Punto 2 )
I prezzi di Nvidia sono lievitati rispetto ai prezzi ufficiali perchè è appena uscita e manca AMD ( La 1080 liscia ufficialmente parte da 599$ )
Se AMD Vega costerà meno di Nvidia, quest'ultima abbasserà i prezzi, ma è chiaro che la gamma migliore rimarrebbe quella Nvidia ed è altrettanto chiaro che Nvidia c'è già e AMD uscirà in netto ritardo.
punto 1) concordo
punto 2) i prezzi non sono lievitati, 599$ corrisponde ad almeno 700Eur, io oggi la posso prendere a 730 Eur. Da cosa deduci che la gamma nVidia rimarrebbe la migliore lo sai solo tu dal profondo del tuo credo in san Huang.
tuttodigitale
01-06-2016, 09:36
DAvvero non capisco:
sono 250 euro, di listino.
la r9 390 costa 310 euro
la r9 390x costa 390 euro.
la potenza degli shaders, pare essere in linea con la r9 390x (si mormora che siano 5,5TFlops)
Ora non sappiamo quanto effettivamente vada, ma per quel poco che abbiamo tra le mani, questa è una scheda che nella peggiore dell'ipotesi, farà deprezzare i modelli della precedente generazione.
A me pare che questa sia potenzialmente la scheda più interessante, proprio per gli risvolti che potrà avere su una buona fetta della gamma di gpu..
PaulGuru
01-06-2016, 09:38
Intanto ad oggi la 1080 non sta a 599$ che ancora non hai capito è il prezzo senza tasse quindi iva inclusa siamo gia a 730$ che sono 700Eur nel migliore dei casi.
700€ su un prezzo ufficiale di 699$ ? Direi che è in linea anche fino a 750€.
Peccato sia la versione FE, le custom dovrebbero partire da 599$
PaulGuru
01-06-2016, 09:39
DAvvero non capisco:
sono 250 euro, di listino.
la r9 390 costa 310 euro
la r9 390x costa 390 euro.
la potenza degli shaders, pare essere in linea con la r9 390x (ci mormora che siano 5,5TFlops)
Ora non sappiamo quanto effettivamente vada, ma per quel poco che abbiamo tra le mani, questa è una scheda che nella peggiore dell'ipotesi, farà deprezzare i modelli della precedente generazione.
A me pare che questa sia potenzialmente la scheda più interessante, proprio per gli risvolti che potrà avere su una buona fetta della gamma di gpu..
Anche la 1070 va come la 980Ti o poco più ad un prezzo già inferiore con la versione FE, figuriamoci con le custom ( 379$ ).
tuttodigitale
01-06-2016, 09:41
I prezzi di Nvidia sono lievitati rispetto ai prezzi ufficiali perchè è appena uscita e manca AMD ( La 1080 liscia ufficialmente parte da 599$ )
Se AMD Vega costerà meno di Nvidia, quest'ultima abbasserà i prezzi, ma è chiaro che la gamma migliore rimarrebbe quella Nvidia ed è altrettanto chiaro che Nvidia c'è già e AMD uscirà in netto ritardo.
il prezzo ufficiale per la FE, in Germania e Francia è di 789 euro (fonte guru3d), che se aggiungi l'iva nostrana fanno 809 euro. I prezzi non sono maggiorati, sei tu che ancora non hai capito che queste sono proposte di fascia enthusiast.
Il problema non è che manca AMD, mancano proprio le schede...le 1080/1070 sono arrivate con il contagocce ai redattori (personalmente aspetto le recensioni di techreport), peggio delle Fury...
L1ttlesn1tch
01-06-2016, 09:41
700€ su un prezzo ufficiale di 699$ ? Direi che è in linea anche fino a 750€.
Peccato sia la versione FE, le custom dovrebbero partire da 599$
Tu hai seri problemi con la matematica. 700Eur sono il prezzo per le custom qualora fossero piazzate a 599$.....
La FE siamo a 800Eur...
Se non ce la fai da solo usa una calcolatrice.
DakmorNoland
01-06-2016, 09:53
Anche la 1070 va come la 980Ti o poco più ad un prezzo già inferiore con la versione FE, figuriamoci con le custom ( 379$ ).
Appunto!!!!
Questa scheda è un epic win per tutti! Va come una 980 liscia all'incirca, ma costa solo 200-250€.
Questo costringerà Nvidia a non fare la furba con la 1070, quindi anzichè vendere le custom sui 430-450, probabile che vedremo presto schede a 380€ tasse incluse. ;)
CrapaDiLegno
01-06-2016, 09:53
Che bello questo forum di appassionati che non sanno neanche calcolare la frequenza supposta della scheda dato numero di core e TFLOPS.
Se la scheda ha 2304 core e ha 5.5TFLOPS vuol dire che girerà vicino a 1.2GHz,non 850MHz,non 1.09GHz o altri numeri che avete sentito da vostri cugggino.
Secondo, questione crossfire. And ha già fatto questo tentativo con la serie 3xxx dove aveva dichiarato di voler fare chip piccoli in crossfire x superare le prestazioni delle pizze realizzate da Nvidia. Sappiamo come è andata a finire. È una strategia di difesa. I suoi introiti non permettono in investimenti rischiosi su chip grandi.
Il crossfire, come lo SLI, sono soluzioni che hanno una diffusione piccolissima per via del fatto che pochi giochi la sfruttano a dovere. Prendere gli ultimi test della gtx1080 dove compare la 295x2 e guardate in quanti giochi scala. Con driver maturi. Figuriamoci con giochi che escono domani quale sarà il supporto. E non è una soluzione innovativa questa. 2 970 possono andare più di una 980Ti costando meno, ma non mi sembra che sia stata una soluzione preferita.
Questione AFR Vs SFR: dove c'è scritto che il crossfire di Mantle era SFR? Infatti non lo era. Credo che non conosciate la differenza tra le due modalità per pensare che sia così semplice passare da u o all'altro oche driver possano fare il lavoro al posto del programmatore. No, non funziona così. L'SFR è una modalità molto complessa da gestire e no, non porta le GPU a funzionare a 60%, perché il suo scopo è proprio quello di essere più efficiente dell'AFR, anche se richiede molto più lavoro di ottimizzazione e calcolo presto rendering x riuscirci. Ed è la modalità che potrebbe far risparmiare memoria duplicata se ben gestito.
Si sta dicendo una marea di cose qui che non hanno senso. I fatti mostrano che AMD è tornata ad una strategia di difesa come 10 anni fa dopo la bastonata. È una strategia che nel passato le ha permesso di ricominciare piano piano a competere nuovamente, anche se con mercato e modalità diverse. Questa volta potrebbe essere molto più difficile. Vedremo cosa ci riserverà il futuro. Di certo i prezzi alti di Nvidia, come già dicevo in altre news, dipendono dai risultati di AMD. Con quello proposto dubito si abbasseranno presto. Ma arriverà una 480X con GDDR5X di certo.
TDP non è il consumo ma dimensiona il dissipatore che ha un certo costo. Nessuno fa schede da 150W per montarci un dissipatore da 300. Non so quale test fosse quello linkate sa tuttodigitale, ma nei test dei giochi (furmark non vale dato che artificialmente limitato dai driver) le schede Nvidia hanno sempre mostrato un consumo in linea con il TDP, quelle AMD meno, andando talvolta oltre (come x 290x e 390x). Vedere test storici di Anandtech
Correggete l'errore!
Non è GCN 1.4, ma GCN 4.0! :O
tuttodigitale
01-06-2016, 09:59
Ah ecco quindi non ha alcuno screen che mostra il 60%, bene.
Come immaginavo.
Il solito screen taroccato ! ( 51% ? ma non dicevi 60% poco fa ? E' diminuito ? Ancora un po' e la singola 480 balza davanti .... )
OMG, Sei ridicolo..
questo screen, l'ho preso personalmente dal video della presentazione...vai su youtube...
https://www.youtube.com/watch?v=ZwlQvjwYFEM#t=38m09s minuto 38:09
mi ricordavo 50eQualcosa e ho arrotondato a 60. Perchè pensavo che un fanboy verde sfegatato avrebbe detto hai detto 55, vedi che è 58....questo fa una notevole differenza..
DakmorNoland
01-06-2016, 10:00
Si sta dicendo una marea di cose qui che non hanno senso. I fatti mostrano che AMD è tornata ad una strategia di difesa come 10 anni fa dopo la bastonata. È una strategia che nel passato le ha permesso di ricominciare piano piano a competere nuovamente, anche se con mercato e modalità diverse. Questa volta potrebbe essere molto più difficile. Vedremo cosa ci riserverà il futuro. Di certo i prezzi alti di Nvidia, come già dicevo in altre news, dipendono dai risultati di AMD. Con quello proposto dubito si abbasseranno presto. Ma arriverà una 480X con GDDR5X di certo.
TDP non è il consumo ma dimensiona il dissipatore che ha un certo costo. Nessuno fa schede da 150W per montarci un dissipatore da 300. Non so quale test fosse quello linkate sa tuttodigitale, ma nei test dei giochi (furmark non vale dato che artificialmente limitato dai driver) le schede Nvidia hanno sempre mostrato un consumo in linea con il TDP, quelle AMD meno, andando talvolta oltre (come x 290x e 390x). Vedere test storici di Anandtech
Hai sbagliato completamente la tua analisi! ;)
AMD ha il monopolio nel mercato console ed è quello che le interessa! Si era già parlato del fatto che la PS4 Neo per gestire decentemente la VR, avrebbe montato una GPU con prestazioni paragonabili alla 980 liscia.
Ed è questo che ha fatto AMD. Ha creato un chip economico che va come la 980 e perfetto sia da vendere nella fascia media, sia da mettere nelle nuove PS4. ;)
In più con un'architettura così efficiente e che secondo me scalerà bene in Crossfire, Nvidia non potrà esagerare sul prezzo delle 1070, che dovrà scendere al livello delle 970, quindi non potrà essre 400+ euro ma dovrà stare a meno di 400 euro. ;)
In pratica ci guadagnamo tutti, ma la cosa ti è completamente sfuggita...
tuttodigitale
01-06-2016, 10:11
Questione AFR Vs SFR: dove c'è scritto che il crossfire di Mantle era SFR? Infatti non lo era. Credo che non conosciate la differenza tra le due modalità per pensare che sia così semplice passare da u o all'altro oche driver possano fare il lavoro al posto del programmatore. No, non funziona così. L'SFR è una modalità molto complessa da gestire e no, non porta le GPU a funzionare a 60%, perché il suo scopo è proprio quello di essere più efficiente dell'AFR, anche se richiede molto più lavoro di ottimizzazione e calcolo presto rendering x riuscirci. Ed è la modalità che potrebbe far risparmiare memoria duplicata se ben gestito.
eccone un altro...
http://www.anandtech.com/show/8643/civilization-beyond-earth-crossfire-with-mantle-sfr-not-actually-broken
tuttodigitale
01-06-2016, 10:13
@CrapaDiLegno: la differenza la dovrebbe fare il fatto che in dx12/vulkan il multigpu non dovrebbe avere problemi e scalare molto bene.
più che lo scaling, dovrebbe migliorare la fluidità....
Goofy Goober
01-06-2016, 10:20
Secondo me a sto giro AMD ha fatto un lancio davvero tattico!!! :eek:
lancio tattico con slide autolesioniste.
non ho mica ancora capito cosa dovrebbe esserci di positivo nel comparare una gpu che al 98% di utilizzo fa 58fps su un gioco dove due altre GPU in parallelo ne fanno 62 di fps, ma utilizzate al 51%
a me sembra sottointeso che dicano "compra due delle ns. gpu, che intanto il 50% delle potenzialità finisce nel water".
mi sembra un affarone :stordita:
non potevano farle girare al 90% anche le due 480 in crossfire e far vedere che il gioco gira a 100+ fps?
quella si che sarebbe stata una slide più convincente.
PaulGuru
01-06-2016, 10:20
Tu hai seri problemi con la matematica. 700Eur sono il prezzo per le custom qualora fossero piazzate a 599$.....
La FE siamo a 800Eur...
Se non ce la fai da solo usa una calcolatrice.
GTX 980 = 540$ => 520-530€
GTX 970 = 329$ => 330-340€
GTX 1080 non FE = 599$
GTX 1070 non FE = 379$
La calcolatrice dovrebbe usarla qualcun'altro, le fasce di prezzo sono poco più alte di 980 e 970, ma sono le stesse, se adesso c'è un sovrapprezzo è dato dal fatto che son appena uscite e non c'è concorrenza !
E per giunta il cambio non è più così favorevole
Dollaro Euro = 0,898759263 Euro
Aggiungici l'IVA e arriviamo a 400 e 650.
tuttodigitale
01-06-2016, 10:20
Scalare bene lo facevano già prima in realtà :D
la cosa curiosa è che sarà possibile utilizzare anche gpu di diversi produttori in futuro...e dai primi test, addirittura aumentando la velocità rispetto alle soluzioni omogenee
Beh se danno 2 480 poco sopra una 1080 diciamo che s'intuisce il livello di prestazioni. ...
Si intuisce ben poco dato che le schede sono in crossfire e a quanto dichiarato sono sfruttate al 60%.
Ripeto, bisogna aspettare i test (e vedo che dal tuo successivo intervento siamo abbastanza d'accordo su questo).
Ennesimo :mc:
Abbassa un po' la cresta, o smetterò di essere tollerante.
Hai detto un'idiozia sul TDP e l'unico che dovrebbe fare ammenda sei tu. Devo proprio ricordartelo anche io che stai dicendo stupidaggini una dietro l'altra?
La cosa stupefacente di questo forum è che c'è ancora chi discute con Paulguru :asd:
:asd:
In effetti mi sta portando a smetterla anch'io. ;)
tuttodigitale
01-06-2016, 10:22
GTX 980 = 540$ => 520-530€
GTX 970 = 329$ => 330-340€
GTX 1080 non FE = 599$
GTX 1070 non FE = 379$
il prezzo non FE, è fuffa...mi rifiuto di credere che nvidia possa mettere bocca sul prezzo pratico sulle custom dai vari oem.
PaulGuru
01-06-2016, 10:22
lancio tattico con slide autolesioniste.
non ho mica ancora capito cosa dovrebbe esserci di positivo nel comparare una gpu che al 98% di utilizzo fa 58fps su un gioco dove due altre GPU in parallelo ne fanno 62 di fps, ma utilizzate al 51%
a me sembra sottointeso che dicano "compra due delle ns. gpu, che intanto il 50% delle potenzialità finisce nel water".
mi sembra un affarone :stordita:
non potevano farle girare al 90% anche le due 480 in crossfire e far vedere che il gioco gira a 100+ fps?
quella si che sarebbe stata una slide più convincente.
Se al 51% van meglio di una 1080, vuol dire che una sola andrebbe come una 1080, quindi a 199$ hai il potenziale di una 1080.
E invece la verità è che la storia del 51% ( prima si diceva 60% ) è una la classica boiata di AMD con lo screen taroccato ma casualmente NON UFFICIALE ( come sempre ).
PaulGuru
01-06-2016, 10:23
Abbassa un po' la cresta, o smetterò di essere tollerante.
Hai detto un'idiozia sul TDP e l'unico che dovrebbe fare ammenda sei tu. Devo proprio ricordartelo anche io che stai dicendo stupidaggini una dietro l'altra?
Io non ho mai confuso TDP con consumo, lo hai dedotto solo tu questo.
Misterxxx1
01-06-2016, 10:24
Bella schedina a prezzo onesto, attendo i test :)
DakmorNoland
01-06-2016, 10:26
Se al 51% van meglio di una 1080, vuol dire che una sola andrebbe come una 1080, quindi a 199$ hai il potenziale di una 1080.
E invece la verità è che la storia del 51% ( prima si diceva 60% ) è una la classica boiata di AMD con lo screen taroccato ma casualmente NON UFFICIALE ( come sempre ).
Il discorso è che vanno come una 980 liscia, quindi in Crossfire vanno come uno SLI di 980 per come la vedo io. Però costano solo 200-250€ l'uno.
E noi sappiamo che la 1080 (come da dichiarazioni Nvidia) è leggermente più veloce di uno SLI di 980.
Quindi ste schede vanno all'incirca come la 980, ma costano una miseria.
Questo da una bella scossa a tutte le fasce di prezzo e vedrai che ne risente anche la 1070. ;)
Balthasar85
01-06-2016, 10:26
[..]
Viva la concorrenza 199$ per questa ottima scheda è un prezzo pazzesco. Grazie AMD! (da attuale possessore di GTX980)
Viva 199$ per avere COSA scusa?
Un chilo di banane? Un chilo di Pompelmi? Un chilo di Caviale? Un chilo di Oro? COSA? :doh:
Non è il prezzo a fare la scheda ma le prestazioni che ti offre quella scheda. :rolleyes:
CIAWA
PaulGuru
01-06-2016, 10:26
ma come una mossa pessima?
ti dicono che con 2 480 rispetto ad 1 1080, che costano un terzo in meno della concorrenza, vai di più e consumi meno!Sono 2 schede, non mi importa quanto costino meno.
si, per 5.5TF il clock reference sarà sui ~1200mhz, ma non fare sempre lo spocchioso crapadilegno le persone si possono pure sbagliare a scrivere delle volte, guarda il guru che non conta l'iva sulle gpu :DAh no ?
Te invece non conti il cambio euro dollaro.
PaulGuru
01-06-2016, 10:28
Il discorso è che vanno come una 980 liscia, quindi in Crossfire vanno come uno SLI di 980 per come la vedo io. Però costano solo 200-250€ l'uno.
E noi sappiamo che la 1080 (come da dichiarazioni Nvidia) è leggermente più veloce di uno SLI di 980.
Quindi ste schede vanno all'incirca come la 980, ma costano una miseria.
Questo da una bella scossa a tutte le fasce di prezzo e vedrai che ne risente anche la 1070. ;)
Nessuno ha mai messo in dubbio il prezzo.
tuttodigitale
01-06-2016, 10:29
Se al 51% van meglio di una 1080, vuol dire che una sola andrebbe come una 1080, quindi a 199$ hai il potenziale di una 1080.
E invece la verità è che la storia del 51% ( prima si diceva 60% ) è una la classica boiata di AMD con lo screen taroccato ma casualmente NON UFFICIALE ( come sempre ).
il 60% l'ho detto io, perchè non ricordavo esattamente la cifra
il filmato prodotto direttamente dal live delle 4, è dell'account ufficiale di AMD
https://www.youtube.com/watch?v=ZwlQvjwYFEM#t=38m07s
se poi vuoi continuare a dire fesserie, chi sono io per fermarti.
indicando per il 2017 il debutto delle GPU della famiglia Vega in abbinamento a memoria HBM2
Eh?
Dovrei sorprendermi se andrà meglio della 1080?! Esce tra SEI mesi.
Concorrenza, dov'è?
La 480, non è la 480X ne la 490, costerà circa 270-290€ custom+iva.
Goofy Goober
01-06-2016, 10:30
Il discorso è che vanno come una 980 liscia, quindi in Crossfire vanno come uno SLI di 980 per come la vedo io. Però costano solo 200-250€ l'uno.
E noi sappiamo che la 1080 (come da dichiarazioni Nvidia) è leggermente più veloce di uno SLI di 980.
Quindi ste schede vanno all'incirca come la 980, ma costano una miseria.
Questo da una bella scossa a tutte le fasce di prezzo e vedrai che ne risente anche la 1070. ;)
Ma non ho ancora capito perchè fanno vedere che le gpu in Crossfire sono usate al 51%
Due 980GTX in SLI nessuno le ha mai testate facendole andare al 51% d'utilizzo...
Perchè vorrebbe dire che lo SLI sta scalando così male che una 980 da sola va uguale.
Ripeto a mio parere quella slide sulle prestazioni è una cartella nelle balle, le loro stesse balle.
A vedere quel raffronto io capisco solo che 2 RX 480 scalano malissimo in Crossfire su un gioco, tra l'altro, notoriamente stra-favorevole alle gpu AMD, quindi danno doppio IMHO.
E cmq tutto questo sempre con il solito discorso a mente, ossia che il multigpu non è una certezza su tutti i giochi/tutti gli scenari, quindi le comparazioni andrebbero prima fatte in scheda singola, dopo in multigpu.
Io non ho mai confuso TDP con consumo, lo hai dedotto solo tu questo.
Ti devo proprio quotare?
Ecco quello che hai scritto nel post #25
PaulGuru: "300W assieme per andare poco più di una 1080, su un titolo selezionato per altro ( quindi presumo che nel resto vada pure di meno )"
Ora, se non si è molto confusi quando si fanno affermazioni del genere... i 300W che citi sono la somma dei due TDP da 150W, peccato che i 150W non siano i consumi ma una misura della capacità del dissipatore (che, per quanto legata ai consumi, è comunque un'altra cosa).
Quindi le cose sono due: o stai confondendo TDP con consumi come ho detto, o l'affermazione non ha alcun senso.
E invece la verità è che la storia del 51% ( prima si diceva 60% ) è una la classica boiata di AMD con lo screen taroccato ma casualmente NON UFFICIALE ( come sempre ).
Ma ci sei o ci fai?
Il 51% è un numero che ancora di più rafforza la sua posizione, tu ne parli come se fosse il contrario.
Lo screen ha detto essere uno screenshot del video della presentazione ufficiale, per cui non vedo cosa ci sia di taroccato (puoi sempre guardarti il video della presentazione se non ci credi).
PaulGuru
01-06-2016, 10:33
Ti devo proprio quotare?
Ecco quello che hai scritto nel post #25
PaulGuru: "300W assieme per andare poco più di una 1080, su un titolo selezionato per altro ( quindi presumo che nel resto vada pure di meno )"
Quindi ? Chi ha fatto riferimento al consumo ?
Solo tu, 300W = 2*150, che è corretto a mio avviso.
Il TDP è il limite fisico inteso a livello dissipativo, non di certo il consumo.
Quando si parla di consumi non lo si fà di certo per il consumo in sè, che su un desktop lascia il tempo che trova.
DakmorNoland
01-06-2016, 10:34
Ma non ho ancora capito perchè fanno vedere che le gpu in Crossfire sono usate al 51%
Due 980GTX in SLI nessuno le ha mai testate facendole andare al 51% d'utilizzo...
Perchè vorrebbe dire che lo SLI sta scalando così male che una 980 da sola va uguale.
Ripeto a mio parere quella slide sulle prestazioni è una cartella nelle balle, le loro stesse balle.
A vedere quel raffronto io capisco solo che 2 RX 480 scalano malissimo in Crossfire su un gioco, tra l'altro, notoriamente stra-favorevole alle gpu AMD, quindi danno doppio IMHO.
E cmq tutto questo sempre con il solito discorso a mente, ossia che il multigpu non è una certezza su tutti i giochi/tutti gli scenari, quindi le comparazioni andrebbero prima fatte in scheda singola, dopo in multigpu.
Sì la slide anche a me sembra che non sia chiara, però se ti vedi i leak che ci sono stati nei giorni scorsi su 3d mark11 (che ovviamente non rispecchia la situazione in giochi DX12 come in quella slide), vediamo che la situazione è più o meno questa.
In pratica fa 2000 punti in meno della 1080, più o meno quello che farebbero due 980 in SLI.
http://cdn.videocardz.com/1/2016/05/AMD-Radeon-R9-480-3DMark11-Performance.png
Poi dubito che siano davvero sfruttate solo al 50%... Dev'essere un errore. Non ha alcun senso. Però di fatto vanno come uno SLI di 980 per meno di 500 dollari.
pingalep
01-06-2016, 10:37
cioè uno si prende una 480 che pare vada benone con i vr o con fullFD. poi volendo ne prende un'altra, quando magari è pure calato il prezzo, e ha prestazioni simili alla 1080, consumi similie costi più bassi. a me non sembra male come posizionamento.
inoltre amd nel gpgpu e accelarazione hardware di molti software da anni è straconsigliata a meno che non ti serva cuda.
chicca finale se ti serve cuda potresti fare doppia gpu con una 480 e una "vecchia" 980ti usata...boom!
viva le dx12!
PaulGuru
01-06-2016, 10:38
ma è ovvio che devi metterne due è sempre stato così tra fascia media e fascia alta: NON SONO LA STESSA FASCIA DI PRESTAZIONI E DI PREZZO!
SE TI SERVE PIU' POTENZA CON LA SINGOLA VAI DI 1070 O 1080 E CACCIA IL GRANO.
ma l'italiano lo capisci? le 480 vanno contro le 1060/ti che arriveranno a settembre/ottobre, e le 490 quando usciranno contro le 1070/1090... hanno occupato segmenti di mercato differenti
il cambio euro dollaro te lo scordi in totale, mediamente dal listino americano devi aggiungere il 15%
di fatto la 1080FE sta a +800€ e la 1070 FE a 520€...
la 480 4GB verrà quindi 230€ e la 8GB sui 280€
Mica era quello il punto, il punto era che se 2*2303 stream erano appena migliori in un gioco selezionato, allora una Vega da 4096 stream difficilmente sarà davanti o farà molto meglio.
Per il discorso prezzo / prestazioni mai messo in dubbio, anzi ......
Però se Vega sarà dietro ..... il prezzo è una questione relativa, è una scheda che uscirà con netto ritardo e il prezzo di Nvidia potrebbe adeguarsi tranquillamente o si potrebbe comprarla a prezzo attuale ma cominciare a godersela da subito.
Quindi ? Chi ha fatto riferimento al consumo ?
Molto semplice allora.
Come ho scritto sopra, se non hai confuso TDP con consumo, semplicemente hai detto una cosa senza senso.
A meno che non abbia senso un confronto dissipatore/prestazioni, naturalmente. ;)
Ma non ho ancora capito perchè fanno vedere che le gpu in Crossfire sono usate al 51%
Da quel che ho capito io, stanno usando una modalità di crossfire poco efficiente e, nonostante questo, riescono ad ottenere prestazioni elevate.
Credo che sia questo il punto che hanno voluto evidenziare.
tuttodigitale
01-06-2016, 10:40
[B]Sì la slide anche a me sembra che non sia chiara, però se ti vedi i leak che ci sono stati nei giorni scorsi su 3d mark11 (che ovviamente non rispecchia la situazione in giochi DX12 come in quella slide), vediamo che la situazione è più o meno questa.
va meglio della gtx980? Se fosse confermato, di cosa vi lamentate? (povero il tizio che ha comprato la gtx980 da Paulguru:stordita: )
CrapaDiLegno
01-06-2016, 10:40
eccone un altro...
http://www.anandtech.com/show/8643/...actually-broken
OK, hai ragione, è SFR, fatto male. L'SFR è molto complesso da gestire come dicevo è come riportato nel tuo stesso link. Ed è utilizzabile solo in certi tipi di giochi, come gli strategici con vista a volo d'uccello o nei giochi di guida con gli elementi sempre nella stessa porzione dello schermo. Per un FPS è una modalità improponibile viste le troppe variazioni della scena possibili.
Rimane il fatto che come test è stato usato il solito gioco AMD (super) friendly con percentuali che non hanno senso. Se 2 schede al 52% fanno il 104% di una scheda singola, va da sé che una scheda sola di queste al 100% fa esattamente gli stessi FPS di quella Nvidia (lo scaling all'indietro da 2 schede a 1 funziona).
Se così fosse non capisco perché riportare la modalità CF che è adottata da forse l'1% dei giocatori.
Se usavano Project Cars 2x480 facevano metà degli FPS della 1080.
Soliti giochetti di marketing, dove dimostrano i numeri più migliorerrimi possibili senza dare reale spiegazione alla cosa.
Vedremo quando sarà sul mercato le reali prestazioni e quanti giochi scaleranno o viceversa quanti rimarranno fregati come con le soluzioni dual precedenti (avete controllato, come suggerito, quanti giochi scalano in configurazione CF o SLI? No? Provateci)
Goofy Goober
01-06-2016, 10:43
Sì la slide anche a me sembra che non sia chiara, però se ti vedi i leak che ci sono stati nei giorni scorsi su 3d mark11 (che ovviamente non rispecchia la situazione in giochi DX12 come in quella slide), vediamo che la situazione è più o meno questa.
In pratica fa 2000 punti in meno della 1080, più o meno quello che farebbero due 980 in SLI.
Poi dubito che siano davvero sfruttate solo al 50%... Dev'essere un errore. Non ha alcun senso. Però di fatto vanno come uno SLI di 980 per meno di 500 dollari.
il leak me lo ricordo, ma per ora lo prendo come un leak e nulla di più (tra l'altro su un benchmark sintetico, quindi "meh").
Come dici (e come dico io) non ha nessun senso la storia dell'utilizzo, quindi per me al momento è tutto molto nebbioso.
Peccato che abbiamo deciso di aspettare fino al 30 giugno per far vedere i test reali di queste schede video...
Da quel che ho capito io, stanno usando una modalità di crossfire poco efficiente e, nonostante questo, riescono ad ottenere prestazioni elevate.
Credo che sia questo il punto che hanno voluto evidenziare.
quello lo posso capire, ossia che è interessante far vedere un test dove "col freno a mano tirato" vado cmq meglio della concorrenza, costando meno.
quello che invece non capisco assolutamente è perchè non mostrano, immediatamente prima/dopo quel test, uno scenario d'uso standard senza alcun tipo di freno/menomazione alle prestazioni della gpu, per far vedere quanto possono girare bene se sfruttate al meglio...
perchè messa così sembra mettersi a fare i benchmark su 3D Mark col Vsync attivo e frame cappati a 60 e valutare le prestazioni ottenute in base all'utilizzo delle gpu... ossia inutilità totale.
PaulGuru
01-06-2016, 10:45
Molto semplice allora.
Come ho scritto sopra, se non hai confuso TDP con consumo, semplicemente hai detto una cosa senza senso.
A meno che non abbia senso un confronto dissipatore/prestazioni, naturalmente. ;)
Non lanceranno mai sul mercato ( di nuovo ) una GPU da 300W.
Anche se ne consumasse appena 150.
Eccolo il punto.
Epoc_MDM
01-06-2016, 10:46
Cioè, finalmente (e dico, FINALMENTE!!!) parrebbe esistere (almeno per quella fascia di mercato) una SERIA concorrenza, e avete da discutere anche su questo?
Siete meravigliosi :D :D
Io non posso che essere contento di una 480 con quelle prestazioni e a quel prezzo (e compro Nvidia da anni oramai).
Chi non lo è, o ha ingenti quote azionarie Nvidia o è completamente fuori dal mondo.
PaulGuru
01-06-2016, 10:46
Da quel che ho capito io, stanno usando una modalità di crossfire poco efficiente e, nonostante questo, riescono ad ottenere prestazioni elevate.
Credo che sia questo il punto che hanno voluto evidenziare.
E' tutta un arrampicata
Ma chi lo ha evidenziato ?
Dove sarebbe lo screen del bench ?
Se fate riferimento alla foto di sopra è chiaro che è una taroccata con photoshop
Se è vero che al 51% va meglio di una 1080 perchè castrarsi con una modalità handicappata e perchè non mostrare una 480 singola a sto punto ?
Mi domando come facciate a crederci.
Dubito che possano consumare meno di una singola 1080 che già di per se è piuttosto efficiente. Ovviamente AMD ha mostrato il caso migliore per loro ma la scheda va valutata in un contesto più ampio. Comunque visto dove la posizionano non è certamente l'annuncio che mi aspettavo.
Mi sa che l'upgrade bisogna spostarlo a inizio 2017.
per me si invece. Volevo uppare la mi r9 270 e questa e' la scheda perfetta.
La maggior parte dei giocatori non usa schede da 300 euro o +.
Rimane il fatto che come test è stato usato il solito gioco AMD (super) friendly con percentuali che non hanno senso. Se 2 schede al 52% fanno il 104% di una scheda singola, va da sé che una scheda sola di queste al 100% fa esattamente gli stessi FPS di quella Nvidia (lo scaling all'indietro da 2 schede a 1 funziona).
Credo che questa supposizione sia sostanzialmente sbagliata.
Altrimenti le schede avrebbero consumi sempre uguali indipendentemente da quello che stanno facendo girare.
Neanche in modalità singola scheda una GPU viene sfruttata al 100& (difatti nella presentazione la 1080 era sfruttata a poco più del 90% mi pare), e certe architetture permettono di sfruttare le risorse più di altre (il che non è necessariamente un difetto, perchè magari ne sfrutto meno ma riesco a farcene stare di più nella scheda, bilanciando la cosa).
Magari Vega in questo contesto viene sfruttato, su singola scheda, al 75% (percentuale a caso), il che la piazzerebbe ad un livello di prestazioni certo inferiore alla 1080, ma comunque discreto.
Goofy Goober
01-06-2016, 10:49
Cioè, finalmente (e dico, FINALMENTE!!!) parrebbe esistere (almeno per quella fascia di mercato) una SERIA concorrenza, e avete da discutere anche su questo?
Siete meravigliosi :D :D
Io non posso che essere contento di una 480 con quelle prestazioni e a quel prezzo (e compro Nvidia da anni oramai).
Chi non lo è, o ha ingenti quote azionarie Nvidia o è completamente fuori dal mondo.
parrebbe
si discute su questo.
dato che al momento il "parrebbe" è l'unica certezza che c'è. :stordita:
e io da quella slide, se il "parrebbe" lo leviamo, e diventa la certezza di quel che possono fare le 480, i casi che si verificano contemporaneamente sono 2:
- la RX 480 su Ashes in scheda singola sfruttata al 99% DEVE girare almeno come la 1080gtx (cosa epica a dir poco, nonostante il gioco).
- 2 RX 480 su Ashes in Crossfire hanno giganteschi problemi (voluti o non voluti), e quindi il Cross su quel gioco è da evitare come la peste.
Si dice che vada poco sotto una fury liscia(non furyX).
PaulGuru
01-06-2016, 10:50
IN LINEA DEFINITIVA
mi state dicendo che ho fatto bene a vendere la 980 a 330€ :rolleyes:
tuttodigitale
01-06-2016, 10:50
Se è vero che al 51% va meglio di una 1080 perchè castrarsi con una modalità handicappata e perchè non mostrare una 480 singola a sto punto ?
perchè non hanno nessun interesse di mostrare al mondo quello che è in grado di fare questa scheda con un mese di anticipo. Semplice no?
Epoc_MDM
01-06-2016, 10:52
parrebbe
si discute su questo.
dato che al momento il "parrebbe" è l'unica certezza che c'è. :stordita:
Il "parrebbe" è dato dalle mie considerazioni vedendo una slide. Se dovessero cambiare dati e benchmark alla mano, il futuro non posso certo prevederlo.
Se poi dovesse rivelarsi inferiore alle aspettative, quello è un altro discorso.
- la RX 480 su Ashes in scheda singola sfruttata al 99% DEVE girare almeno come la 1080gtx (cosa epica a dir poco, nonostante il gioco).
- 2 RX 480 su Ashes in Crossfire hanno giganteschi problemi (voluti o non voluti), e quindi il Cross su quel gioco è da evitare come la peste.
E per quale motivo scusa? Anche se singolamente andasse al 51% di una 1080gtx (come prestazioni), non mi pare che 199 sia il 51% di 699 o 599 che sia ;)
CrapaDiLegno
01-06-2016, 10:52
Hai sbagliato completamente la tua analisi!
AMD ha il monopolio nel mercato console ed è quello che le interessa! Si era già parlato del fatto che la PS4 Neo per gestire decentemente la VR, avrebbe montato una GPU con prestazioni paragonabili alla 980 liscia.
Ed è questo che ha fatto AMD. Ha creato un chip economico che va come la 980 e perfetto sia da vendere nella fascia media, sia da mettere nelle nuove PS4.
Mi sa che sei tu che hai sbagliato. Che se ne sappia nella PS4 neo non ci va alcuna GPU discreta ma una nuova APU, quindi queste non sono le GPU di PS4 da produrre in quantità astronomica. Sono semplici piccole GPU di fascia media che si posizionano dietro le proposte della concorrenza con prezzi aggressivo. Per chi c'era nel 2007, è un deja vu. E come nel 2007 basta un GP106 grande quanto questo con prestazioni simili e prezzo basso (anche se non stracciato) per abbattere tutta la baracca.
GP106 Vs 480 e GP104 super castrato Vs 480X e Nvidia fa un'altra generazione senza preoccupazioni mentre i fanboy si scanneranno sul FPS in più o meno o se 120W sono davvero peggio di 110W as usual.
Non lanceranno mai sul mercato ( di nuovo ) una GPU da 300W.
Anche se ne consumasse appena 150.
Eccolo il punto.
300W di cosa? TDP? Consumi?
Continui a fare confusione, e fare supposizioni basate sul nulla.
Se fate riferimento alla foto di sopra è chiaro che è una taroccata con photoshop
Ma se ti ha anche linkato il video da cui ha preso lo screenshot?
Credo che ora tu abbia raggiunto il massimo livello di trollata, non ho più intenzione di perdere tempo a rispondere alle assurdità che dici.
Premetto che sono molto ignorate su questo argomento ma stando all'articolo il prezzo della nuova scheda è 200 euro e guardando su internet la 1080 costa sui 700/800.
Ora, prendere due rx 480 e metterle in crossfire offrerebbe una potenza superiore rispetto ad una 1080 con un consumo di energia minore e con un risparmio di 300/400 euro.
Non vedo dove sia questo fail di AMD, stando a quello che ho capito ha praticamente distrutto nVidia.
Ripeto: sono ignorate e mi baso su quel poco che riesco a capire, ditemi che ne pensate perchè sto seriamente valutando di comprare 2 rx 480
tuttodigitale
01-06-2016, 11:00
Nvidia fa un'altra generazione senza preoccupazioni
crapadilegno ti dimentichi che ci sarebbero 2 chip vega, e il più piccolo dovrebbe avere all'incirca le dimensioni di gp104...il più grande oltre 6000sp. Gli ultimi rumors volevano un uscita anticipata ad Ottobre.
MarklendersXY
01-06-2016, 11:02
Se va come una 390/390x siamo messi davvero bene quest'anno, con 800 euro ci si stira fuori un pc davvero eccezionale, e magari la ps4 neo monterà una versione custom della 480 chissà, aspettiamo e vediamo.
AceGranger
01-06-2016, 11:03
ma come una mossa pessima?
ti dicono che con 2 480 rispetto ad 1 1080, che costano un terzo in meno della concorrenza, vai di più e consumi meno!
si va bè, lo SLI/CF se lo cag@no in pochi, e hanno praticamente detto che la loro GPU di punta attuale stara ben al disotto della 1080 e stara anche sotto alla 1070...
non è che sia stata una gran mossa è...
Goofy Goober
01-06-2016, 11:05
E per quale motivo scusa? Anche se singolamente andasse al 51% di una 1080gtx (come prestazioni), non mi pare che 199 sia il 51% di 699 o 599 che sia ;)
Per quale motivo che cosa? :fagiano:
la slide è una (purtroppo), e si sta parlando di quella...
le cose che tale slide può dimostrare son giusto i due casi che ho elencato, salvo altre spiegazioni tecniche al momento non divulgate (mi pare).
se mi son perso qualche altra informazione certa, mea culpa :)
Epoc_MDM
01-06-2016, 11:06
si va bè, lo SLI/CF se lo cag@no in pochi, e hanno praticamente detto che la loro GPU di punta attuale stara ben al disotto della 1080 e stara anche sotto alla 1070...
non è che sia stata una gran mossa è...
GTX 1070 - $380
RX 480 - $199
Dici che non sia una gran mossa? :)
Per quale motivo che cosa? :fagiano:
la slide è una (purtroppo), e si sta parlando di quella...
le cose che tale slide può dimostrare son giusto i due casi che ho elencato, salvo altre spiegazioni tecniche al momento non divulgate (mi pare).
se mi son perso qualche altra informazione certa, mea culpa :)
Ti sei perso un'informazione certa, il prezzo ;)
tuttodigitale
01-06-2016, 11:14
si va bè, lo SLI/CF se lo cag@no in pochi, e hanno praticamente detto che la loro GPU di punta attuale stara ben al disotto della 1080 e stara anche sotto alla 1070...
non è che sia stata una gran mossa è...
da una scheda con un chip di appena 232mmq cosa ti aspetti?
gp104 è del 70% più grande.
Davvero non capisco questo enorme entusiamo per la 1070...per carità stravolge il rapporto prezzo prestazioni delle gpu nvidia, ma con le fury OC da almeno un paio di mesi prezzate a 450 euro, i 520 euro delle FE, seppur giustificabili, non hanno certo cambiato il panorama (per chi non vede tutto verde sia chiaro).
Poi c'è l'incognita del prezzo delle custom...non penso che nvidia obblighi gli OEM a praticare determinati prezzi per le proposte che non siano quelle di riferimento..
CarmackDocet
01-06-2016, 11:21
Ho letto tutti i vostri commenti e tra sfottò e punti di vista diversi la disamina è stata interessante.
Io quello che proprio non capisco sono 2 cose:
1) Parlando della slide incriminata, se normalizziamo tutto al 100% di utilizzo GPU, abbiamo una situazione in cui:
- la GTX 1080 a 59,5 fps
- e 2 x RX480 a 122,5 fps
Ammettiamo anche che il titolo sia favorevole ad AMD.
Molti concordano che l'efficenza in multi-gpu non vada, nel migliore dei casi, a +70-80%.
Pendiamo una media del 75%.
81,6 @75% = 91,8 fps?!?!
Cioè una singola RX 480 va il 50% in PIU' una GTX 1080?
Mi rifiuto di crederlo!
2) Non ho idea di quanti transistor contenga Polaris 10 (qualcuno può scriverlo? Grazie), ma la frequenza di 1,2 GHz mi sembra davvero un incremento modesto per il passaggio di architettura.
Mi ricordo giorni fa, all'uscita della prima recensione della 1080 che c'e stato chi si è lamentato dello "scarso" aumento delle frequenze rispetto alla generazione precedente. Oggi invece qui non mi sembra si sia fatto altrettanto.
Un saluto a tutto il Forum!
CrapaDiLegno
01-06-2016, 11:22
Neanche in modalità singola scheda una GPU viene sfruttata al 100& (difatti nella presentazione la 1080 era sfruttata a poco più del 90% mi pare), e certe architetture permettono di sfruttare le risorse più di altre (il che non è necessariamente un difetto, perchè magari ne sfrutto meno ma riesco a farcene stare di più nella scheda, bilanciando la cosa).
Magari Vega in questo contesto viene sfruttato, su singola scheda, al 75% (percentuale a caso), il che la piazzerebbe ad un livello di prestazioni certo inferiore alla 1080, ma comunque discreto.
Avresti quasi ragione se non che con questo gioco super AMD friendly la 1080 va al 98% e quindi una scheda singola AMD dovrebbe fare più o meno lo stesso, dato che non c'è motivo perché faccia diversamente essendo un gioco creato proprio per sfruttare le sue caratteristiche.
FPS in più o in meno, mostrare di avere una soluzione al pari della concorrenza che consuma meno e costa meno della metà sarebbe stato più interessante.
Invece hanno optato per il solito bench fuffa che confonde, crea hype e al solito si rivelerà una delusione con i test reali.
A chi ha detto che non ha interesse a mostrare cosa è in grado di fare la propria soluzione un mese prima di arrivare sul mercato, direi che ha detto una gran boiata: qui c'è l'interesse a frenare i compratori fino all'arrivo di questa scheda che ha 1 mese di ritardo. L'azione di AMD, che proseguirà, è quella di cercare di creare curiosità verso i suoi prodotti non ancora in vendita e lo sta facendo usando mezzucci che dimostrano che non hanno molto in mano per competere. Un po' come con Fiji, partiti a gennaio a dire che sarebbe stata presto pronta, con bench tarocchi e zero info reali fino all'ultimo momento. Si spera che AMD non faccia una figura del genere nuovamente, altrimenti la corsa ad acquistare le schede Nvidia non più FE (alla fine del mese dovrebbero arrivare quelle custom a prezzi inferiori) sarà una piena.
Comunque ricordo stiamo parlando della scheda castrata. Ci sarà anche una 480X con prestazioni superiori (e prezzi maggiori) che dovrebbero essere allineati ai prezzi della 1070 (379$) secondo le prestazioni reali.
CarmackDocet
01-06-2016, 11:23
gli fps delle RX 480 normalizzati sono 122 :-)
peggio mi sento!
tuttodigitale
01-06-2016, 11:24
Ho letto tutti i vostri commenti e tra sfottò e punti di vista diversi la disamina è stata interessante.
Io quello che proprio non capisco sono 2 cose:
1) Parlando della slide incriminata, se normalizziamo tutto al 100% di utilizzo GPU, abbiamo una situazione in cui:
- la GTX 1080 a 59,5 fps
- e 2 x RX480 a 81,6 fps
Ammettiamo anche che il titolo sia favorevole ad AMD.
Molti concordano che l'efficenza in multi-gpu non vada, nel migliore dei casi, a +70-80%.
Pendiamo una media del 75%.
81,6 @75% = 61,2 fps?!?!
Cioè una singola RX 480 va meglio una GTX 1080?
Mi rifiuto di crederlo.
2) Non ho idea di quanti transistor contenga Polaris 10 (qualcuno può scriverlo? Grazie), ma la frequenza di 1,2 GHz mi sembra davvero un incremento modesto per il passaggio di architettura.
si mormora di ben 8,2 miliardi di transistor (quasi quanto Fiji e più di gp104 che ne ha 7,2) in appena 232 mmq...per un fattore di integrazione pari a +150% rispetto ai 28nm...per contro nvidia ha solo +70% di transistor per area rispetto ai 28nm. (la colpa potrebbe essere proprio il clock più alto)
Valori da verificare per AMD.
PS nella slide AMD indica che le prestazioni per watt da Polaris alle vecchie architetture a 28nm, sono fino a 2,8 più efficienti...
CarmackDocet
01-06-2016, 11:27
allora mi torna che, essendoci un integrazione maggiore il chip AMD scaldi di più per mm2 e che quindi possa scalare meno in frequenza
PaulGuru
01-06-2016, 11:32
perchè non hanno nessun interesse di mostrare al mondo quello che è in grado di fare questa scheda con un mese di anticipo. Semplice no?
Se ce l'hai più lungo lo sbandieri chiaramente così da bloccare gli acquisti verso Nvidia.
PaulGuru
01-06-2016, 11:33
300W di cosa? TDP? Consumi?
Continui a fare confusione, e fare supposizioni basate sul nulla.
Ma lo fai apposta ?
Stavamo parlando di TDP ...
Vano tentativo di screditazione
Da quanto vedo:
-la scheda ha un prezzo decente per il suo rango, cosa che non si può dire delle neonate Nvidia
-AMD è autolesionista a mostrare 2 schede che scalano pessimamente in CF sul loro titolo preferito (un gioco di m***a che nessuno dovrebbe toccare per non sporcarsi le mani)
-IMO, era meglio uscire con una scheda che andasse almeno quanto una 1070, costando magari 350 dollari invece di 200, quello avrebbe dato vera concorrenza e forzato Nvidia a calare i prezzi
-Finché non esce una 1060/Ti, questa 480 ha buone potenzialità di trovare mercato
tuttodigitale
01-06-2016, 11:34
Se ce l'hai più lungo lo sbandieri chiaramente così da bloccare gli acquisti verso Nvidia.
Non ce l'hanno più lungo.....mi pare ovvio.
PaulGuru
01-06-2016, 11:36
il 60% l'ho detto io, perchè non ricordavo esattamente la cifra
il filmato prodotto direttamente dal live delle 4, è dell'account ufficiale di AMD
https://www.youtube.com/watch?v=ZwlQvjwYFEM#t=38m07s
se poi vuoi continuare a dire fesserie, chi sono io per fermarti.
Quindi la 480 va come la 1080 ma a 199$ ?
A me invece sembrano prese per i fondelli e che il valore sia puramente inventato.
Tuvok-LuR-
01-06-2016, 11:37
bene bene, quando i prezzi delle 1070 si saranno assestati fra un mesetto dovremmo vedere i primi numeri di Polaris, giusto in tempo per scegliere
Avresti quasi ragione se non che con questo gioco super AMD friendly la 1080 va al 98% e quindi una scheda singola AMD dovrebbe fare più o meno lo stesso, dato che non c'è motivo perché faccia diversamente essendo un gioco creato proprio per sfruttare le sue caratteristiche.
Certo che c'è un motivo: architetture differenti.
Sfruttare le risorse della scheda con percentuali elevate richiede una logica di gestione più complessa, che si paga in termini di silicio.
In passato (Terascale vs Fermi per esempio) la cosa era palese, le schede AMD infilavano nel due una marea di SP che però non venivano sfruttati appieno a causa della diversa architettura, che però permetteva di averne in grandi quantità (per cui anche se non li sfrutti bene pazienza, tanto ne hai in grande quantità).
Ora noi sappiamo poco di GNC 4 e di quanto questa percentuale dipenda da fattori di questo tipo, ma è sicuramente una possibilità.
CrapaDiLegno
01-06-2016, 11:39
Ragazzi, va bene il fanboy sto, ma non esageriamo
da una scheda con un chip di appena 232mmq cosa ti aspetti?
gp104 è del 70% più grande.
Il GP104 è di 314mm^2 (fonte Anantech, non mio cugggino) quindi il 35% più grande.
Inoltre non capisco cosa vi state inventando riguardo a TDP e consumi. Da quando esistono le schede grafiche discrete il TDP è il consumo delle schede durante il loro funzionamento normale (giochi) da cui diverge solo in casi particolari. Come detto nessuno fa una scheda che consuma 150W e con dissipatore per 300W. Viceversa come fatto fa AMD si possono fare schede con consumi da 270W e TDP di 250.
Ma la sostanza è che il TDP è il consumo durante il normale funzionamento nei giochi. Guardatevi i test. Non ci sono invenzioni da fare sull'argomento.
AceGranger
01-06-2016, 11:40
GTX 1070 - $380
RX 480 - $199
Dici che non sia una gran mossa? :)
no, come marketing non è stata un gran mossa comuqnue.
da una scheda con un chip di appena 232mmq cosa ti aspetti?
gp104 è del 70% più grande.
Davvero non capisco questo enorme entusiamo per la 1070...per carità stravolge il rapporto prezzo prestazioni delle gpu nvidia, ma con le fury OC da almeno un paio di mesi prezzate a 450 euro, i 520 euro delle FE, seppur giustificabili, non hanno certo cambiato il panorama (per chi non vede tutto verde sia chiaro).
Poi c'è l'incognita del prezzo delle custom...non penso che nvidia obblighi gli OEM a praticare determinati prezzi per le proposte che non siano quelle di riferimento..
ho parlato della parte di markenting non del prodotto in se, e secondo me paragonare DUE GPU con UNA è una belinata.
AceGranger
01-06-2016, 11:45
gpu di punta che di nome fa 480? :mbe:
ci sono ancora le 490 e le fury next, questa battaglia con una 1060 e 1060ti che non usciranno prima di settembre, è un altra fascia e STOP.
eh grazie, quando le presenteranno cambiera, ma attualmente c'è solo quella e quella è l'offerta di punta delle nuove serie.
PaulGuru
01-06-2016, 11:47
Ragazzi, va bene il fanboy sto, ma non esageriamo
Il GP104 è di 314mm^2 (fonte Anantech, non mio cugggino) quindi il 35% più grande.
Inoltre non capisco cosa vi state inventando riguardo a TDP e consumi. Da quando esistono le schede grafiche discrete il TDP è il consumo delle schede durante il loro funzionamento normale (giochi) da cui diverge solo in casi particolari. Come detto nessuno fa una scheda che consuma 150W e con dissipatore per 300W. Viceversa come fatto fa AMD si possono fare schede con consumi da 270W e TDP di 250.
Ma la sostanza è che il TDP è il consumo durante il normale funzionamento nei giochi. Guardatevi i test. Non ci sono invenzioni da fare sull'argomento.
Chissà cosa ne pensa Calabar. ;)
Apix_1024
01-06-2016, 11:49
Ho letto tutti i vostri commenti e tra sfottò e punti di vista diversi la disamina è stata interessante.
Io quello che proprio non capisco sono 2 cose:
1) cuttone
2) Non ho idea di quanti transistor contenga Polaris 10 (qualcuno può scriverlo? Grazie), ma la frequenza di 1,2 GHz mi sembra davvero un incremento modesto per il passaggio di architettura.
Un saluto a tutto il Forum!
punto 1) imho è presto stare a discutere su rumor senza uno straccio di test della vga ;)
punto 2) sono dell'idea che diverse architetture abbiano limiti di clock diversi. la densità di transistor è bene diversa tra le due soluzioni (70% in più per Nvidia e 150% in più per amd). quello che voleva AMD non era spradroneggiare al top presentando una VGA spaccaculi ma ha sempre e ripeto sempre puntato il dito in una direzione pref/watt. ergo ha lavorato proprio lì in fascia media tirando fuori prestazioni da 390/390X con un TDP max di 150W (consumo reale direi tra i 100 e i 120W).
alzare le frequenze implica alzare in modo non lineare il voltaggio (chi pratica oc lo sa bene) in quanto alzare la frequenza porta ad un aumento della temperatura e questi due fattori concorrono all'aumento non lineare del voltaggio --> morale della favola i consumi s'impennano.
ricordo che i consumi in oc si possono calcolare con una formulina facile facile
(MHz_oc/MHz_def)*(Vcore_oc/Vcore_def)²*consumo_def = consumo_oc
fatevi due conti di quanto si impennino con 10% di frequenza in più e 15% di voltaggio ;)
e poi abbiamo la fascia di prezzo! 200/250€ che credo sia la fascia dove la gente comune vada a parare per le proprie vga, o siamo tutti figli di papà qui dentro? :rolleyes:
CrapaDiLegno
01-06-2016, 12:01
1) Parlando della slide incriminata, se normalizziamo tutto al 100% di utilizzo GPU, abbiamo una situazione in cui:
- la GTX 1080 a 59,5 fps
- e 2 x RX480 a 122,5 fps
Ammettiamo anche che il titolo sia favorevole ad AMD.
Molti concordano che l'efficenza in multi-gpu non vada, nel migliore dei casi, a +70-80%.
Pendiamo una media del 75%.
81,6 @75% = 91,8 fps?!?!
Cioè una singola RX 480 va il 50% in PIU' una GTX 1080?
Mi rifiuto di crederlo!
Stai commettendo un piccolo errore di calcolo: ti è già stato indicato che le GPU lavorano a metà della loro potenza massima, che significa che il rendimento del CF è del 50% rispetto ad una condizione ideale.
Tu hai applicato una ulteriore riduzione del 25% ridimensionando lo scaling al 75%.
Il ragionamento più semplice e diretto è: se 2 schede al 50% fanno gli stessi numeri di una sola (frame in più o in meno), una scheda al 100% farà gli stessi numeri pure lei, ed ecco che viene che la 480 farebbe gli stessi FPS della 1080 se sfruttata al 100% quanto lo è la 1080 in quel test.
Il che è assurdo, concordo, ma stiamo parlando di un gioco molto AMD friendly. Rimane il dubbio del perché non sia stato mostrato questo dato chiaro, netto, comprensibile anche ad un bambino in cerca di una vga nuova, invece di un fumoso quanto inutile test in CF con numeri che probabilmente neanche il presentatore sul palco riuscirebbe a spiegare se non tramite paradossali epicicli che ovviamente non convincono nessuno.
Dragon2002
01-06-2016, 12:05
Va beh ma a che serve sta scheda video,solo perché consuma di meno. Mi aspettavo prestazioni almeno a livello della gtx 1070. E non capisco nemmeno il perché di una scheda video cosi poco spinta va bene che l'architettura si è capito è sempre la stessa ma il passaggio a 14 nanometri avrebbe potuto permettere un aumento considerevole degli shader e quindi delle prestazioni.
Invece questa scheda cosi è assolutamente inutile,almeno per me che ho già una gtx 970 e volevo fare un upgrade.
Come sempre Amd fa graaaandi annunci... Poi vedremo
CrapaDiLegno
01-06-2016, 12:15
punto 2) sono dell'idea che diverse architetture abbiano limiti di clock diversi. la densità di transistor è bene diversa tra le due soluzioni (70% in più per Nvidia e 150% in più per amd). quello che voleva AMD non era spradroneggiare al top presentando una VGA spaccaculi ma ha sempre e ripeto sempre puntato il dito in una direzione pref/watt. ergo ha lavorato proprio lì in fascia media tirando fuori prestazioni da 390/390X con un TDP max di 150W (consumo reale direi tra i 100 e i 120W).
alzare le frequenze implica alzare in modo non lineare il voltaggio (chi pratica oc lo sa bene) in quanto alzare la frequenza porta ad un aumento della temperatura e questi due fattori concorrono all'aumento non lineare del voltaggio --> morale della favola i consumi s'impennano.
ricordo che i consumi in oc si possono calcolare con una formulina facile facile
(MHz_oc/MHz_def)*(Vcore_oc/Vcore_def)²*consumo_def = consumo_oc
fatevi due conti di quanto si impennino con 10% di frequenza in più e 15% di voltaggio ;)
e poi abbiamo la fascia di prezzo! 200/250€ che credo sia la fascia dove la gente comune vada a parare per le proprie vga, o siamo tutti figli di papà qui dentro? :rolleyes:
Che sia stato messo un dissipatore da 150W su una scheda che ne consumerebbe 100 il cui intento è costare il meno possibile per vendere tantissimo e far guadagnare molto è però solo nei tuoi sogni. Se 150 è il TDP dichiarato, 150W saranno i consumi durante il suo funzionamento. Con 150W Nvidia ha prestazioni da 980Ti. Quindi non vedo questo miracolo dei perf /watt che hai descritto.
Inoltre il problema del voltaggio/frequenza è un problema che a quanto pare riguarda solo lei da diverso tempo, dato che Nvidia usa frequenza molto più alte da un sacco di tempo (2006 con il G80 e i suoi shader 2.5x la frequenza di base del core) e se i numeri dichiarati sono reali anche questa volta è avanti non poco.
Il problema potrebbe essere il PP di GF/Samsung. L'A8 di Apple prodotto con i 2 PP diretti genitori di questi mostravano che il pp di Samsung era sì poco più denso rispetto a quelli di TSMC, ma che aveva problemi di consumi a salire con la frequenza. Probabile che il problema sua rimasto irrisolto.
PaulGuru
01-06-2016, 12:17
doppio
PaulGuru
01-06-2016, 12:17
Stai commettendo un piccolo errore di calcolo: ti è già stato indicato che le GPU lavorano a metà della loro potenza massima, che significa che il rendimento del CF è del 50% rispetto ad una condizione ideale.
Tu hai applicato una ulteriore riduzione del 25% ridimensionando lo scaling al 75%.
Il ragionamento più semplice e diretto è: se 2 schede al 50% fanno gli stessi numeri di una sola (frame in più o in meno), una scheda al 100% farà gli stessi numeri pure lei, ed ecco che viene che la 480 farebbe gli stessi FPS della 1080 se sfruttata al 100% quanto lo è la 1080 in quel test.
Il che è assurdo, concordo, ma stiamo parlando di un gioco molto AMD friendly. Rimane il dubbio del perché non sia stato mostrato questo dato chiaro, netto, comprensibile anche ad un bambino in cerca di una vga nuova, invece di un fumoso quanto inutile test in CF con numeri che probabilmente neanche il presentatore sul palco riuscirebbe a spiegare se non tramite paradossali epicicli che ovviamente non convincono nessuno.
Che sia stato messo un dissipatore da 150W su una scheda che ne consumerebbe 100 il cui intento è costare il meno possibile per vendere tantissimo e far guadagnare molto è però solo nei tuoi sogni. Se 150 è il TDP dichiarato, 150W saranno i consumi durante il suo funzionamento. Con 150W Nvidia ha prestazioni da 980Ti. Quindi non vedo questo miracolo dei perf /watt che hai descritto.
Inoltre il problema del voltaggio/frequenza è un problema che a quanto pare riguarda solo lei da diverso tempo, dato che Nvidia usa frequenza molto più alte da un sacco di tempo (2006 con il G80 e i suoi shader 2.5x la frequenza di base del core) e se i numeri dichiarati sono reali anche questa volta è avanti non poco.
Il problema potrebbe essere il PP di GF/Samsung. L'appartamento dell'opzione prodotto con i 2 PP diretti genitori di questi mostravano che il pp di Samsung era sì poco più denso rispetto a quelli di TSMC, ma che aveva problemi di consumi a salire con la frequenza. Probabile che il problema sua rimasto irrisolto.Quoto entrambi
Dragon2002
01-06-2016, 12:18
Delusione pazzesca, Amd ormai è proprio finita,dimezzi i nanometri e fai una gpu che va come quella vecchia,consuma poco e chi se ne frega.
tuttodigitale
01-06-2016, 12:26
Ragazzi, va bene il fanboy sto, ma non esageriamo
Il GP104 è di 314mm^2 (fonte Anantech, non mio cugggino) quindi il 35% più grande.
ricordavo male (394), ma il fattore di integrazione è quello,(l'avevo calcolato settimane fa).
Poi essere chiamato fanboy da te è un onore.
Inoltre non capisco cosa vi state inventando riguardo a TDP e consumi.
AMD, fino alle Hawaii, aveva un TDP molto più alto dei consumi....
Chissà cosa ne pensa Calabar. ;)
chissà cosa ne pensate di questo post
non guardare il TDP....
ad esempio la gtx680 era dato con TDP da 195W e la hd7950 200W, eppure la prima consuma decisamente di più della seconda, e persino più della 7970 liscia (TDP 250w)
https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_680/images/power_average.gif
allo stesso modo le gtx 980 hanno un tdp dichiarato di 165W, ma consumano 50 watt in più della hd7870 che ha un tdp di 175W
ciliegina sulla torta, la gtx480 aveva un TDP dichiarato di 250W..
in pratica, se AMD torna a qualificare il TDP come faceva pre-Hawaii, consumerà molto meno dei 150W dichiarati. Ed essendo una soluzione, così si dice, di appena 232mmq. è estremamente probabile che sia così:
Al computex AMD ha dichiarato che in game DUE rx480 consumano meno della gtx1080
Goofy Goober
01-06-2016, 12:27
Delusione pazzesca, Amd ormai è proprio finita, dimezzi i nanometri e fai una gpu che va come quella vecchia,consuma poco e chi se ne frega.
beh si alla fine è quello che ho pensato subito anche io, ma stavo reprimendo questo pensiero dentro di me :D
in particolare la parte in grassetto :asd:
PaulGuru
01-06-2016, 12:27
ricordavo male (394), ma il fattore di integrazione è quello,(l'avevo calcolato settimane fa).
Poi essere chiamato fanboy da te è un onore.
AMD, fino alle Hawaii, aveva un TDP molto più alto dei consumi....
chissà cosa ne pensate di questo post
Consumo averange sono i consumi di media, sarebbe da vedere quelli di picco nei giochi, questi quì sotto sono quelli massimi solo nel gaming ma possono andare oltre.
https://tpucdn.com/reviews/MSI/R9_280X_Gaming_6_GB/images/power_peak.gif
TDP è la specifica in termini di dissipazione ma di certo non è riferita a valori di media, ma a quelli in pieno carico.
tuttodigitale
01-06-2016, 12:28
Delusione pazzesca, Amd ormai è proprio finita,dimezzi i nanometri e fai una gpu che va come quella vecchia,consuma poco e chi se ne frega.
ma il prezzo non conta proprio niente?
Goofy Goober
01-06-2016, 12:30
ma il prezzo non conta proprio niente?
conta conta.
conterebbe di più che facessero una gpu che, da sola, va uguale identica alla 1080gtx costando 499$
per esempio eh.
tuttodigitale
01-06-2016, 12:31
CONSUMO AVERANGE VUOL DIRE CONSUMO IN MEDIA !
DEVI VEDERE IL LOAD ( in primis ) E IL PEAK !
TDP è la specifica in termini di dissipazione ma di certo non è riferita a valori di media, ma a quelli in pieno carico.
Average: Crysis 2 at 1920x1200, Extreme profile, representing a typical gaming power draw. Average of all readings (12 per second) while the benchmark was rendering (no title/loading screen).
ovvero dei consumi di gioco...che poi era di quello che stavamo discutendo. Anche perchè il consumo con il £dmark ci interessa poco, così come il picco.
PS nel maximum, la gtx 680 sfora il tdp di 33W..........mentre la hd7950 179W (contro i 190 dichiarati), 56W in più nonostante il tdp di 5 W inferiori..
https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_680/images/power_peak.gif
PPS ti ho detto che AMD post-hawaii, ha cambiato il riferimento del TDP...da Tahiti a Tonga si è passati da 250 a 180W, senza un reale abbattimento dei consumi.
PaulGuru
01-06-2016, 12:34
Average: Crysis 2 at 1920x1200, Extreme profile, representing a typical gaming power draw. Average of all readings (12 per second) while the benchmark was rendering (no title/loading screen).
ovvero dei consumi di gioco...che poi era di quello che stavamo discutendo.
No i consumi di picco in gaming, l'averenge misura anche le scene di poco carico, che rovinano la media.
ma il prezzo non conta proprio niente?
Quale prezzo ? Ancora Vega non si vede.
PaulGuru
01-06-2016, 12:35
... cut ...
Dragon2002
01-06-2016, 12:38
ma il prezzo non conta proprio niente?
Il prezzo è relativo,la gtx 970 la venderanno usata a 200 euro,fine della storia del prezzo,come faro io tra l'altro.
Schede video che vanno uguale alla generazione vecchia di amd,ma consumano meno non se le fila nessuno,hanno già provato con i processori a puntare sul prezzo,non li ha presi nessuno.
Un floppone pazzesco sta scheda video,nessuno abbandona Nvidia per Amd con tutti i casini di driver e cattiva ottimizzazione dei giochi per avere meno consumi. Dovevano puntare alla gtx 1070 con una scheda video sui 300 euro,ma ormai Amd è comandata da paperino e i suoi tre nipotini.
tuttodigitale
01-06-2016, 12:42
No i consumi di picco in gaming, l'averenge misura anche le scene di poco carico.
ti ho postato anche i picchi.
tuttodigitale
01-06-2016, 12:53
TDP è la specifica in termini di dissipazione ma di certo non è riferita a valori di media, ma a quelli in pieno carico.
in realtà il tDP è il consumo medio a pieno carico. I picchi non determinano il TDP. E comunque per catturare i picchi è necessaria una certa risoluzione degli strumenti usati per l'analisi....l'architettura maxwell ha picchi enormi...la gtx 980 liscia, all'analisi all'oscilloscopio fa segnare picchi in game di 340W...ma non per questo ha 340W di tdp
http://www.tomshw.it/gallerie/nvidia-geforce-gtx-980-reference-consumi-gaming-in-dettaglio-61047?gallery=61047&image=1
DakmorNoland
01-06-2016, 12:56
non so te, ma io con la mia 970 sono ai driver di Gennaio (e per ora non li aggiorno), visto che a Marzo i driver mandavano il computer in crash col doppio monitor. A livello di driver ognuno ha le proprie magagne
Appunto ma sta gente dove vive??? :eek:
Mai e dico mai avuto problemi driver con le AMD, prendo la 970 e mi dico "Wow è Nvidia, i driver sono perfetti!"
Poi come dici te scopro che è tipo un campo minato! :muro: A ogni release nei thread dei giochi c'è il panico! Quello non va, quello meglio di no, tieni quell'altro e così via. :asd:
Goofy Goober
01-06-2016, 12:56
non so te, ma io con la mia 970 sono ai driver di Gennaio (e per ora non li aggiorno), visto che a Marzo i driver mandavano il computer in crash col doppio monitor. A livello di driver ognuno ha le proprie magagne
quoto...
con Nvidia è da mesi che ho problemi sporadici con le nuove release...
l'ultima in tempi recenti i driver game ready per Forza Apex mandavano in crash Need for Speed...
in pratica ho dovuto cambiare 3 volte i driver per giocare a 2 giochi, di cui uno sul mercato da mesi :stordita:
a confronto AMD è diventata il top dei driver (non ho un crash sull'htpc con la R9 380 da mesi e mesi) :asd:
DakmorNoland
01-06-2016, 13:00
quoto...
con Nvidia è da mesi che ho problemi sporadici con le nuove release...
l'ultima in tempi recenti i driver game ready per Forza Apex mandavano in crash Need for Speed...
in pratica ho dovuto cambiare 3 volte i driver per giocare a 2 giochi, di cui uno sul mercato da mesi :stordita:
a confronto AMD è diventata il top dei driver (non ho un crash sull'htpc con la R9 380 da mesi e mesi) :asd:
Appunto! Poi se volete io ve lo certifico anche a livello tecnico, visto che è il mio lavoro... Non assemblo PC gamers solitamente, però faccio assistenza tutti i giorni e spiace dirlo, ma AMD ha driver decisamente più stabili.
Poi Nvidia avrà driver con maggiori performance nell'immediato forse? Ma non mi sembra che AMD fosse messa male neanche da quel lato. Ho avuto una 5850 per 4 anni ed è sempre andata benissimo. ;)
Scusatemi, pure io seri dubbi su quello screen.
Nel mondo delle fiabe, quello screen vuol dire che una singola RX 480, al 100% ha prestazioni paragonabili alla 1080. E allora mi chiedo: perché non mostrare questo? Sarebbe roba da far cadere la mascella, soprattutto considerando l'enorme differenza di prezzo. Sei scemo a mostrare quella slide, a 'sto punto.
Nel mondo reale, significa che la situazione non è tanto rosea, e allora il senso di mostrare certi dati qual è? Perché tirare in mezzo una GPU che non è nemmeno avvicinabile? Dai, il CF è poco più di una presa per il c*lo.
Goofy Goober
01-06-2016, 13:05
Scusatemi, pure io seri dubbi su quello screen.
Nel mondo delle fiabe, quello screen vuol dire che una singola RX 480, al 100% ha prestazioni paragonabili alla 1080. E allora mi chiedo: perché non mostrare questo? Sarebbe roba da far cadere la mascella, soprattutto considerando l'enorme differenza di prezzo. Sei scemo a mostrare quella slide, a 'sto punto.
Nel mondo reale, significa che la situazione non è tanto rosea, e allora il senso di mostrare certi dati qual è? Perché tirare in mezzo una GPU che non è nemmeno avvicinabile? Dai, il CF è poco più di una presa per il c*lo.
Quoto tutto.
Anche se si parla di AoS DX12, se ci fosse stata una slide dove la RX 480 andava anche solo 2-3fps in più, o meno, o anche uguale rispetto la 1080, allora sarebbe stata roba da standing ovation, dato che parliamo di una gpu da 199$ vs una da 599$ minimi.
Non c'è altro da dire.
tuttodigitale
01-06-2016, 13:05
Il prezzo è relativo,la gtx 970 la venderanno usata a 200 euro,fine della storia del prezzo,come faro io tra l'altro.
farlo presto......con Polaris a <250 euro, è da sciocchi comprare la gt970 usata a 200 euro. Anzi probabilmente non sarà conveniente neppure comprarla nuova. Rimane pur sempre una gpu basata su un architettura con un supporto avviato sul viale del tramonto
DakmorNoland
01-06-2016, 13:07
Scusatemi, pure io seri dubbi su quello screen.
Nel mondo delle fiabe, quello screen vuol dire che una singola RX 480, al 100% ha prestazioni paragonabili alla 1080. E allora mi chiedo: perché non mostrare questo? Sarebbe roba da far cadere la mascella, soprattutto considerando l'enorme differenza di prezzo. Sei scemo a mostrare quella slide, a 'sto punto.
Nel mondo reale, significa che la situazione non è tanto rosea, e allora il senso di mostrare certi dati qual è? Perché tirare in mezzo una GPU che non è nemmeno avvicinabile? Dai, il CF è poco più di una presa per il c*lo.
Ehm perchè lo SLI invece va alla grande vero?
Diciamo che il CF e lo SLI vanno a seconda dei giochi, comunque ormai funzionano senza grossi problemi.
Basta che vai nei thread Nvidia, c'è già gente con lo SLI di 1080 di la. :asd:
Ah però se è AMD non va bene vero?
Poi scusa se va come una 1080 costando 200 euro meno, che ti frega se è singola o doppia? Male che vada hai speso 200 euro meno.
Poi i consumi sono bassi quindi non è che spenderesti chissà cosa di bolletta. E in ogni caso risparmieresti altri 200 euro per un monitor Free Sync, piuttosto che con quella ladrata del Gsync.
farlo presto......con Polaris a <250 euro, è da sciocchi comprare la gt970 usata a 200 euro. Anzi probabilmente non sarà conveniente neppure comprarla nuova. Rimane pur sempre una gpu basata su un architettura con un supporto avviato sul viale del tramonto
Non è da sciocchi! Perchè Nvidia è Nvidia. Va meglio come driver e invece le 480 sono solo slide, poi i driver ti crashano il pc e ti distruggono la casa. Quindi porta male. :O
Ehm perchè lo SLI invece va alla grande vero?
Diciamo che il CF e lo SLI vanno a seconda dei giochi, comunque ormai funzionano senza grossi problemi.
Basta che vai nei thread Nvidia, c'è già gente con lo SLI di 1080 di la. :asd:
Ah però se è AMD non va bene vero?
Poi scusa se va come una 1080 costando 200 euro meno, che ti frega se è singola o doppia? Male che vada hai speso 200 euro meno.
Non ho detto che lo SLI vada meglio, poi figurati, io ho un portatile e non gioco, che mi frega di entrambe? Stavo solo esprimendo una mia opinione sul merito di QUESTA presentazione.
Di AMD vs Intel vs nVidia vs Beppe Roccapinnuzza non mi interessa minimamente. Il punto è che quella slide, per quanto mi riguarda, è una minchiata anche dal punto di vista del marketing.
Scusa eh, avrebbe fatto più effetto mostrare la stanghetta MOLTO più lunga sfruttando le GPU al 100%. Cioè, a quel punto annienti sul nascere nVidia, soprattutto data la differenza di prezzo. Invece cosa mi dimostrano? Che devo va tutto bene solo su AoS, e usando le schede al 50%? Meh.
E in ogni caso risparmieresti altri 200 euro per un monitor Free Sync, piuttosto che con quella ladrata del Gsync.
Non mi sono mai interessato a questa cosa, ma da qualche parte (ora davvero non ricordo dove) ho letto che Gsync tanto ladrata non è. Poi non so sinceramente, e manco me ne frega.
L1ttlesn1tch
01-06-2016, 13:39
GTX 980 = 540$ => 520-530€
GTX 970 = 329$ => 330-340€
GTX 1080 non FE = 599$
GTX 1070 non FE = 379$
La calcolatrice dovrebbe usarla qualcun'altro, le fasce di prezzo sono poco più alte di 980 e 970, ma sono le stesse, se adesso c'è un sovrapprezzo è dato dal fatto che son appena uscite e non c'è concorrenza !
E per giunta il cambio non è più così favorevole
Dollaro Euro = 0,898759263 Euro
Aggiungici l'IVA e arriviamo a 400 e 650.
Ma ci sei o ci fai?
Comunque ha poco senso continuare a discutere con te che fai parte del nutrito gruppo di funboy, neanche fanboy perché le spari troppo grosse.
http://i64.tinypic.com/k221e8.jpg
In pratica due RX480 van poco più di una 1080 su un titolo dove AMD generalmente va meglio.
Pessima notizia
Il tuo discorso fa acqua da tutte le parti, un paio di RX480 da 200$ (quindi 400$) viaggiano più di una GTX 1080 da 599$ ed è male?
Sono 200$ di differenza, mica spiccioli :rolleyes:
Sui consumi pare siano lì, ma aspettiamo i benchmark.
State esagerando con questi fanatismi.
P.S. Quell'uso esagerato del caps è veramente da evitare qui in forum.
DakmorNoland
01-06-2016, 13:53
Il tuo discorso fa acqua da tutte le parti, un paio di RX480 da 200$ (quindi 400$) viaggiano più di una GTX 1080 da 599$ ed è male?
Sono 200$ di differenza, mica spiccioli :rolleyes:
Sui consumi pare siano lì, ma aspettiamo i benchmark.
State esagerando con questi fanatismi.
P.S. Quell'uso esagerato del caps è veramente da evitare qui in forum.
Eh ma li c'è scritto 51%, quindi il Crossfire è brutto, mal ottimizzato e se lo fai ti implode il PC. :O
CrapaDiLegno
01-06-2016, 13:56
Il tuo discorso fa acqua da tutte le parti, un paio di RX480 da 200$ (quindi 400$) viaggiano più di una GTX 1080 da 599$ ed è male?
Sono 200$ di differenza, mica spiccioli :rolleyes:
Sui consumi pare siano lì, ma aspettiamo i benchmark.
State esagerando con questi fanatismi.
P.S. Quell'uso esagerato del caps è veramente da evitare qui in forum.
VA uguale in un solo test preso ad hoc di un gioco che è sviluppato appositamente x sfruttare a fondo l'architettura AMD.
Sono 200 euro risparmiate in quel singolo gioco. Quindi va bene, anzi benissimo, se prevedi di giocare solo ed esclusivamente a quel giochino. Il resto dei numeri però suggerisce che in tutti gli altri casi i 200 euro risparmiati non saranno tanto convenienti.
Hai verificato negli ultimi test di Pascal (quindi eseguiti con gli ultimi driver di entrambe le case) quanti giochi scalano in SLI/CF? Io ho notato che sono pochi. Almeno nei giochi usati come bench.
DakmorNoland
01-06-2016, 14:07
VA uguale in un solo test preso ad hoc di un gioco che è sviluppato appositamente x sfruttare a fondo l'architettura AMD.
Sono 200 euro risparmiate in quel singolo gioco. Quindi va bene, anzi benissimo, se prevedi di giocare solo ed esclusivamente a quel giochino. Il resto dei numeri però suggerisce che in tutti gli altri casi i 200 euro risparmiati non saranno tanto convenienti.
Hai verificato negli ultimi test di Pascal (quindi eseguiti con gli ultimi driver di entrambe le case) quanti giochi scalano in SLI/CF? Io ho notato che sono pochi. Almeno nei giochi usati come bench.
Se è per questo la maggior parte dei giochi sono ottimizzati Nvidia, specie nelle recensioni. Quindi se togliamo quei giochi e prendiamo quelli ottimizzati per AMD o neutri, la 1080 si ridimensiona di brutto...
Sei sicuro di voler fare questo genere di discorso? Poi le AMD in DX12 vanno meglio! Fine della storia. ;)
CrapaDiLegno
01-06-2016, 14:12
Ma ci sei o ci fai?
Comunque ha poco senso continuare a discutere con te che fai parte del nutrito gruppo di funboy, neanche fanboy perché le spari troppo grosse.
Non so se ci fa o ci è, ma i numeri sono quelli, mi spiace ti scombussoli le idee.
I prezzi sono aumentati di 50 dollari alla fonte che tra Iva e cambio significa 70-80 euro in più sugli scaffali. E come detto sono prezzi premium dato che la concorrenza non c'è. Se la 480X a 300$ avrà le prestazioni della 1070, vedrai che il prezzo di questa scenderà ai livelli della 970. Finché non uscirà e Nvidia venderà (non è detto che ripeta il boom della 970) i prezzi rimarranno quelli come successo con la generazione precedente.
CrapaDiLegno
01-06-2016, 14:39
Se è per questo la maggior parte dei giochi sono ottimizzati Nvidia, specie nelle recensioni. Quindi se togliamo quei giochi e prendiamo quelli ottimizzati per AMD o neutri, la 1080 si ridimensiona di brutto...
Sei sicuro di voler fare questo genere di discorso? Poi le AMD in DX12 vanno meglio! Fine della storia. ;)
Ma quale discorso? Ora come ora la maggior parte dei giochi è neutra, con uno sparuto numero di giochi che favorisce NVIDIA (tipo project cars) e un altro che favorisce AMD (hitman). Tutte le menate che fate sul fatto che AMD vada meglio in DX12 viene sempre dai test degli unici 2 giochi che fanno parte del programma AMD games evolved che mostrano in realtà è poco. Il hitman dove già in dx11 le schede AMD sono parecchio davanti a quelle NVIDIA, in DX12 non ci sono variazioni di sorta: 1 o 2 frames.
Visto che sembri tanto convinto di queste DX12, spiegami questo: http://www.guru3d.com/articles_pages/nvidia_geforce_gtx_1070_review,13.html
Lo vedi meglio qui: http://www.hwupgrade.it/articoli/skvideo/4655/nvidia-geforce-gtx-1070-founders-edition-la-seconda-scheda-pascal_9.html
in 2k e DX11 fury x davanti a gtx980 in DX12 fury x dietro.
Quindi "fine della storia" solo nella tua testa che sta escludendo tutta una serie di dati per comodità e speranza. Possibile, non dico certo sicuro, che potresti rimanere deluso nei mesi a venire. Ad oggi non c'è dato che corrobori la tua affermazione. È solo congettura mista a molta speranza di rivalsa. Spiacente.
È comunque hai girato il discorso. Qui si parla di CF/SLI. Dove i vantaggi non sono certi e vengono sempre meno supportati. Dimenticate che in DX12 il supporto a più schede è a carico del programmatore, non dei driver.
AceGranger
01-06-2016, 14:58
Il tuo discorso fa acqua da tutte le parti, un paio di RX480 da 200$ (quindi 400$) viaggiano più di una GTX 1080 da 599$ ed è male?
Sono 200$ di differenza, mica spiccioli :rolleyes:
Sui consumi pare siano lì, ma aspettiamo i benchmark.
da che mondo e mondo lo SLI/CF di GPU inferiori è sempre andato di piu/uguale ed è sempre stato piu economico della singola GPU di "pari prestazioni", ma hai sempre 2 GPU con tutti i problemi che ne conseguono.
anche quando usciranno le 1060, costeranno meno e andranno di piu in SLI... ma saran sempre 2 GPU.
Dimenticate sempre che il prezzo di lancio è senza iva e senza customizzazione.
Parliamo di 600€ per il SLI di 480:D e 800€ per la 1080.
Il delta è sempre quello, ma i prezzi sono un tantino diversi.
blackshard
01-06-2016, 15:05
Il prezzo è relativo,la gtx 970 la venderanno usata a 200 euro,fine della storia del prezzo,come faro io tra l'altro.
Schede video che vanno uguale alla generazione vecchia di amd,ma consumano meno non se le fila nessuno,hanno già provato con i processori a puntare sul prezzo,non li ha presi nessuno.
Un floppone pazzesco sta scheda video,nessuno abbandona Nvidia per Amd con tutti i casini di driver e cattiva ottimizzazione dei giochi per avere meno consumi. Dovevano puntare alla gtx 1070 con una scheda video sui 300 euro,ma ormai Amd è comandata da paperino e i suoi tre nipotini.
Guarda che il salto tecnologico non è nient'altro che fare le stesse cose con consumi minori. Non è una caso che la gtx1080 sia pompata (vedi dimensione del chip e consumi), e la rx480 sia equilibrata: sono due strategie di mercato differenti.
Secondo te tu potrai vendere una gtx970 usata a 200 euro quando una rx480 nuova probabilmente costerà 220 euro?
La rx480, sulla base di questi leak, ridefinisce le fasce prezzo/prestazioni e taglia pure i consumi.
edit: secondo il tuo ragionamento anche la gtx1070 è un flop, perché ha prestazioni simili alla 980ti...
Scusatemi, pure io seri dubbi su quello screen.
Nel mondo delle fiabe, quello screen vuol dire che una singola RX 480, al 100% ha prestazioni paragonabili alla 1080. E allora mi chiedo: perché non mostrare questo? Sarebbe roba da far cadere la mascella, soprattutto considerando l'enorme differenza di prezzo. Sei scemo a mostrare quella slide, a 'sto punto.
Nel mondo reale, significa che la situazione non è tanto rosea, e allora il senso di mostrare certi dati qual è? Perché tirare in mezzo una GPU che non è nemmeno avvicinabile? Dai, il CF è poco più di una presa per il c*lo.
Cosa dovrebbero mostrare, un benchmark che non esiste e che non si può replicare?
Ci sono 1000 motivi per cui un sistema non viene sfruttato al 100%: il carico è sbilanciato, il software è scritto in un certo modo, l'hardware è fatto in un altro modo...
Il punto che ti vogliono mostrare è questo: se due rx480 in CF vanno più di una gtx1080 e consumano meno, quale è la tecnologia migliore?
PaulGuru
01-06-2016, 15:06
Se è per questo la maggior parte dei giochi sono ottimizzati Nvidia
ecco quindi bisogna vedere i test con quei giochi lì.
Il punto che ti vogliono mostrare è questo: se due rx480 in CF vanno più di una gtx1080 e consumano meno, quale è la tecnologia migliore?
Perché lo sli di 460 non superava la 5870? Dove dobbiamo andare a parare?
Aspettiamo sti benedetti bench e basta, quando escono?
tuttodigitale
01-06-2016, 15:14
credo che nessuno ha visto il filmato (dura solo 10 minuti nella parte relativa a Polaris)
non avete colto il succo...con il crossfire il gioco gira fluido con la 1080 no. Però si può sempre accontentare delle impostazioni non ammazza fps...Ma questa è la parte della realtà evidenziata da AMD...: se vuoi essere un vero utente enthusiast devi comprare uno sli di gtx1080, se non vuoi correre il rischio che chi ha speso 250-300 euro meno giochi meglio. AMD ha fatto un piacere a nvidia :D
che poi magari l'unico altro gioco dove una soluzione del genere va meglio potrebbe essere Hitman. Ma tant'è...il rischio c'è.
tuttodigitale
01-06-2016, 15:17
Perché lo sli di 460 non superava la 5870? Dove dobbiamo andare a parare?
Aspettiamo sti benedetti bench e basta, quando escono?
allo scadere del NDA...a fine mese.
ps la gtx460 consumava di più e andava meno della HD5850 (era l'era delle efficienti soluzioni vliw). Esempio sbagliato. Comunque si parla del fatto che si gioca meglio con il crossfire (purtroppo solo con determinati titoli)
blackshard
01-06-2016, 15:24
Perché lo sli di 460 non superava la 5870? Dove dobbiamo andare a parare?
Aspettiamo sti benedetti bench e basta, quando escono?
Si ma uno sli di 460 ha consumi spropositatamente più alti di una 5870. Nel caso attuale invece *si presume* che i consumi di un CF siano inferiori, che è anomalo rispetto a quanto abbiamo visto finora. Se cambia l'asticella dell'efficienza e si riequilibra, o addirittura vira a favore di AMD, possono cambiare molte cose.
CrapaDiLegno
01-06-2016, 15:41
Il punto che ti vogliono mostrare è questo: se due rx480 in CF vanno più di una gtx1080 e consumano meno, quale è la tecnologia migliore?
Quella che procura meno problemi e dà più garanzie di prestazioni superiori sempre e comunque : ergo la scheda singola. Ergo perché nel mondo solo n percentuale risibile usa configurazioni multi GPU. Ergo perché anche prima 2x390 o 2x970 non erano meglio della Fury X o della 980Ti.
La strategia "piccolo è bello" è già stata applicata tempo fa quando AMD aveva una architettura più efficiente in termini di consumo e dimensioni, ed è fallita. Dubito possa convincere oggi con una architettura che non ha questo vantaggio. La slide serve solo a tamponare con un bench che mostra in qualche modo un numero più alto della scheda più veloce sul mercato. Avesse avuto Vega pronto non avrebbe certamente fatto un confronto del genere, come non ha fatto dalla serie 5xxx in poi. La difficoltà di mostrare un numero più alto della concorrenza è palese e arrivando un mese dopo si è giocata il mercato (che NVIDIA sta spolpando con queste versione FE) e che invece 4 anni fa aveva conquistato con la 7970 a prezzi mica tanto economici.
Dragon2002
01-06-2016, 15:45
Quella che procura meno problemi e dà più garanzie di prestazioni superiori sempre e comunque : ergo la scheda singola. Ergo perché nel mondo solo n percentuale risibile usa configurazioni multi GPU. Ergo perché anche prima 2x390 o 2x970 non erano meglio della Fury X o della 980Ti.
La strategia "piccolo è bello" è già stata applicata tempo fa quando AMD aveva una architettura più efficiente in termini di consumo e dimensioni, ed è fallita. Dubito possa convincere oggi con una architettura che non ha questo vantaggio. La slide serve solo a tamponare con un bench che mostra in qualche modo un numero più alto della scheda più veloce sul mercato. Avesse avuto Vega pronto non avrebbe certamente fatto un confronto del genere, come non ha fatto dalla serie 5xxx in poi. La difficoltà di mostrare un numero più alto della concorrenza è palese e arrivando un mese dopo si è giocata il mercato (che NVIDIA sta spolpando con queste versione FE) e che invece 4 anni fa aveva conquistato con la 7970 a prezzi mica tanto economici.
Non c'era bisogna di vega,hanno il processo produttivo per spingere la vecchia architettura con frequenze più elevate e molti più shader nella gpu,che fanno escono con una scheda che consuma poco,con un solo connettore di alimentazione,ma sai che me ne frega a me che consuma 150 watt invece di 300,parliamo di 2 lampadine in più. Una beata mazza e non fregherà nulla nemmeno agli altri,ma come ragionano,penso abbiano preso da Nokia sono stato anni a dire che le piastrelle l'avrebbero fatta fallire quando tutti mi dicevano il contrario,risultato sono falliti.
http://www.guru3d.com/articles_pages/nvidia_geforce_gtx_1070_review,13.html
Lo vedi meglio qui: http://www.hwupgrade.it/articoli/skvideo/4655/nvidia-geforce-gtx-1070-founders-edition-la-seconda-scheda-pascal_9.html
in 2k e DX11 fury x davanti a gtx980 in DX12 fury x dietro.
scusa se intervengo su ROTR, a questo ci sarebbe una spiegazione:
http://www.overclock-and-game.com/news/pc-gaming/46-gtx-1080-what-s-not-being-discussed
Rise of the Tomb Raider - DirectX 12 Broken Garbage
For some reason several sites or nearly all of them are using the Rise of the Tomb Raider DX12 benchmarks in their reviews. The issue with this is that everyone knows that RotTR DX12 benchmark is horrendously broken. It has tons of issues that I have discussed here:
http://www.overclock-and-game.com/news/pc-gaming/43-rise-of-the-tomb-raider-fury-x-benchmarks?showall=&start=4
Apparently the developers have admitted that the DX12 benchmark is screwed up and they haven’t made any attempts to fix it. However, several sites are still using the results in their overall performance percentage for the GTX 1080.
trovo assurdo che non sia ancora uscito un 3dmark full dx12
Jones D. Daemon
01-06-2016, 15:50
credo che nessuno ha visto il filmato (dura solo 10 minuti nella parte relativa a Polaris)
non avete colto il succo...con il crossfire il gioco gira fluido con la 1080 no. Però si può sempre accontentare delle impostazioni non ammazza fps...Ma questa è la parte della realtà evidenziata da AMD...: se vuoi essere un vero utente enthusiast devi comprare uno sli di gtx1080, se non vuoi correre il rischio che chi ha speso 250-300 euro meno giochi meglio. AMD ha fatto un piacere a nvidia :D
che poi magari l'unico altro gioco dove una soluzione del genere va meglio potrebbe essere Hitman. Ma tant'è...il rischio c'è.
Scusa ma io faccio i conti della serva:
Xfire di 2 480 utilizzate al 50% (arrotondo il 51%) vanno più di una 1080. Dato ceh da che mondo è mondo, sia con SLI che con Xfire all'aumento del numero delle GPU non hai mai uno scaling delle prestazioni lineare, ne consegue che una 480 che lavora al 100% DEVE avere le prestazioni di due 480 che lavorano al 50%. Cosa che metterebbe la 480 al di sopra della 1080, cosa ovviamente non vera. Possiamo stare fino a domani sera a parlare della fluidità, eccetera eccetera, ma semplicemente con quel grafico presentato da AMD i conti non tornano. Oltretutto io una slide del genere, senza evidenziare la risoluzione, senza evidenziare i settaggi utilizzati, senza NULLA di NULLA non la prendo nemmeno in considerazione. Per come la vedo io, ad oggi AMD ha fatto un paper launch della 480, il 29 potremo dare sentenze. Ma ripeto: se questa è l'incarnazione massima di Polaris 10, le conseguenze sono 2, dato che Polaris 11 è più piccolo e che VEga è lontano:
1) AMD non ha nulla ora come ora per dare addosso alle 1080 e 1070, o quantomeno lo spero, perché se si tengono da parte una variante di Polaris 10 in grado di andare come una 1070 e non l'hanno tirata fuori sono da manicomio.
2) Vega dovrà vedersela con le prima citate 1080 e 1070, ma Nvidia ancora non ha fatto uscire il chippone che, posizionato sopra le 1080, allora sarà lui a non avere rivali
Da eoni si dice in ogni dove, per qualsiasi casa produttrice di GPU, di evitare come la peste configurazioni multi-gpu e passare ad un singolo ma potente chip, per evitare problemi con i giochi che non hanno i profili / scalano male...e questi se ne escono con un bench Xfire contro VGA singola??? :muro:
DakmorNoland
01-06-2016, 15:52
trovo assurdo che non sia ancora uscito un 3dmark full dx12
Tranquillo che appena Nvidia andrà bene sulle DX12 uscirà. I 3D mark hanno sempre favorito una certa parte. Vedi anche l'indecente FX 5800. ;)
Comunque sì chi mi cita ancora Tomb Raider come DX12, non gli rispondo nemmeno. Parli con gente che non ha un minimo di conoscenza e spara cose a caso.
E' chiaro che l'ultimo Tomb Raider sia DX11 con qualche feature se va bene in DX12 o comunque spacciate per DX12. ;)
Dragon2002
01-06-2016, 15:53
Scusa ma io faccio i conti della serva:
Xfire di 2 480 utilizzate al 50% (arrotondo il 51%) vanno più di una 1080. Dato ceh da che mondo è mondo, sia con SLI che con Xfire all'aumento del numero delle GPU non hai mai uno scaling delle prestazioni lineare, ne consegue che una 480 che lavora al 100% DEVE avere le prestazioni di due 480 che lavorano al 50%. Cosa che metterebbe la 480 al di sopra della 1080, cosa ovviamente non vera. Possiamo stare fino a domani sera a parlare della fluidità, eccetera eccetera, ma semplicemente con quel grafico presentato da AMD i conti non tornano. Oltretutto io una slide del genere, senza evidenziare la risoluzione, senza evidenziare i settaggi utilizzati, senza NULLA di NULLA non la prendo nemmeno in considerazione. Per come la vedo io, ad oggi AMD ha fatto un paper launch della 480, il 29 potremo dare sentenze. Ma ripeto: se questa è l'incarnazione massima di Polaris 10, le conseguenze sono 2, dato che Polaris 11 è più piccolo e che VEga è lontano:
1) AMD non ha nulla ora come ora per dare addosso alle 1080 e 1070, o quantomeno lo spero, perché se si tengono da parte una variante di Polaris 10 in grado di andare come una 1070 e non l'hanno tirata fuori sono da manicomio.
2) Vega dovrà vedersela con le prima citate 1080 e 1070, ma Nvidia ancora non ha fatto uscire il chippone che, posizionato sopra le 1080, allora sarà lui a non avere rivali
Da eoni si dice in ogni dove, per qualsiasi casa produttrice di GPU, di evitare come la peste configurazioni multi-gpu e passare ad un singolo ma potente chip, per evitare problemi con i giochi che non hanno i profili / scalano male...e questi se ne escono con un bench Xfire contro VGA singola??? :muro:
Invece Polaris può essere spinta molto oltre è chiaro visto che sono usciti con sta roba con un solo connettore di alimentazione. Questi non stanno bene per niente,hanno scelto strategicamente di puntare solo sul prezzo e i consumi,chissà perché non è venuta la stessa idea ad Nvidia con il nuovo processo produttivo.
CrapaDiLegno
01-06-2016, 15:57
scusa se intervengo su ROTR, a questo ci sarebbe una spiegazione:
http://www.overclock-and-game.com/news/pc-gaming/46-gtx-1080-what-s-not-being-discussed
trovo assurdo che non sia ancora uscito un 3dmark full dx12
Lo stesso x Hitman tanto che alcuni siti non hanno fatto il test in DX12.
Questo conferma il fatto che nessun test in DX12 per ora mostra alcunché di utile e tantomeno definitivo. Le speranze riposte in questa API potrebbero essere deluse.
Per intanto le OpenGL di Doom funzionano molto bene con l'HW NVIDIA. Nell'attesa di vedere all'opera le Vulkan. Che potrebbero magari soppiantare le DX12 a beneficio di chi non ha o vuole Win10.
Jones D. Daemon
01-06-2016, 16:02
Invece Polaris può essere spinta molto oltre è chiaro visto che sono usciti con sta roba con un solo connettore di alimentazione. Questi non stanno bene per niente,hanno scelto strategicamente di puntare solo sul prezzo e le prestazioni,chissà perché non è venuta la stessa idea ad Nvidia con il nuovo processo produttivo.
Allora sono stupidi, se avevano la possibilità di attaccare la 1070 e non lo hanno fatto sono da manicomio.
CrapaDiLegno
01-06-2016, 16:06
Comunque sì chi mi cita ancora Tomb Raider come DX12, non gli rispondo nemmeno. Parli con gente che non ha un minimo di conoscenza e spara cose a caso
Certo! Invece tu hai il bench definitivo che prova che le DX12 funzionano meglio su HW AMD... Aspetta aspetta... Su chiama Hitman... Quello che in dx11 già dà un enorme vantaggio a AMD, che in DX12 è equivalente a tutti gli altri giochi DX12 finora rilasciati, cioè motore dx11 con patch, che non mostra alcun vantaggio prestazionale sulla stessa versione dx11 e non porta alcun miglioramento visivo.
Quello è il bench che dimostra le tue affermazioni! Tu sì che meriti considerazione :D
CrapaDiLegno
01-06-2016, 16:09
Allora sono stupidi, se avevano la possibilità di attaccare la 1070 e non lo hanno fatto sono da manicomio.
Oppure visti i test della 1070 stanno tarando il BIOS delle 480X in modo che abbia le prestazioni della concorrenza con consumi accettabili.
Jones D. Daemon
01-06-2016, 16:11
Oppure visti i test della 1070 stanno tarando il BIOS delle 480X in modo che abbia le prestazioni della concorrenza con consumi accettabili.
Può essere, ma allora perché non presentarla?
EDIT:
http://wccftech.com/fable-legends-dx12-benchmark-results/
Piccolo appunto sulle DX12: Fable Legends, che a quanto pare è un RPG basato su UE4 DX12 only.
Vorrei chiedere una cosa giusto per essere sicuro.
Questa scheda (almeno la reference) non equipaggia un'uscita DVI-D, ma ha HDMI 2.0a, che in teoria e' sufficiente per 1080p a 144hz.
In questo caso servirebbe solo un adattatore passivo HDMI into DVI-D, corretto?
Grazie :)
Dragon2002
01-06-2016, 16:20
Oppure visti i test della 1070 stanno tarando il BIOS delle 480X in modo che abbia le prestazioni della concorrenza con consumi accettabili.
Con un solo connettore di alimentazione come la spingi a frequenze molto superiori,allora potevano presentare almeno una versione limited edition o qualcosa di simile. Non so che limitazioni ci saranno per le versioni custom,ma se gli permettono di aumentare il carico di corrente qui rischiamo aumenti di prestazioni come non se ne sono mai visti,se è vera la frequenza base di 1260 mhz per la versione reference,le custom potrebbero schizzare a quasi 2000mhz, praticamente ti compri un'altra scheda video.
tuttodigitale
01-06-2016, 16:24
2) Vega dovrà vedersela con le prima citate 1080 e 1070, ma Nvidia ancora non ha fatto uscire il chippone che, posizionato sopra le 1080, allora sarà lui a non avere rivali
i chip Vega, secondo rumors sono 2, entrambi utilizzano memorie HBM2 (dovrebbe cambiare il numero degli stack)
una è una soluzione da 4096sp, ed è il chip piccolo, l'altra è una gpu da 6144 sp.
I pezzi da novanta devono ancora arrivare.
il chippone, pardon le Tesla, nvidia non lo vende neppure agli OEM, le consegne mi pare che siano previste per il q1 2017...e a quanto nvidia deve ripiegare, causa fornitura privilegiata delle HBM2 ad AMD, sulle gddr5x (no che la cosa abbia importanza), e quindi su un chip diverso espressamente progettato per il gioco
Jones D. Daemon
01-06-2016, 16:27
i chip Vega, secondo rumors sono 2, entrambi utilizzano memorie HBM2 (dovrebbe cambiare il numero degli stack)
una è una soluzione da 4096sp, ed è il chip piccolo, l'altra è una gpu da 6144 sp.
I pezzi da novanta devono ancora arrivare.
Cosi come il GP100, ovvero 1080Ti e Titan. Rinnovo la domanda: per scontrarsi con 1080 e 1070 cosa hanno?
blackshard
01-06-2016, 16:30
Quella che procura meno problemi e dà più garanzie di prestazioni superiori sempre e comunque : ergo la scheda singola. Ergo perché nel mondo solo n percentuale risibile usa configurazioni multi GPU. Ergo perché anche prima 2x390 o 2x970 non erano meglio della Fury X o della 980Ti.
Che vuol dire tutto e niente.
Se il discorso consumi e performance è vero, quanto costa ad AMD ingegnerizzare un chip uguale a Polaris con 3000SP invece degli attuali 2300 e un bus di memoria un minimo più ampio per pareggiare le performance e i consumi di Pascal? Poco e niente. La slide in questione vuole dire che potrebbero farlo perché hanno la tecnologia. Non lo fanno perché quella non è la loro strategia attuale.
La strategia "piccolo è bello" è già stata applicata tempo fa quando AMD aveva una architettura più efficiente in termini di consumo e dimensioni, ed è fallita. Dubito possa convincere oggi con una architettura che non ha questo vantaggio.
Io invece vedo un ripetersi del ciclo avvenuto con la strategia "piccolo è bello".
All'epoca le hd4xxx pareggiavano le performance con le 9800GT/X, costavano un botto di meno e avevano consumi similari (forse qualcosa in meno le hd4xxx).
Le 9800GT/X erano in giro già da parecchio, eppure le hd4xxx hanno spaccato anche se non avevano la corona del top delle performance.
Oggi abbiamo Polaris, die relativamente piccolo ed efficiente, presumibilmente prezzato in modo aggressivo, che copre dalla fascia alta a scendere, e Vega uscirà a coprire la fascia del fanatismo (ma più probabilmente sarà destinato ad HPC e workstation).
PaulGuru
01-06-2016, 16:31
Xfire di 2 480 utilizzate al 50% (arrotondo il 51%) vanno più di una 1080. Dato ceh da che mondo è mondo, sia con SLI che con Xfire all'aumento del numero delle GPU non hai mai uno scaling delle prestazioni lineare, ne consegue che una 480 che lavora al 100% DEVE avere le prestazioni di due 480 che lavorano al 50%. Cosa che metterebbe la 480 al di sopra della 1080, cosa ovviamente non vera.
Questo è il punto della questione.
Poi ci sono gli arrampicatori
tuttodigitale
01-06-2016, 16:35
Cosi come il GP100, ovvero 1080Ti e Titan. Rinnovo la domanda: per scontrarsi con 1080 e 1070 cosa hanno?
ti potrei fare anche un'altra domanda;
per scontrarsi con la rx480 cosa hanno? svendono la gtx 980 a 250 euro? (ammesso che sia superiore).
La partita la giocano sulle rese produttive dei due processi produttivi...e la gtx1070/80, non è che stiano messe bene a giudicare dal numero di recensioni disponibili...
PaulGuru
01-06-2016, 16:39
ti potrei fare anche un'altra domanda;
per scontrarsi con la rx480 cosa hanno? svendono la gtx 980 a 250 euro? (ammessa che sia superiore).
La partita la giocano sulle rese produttive dei due processi produttivi...e la gtx1070/80, non è che stiano messe bene a giudicare dal Numero di recensioni disponibili...No non son messe bene, dominano solamente le loro fasce.
E' la fascia alta che traina le vendite e fà l'immagine, la rx480 da sola lascia il tempo che trova.
Jones D. Daemon
01-06-2016, 16:40
ti potrei fare anche un'altra domanda;
per scontrarsi con la rx480 cosa hanno? svendono la gtx 980 a 250 euro? (ammessa che sia superiore).
La partita la giocano sulle rese produttive dei due processi produttivi...e la gtx1070/80, non è che stiano messe bene a giudicare dal numero di recensioni disponibili...
GTX 980 e GTX 970 con un calo del prezzo.
GTX 1060, basata su quanto appreso oggi sullo stesso chip GP104 delle 1070 e 1080, quindi già in produzione, e con una data di arrivo stimata non molto lontana nel tempo.
http://www.hwupgrade.it/news/skvideo/nuove-indiscrezioni-sulle-schede-nvidia-geforce-gtx-1060_62972.html
tuttodigitale
01-06-2016, 16:42
GTX 1060, basata su quanto appreso oggi sullo stesso chip GP104 delle 1070 e 1080, quindi già in produzione, e con una data di arrivo stimata non molto lontana nel tempo.
http://www.hwupgrade.it/news/skvideo/nuove-indiscrezioni-sulle-schede-nvidia-geforce-gtx-1060_62972.html
cioè usano lo scarto dello scarto: come volevasi dimostrare (se ce ne fosse bisogno) le rese fanno schifo.
tuttodigitale
01-06-2016, 16:46
Questo è il punto della questione.
Poi ci sono gli arrampicatori
tu sai le prestazioni di quella scheda con quel determinato titolo?
E se per caso GCN 4.0 abbia che ne sono una penalità da cambio di contesto più bassa...come la mettiamo?
O magari in configurazione singola, potevano esserci del micro stuttering, nonostante gli FPS siano sostanzialmente identici....scongiurati dalla maggior bandwidth a disposizione (ricordo che i dati non sono replicati 1 a 1 con il multi-gpu esplicito)...
Jones D. Daemon
01-06-2016, 16:50
cioè usano lo scarto dello scarto: come volevasi dimostrare (se ce ne fosse bisogno) le rese fanno schifo.
http://wccftech.com/nvidia-geforce-gtx-1060-confirmed/
Ce ne accorgiamo solo ora che i chip non completamente funzionanti vengono utilizzati per le gpu di fascia più bassa? Succede con tutto cpu e gpu, che sia AMD, Intel o Nvidia. Comunque almeno ci sono, sappiamo come vanno le sorelle maggiori e possiamo farci un'idea del prezzo e delle performance, che dovrebbero essere superiori alla GTX 970 con un TDP (calcolato a spanne, sulla base di quanto visto tra la 1080 e la 1070) di circa 120w. AMD, oltre alla 480, di cui ha presentato i SUOI benchmark, cosa avrebbe annunciato?
"tu sai le prestazioni di quella scheda con quel determinato titolo?
E se per caso GCN 4.0 abbia che ne sono una penalità da cambio di contesto più bassa...come la mettiamo?
O magari in configurazione singola, potevano esserci del micro stuttering, nonostante gli FPS siano sostanzialmente identici....scongiurati dalla maggior bandwidth a disposizione (ricordo che i dati non sono replicati 1 a 1 con il multi-gpu esplicito)..."
No, ma è matematica pure e semplice, si tratta di paragone:
Scaling Xfire = 100% (cosa palesemente non vera per i motivi detti prima)
2 x 480 @ 50% > GTX 1080 = 1 x 480 @ 100% > GTX 1080 (altra cosa palesemente non vera)
Una situazione più reale sarebbe:
Scaling Xfire = 80% (cosa palesemente non vera per i motivi detti prima)
2 x 480 @ 50% > GTX 1080 = 1 x 480 @ 100% > GTX 1080 + 10%
Come vedi, come la metti la metti, AMD ha mostrato un grafico cag@ta.
PaulGuru
01-06-2016, 16:52
tu sai le prestazioni di quella scheda con quel determinato titolo?
E se per caso GCN 4.0 abbia che ne sono una penalità da cambio di contesto più bassa...come la mettiamo?
O magari in configurazione singola, potevano esserci del micro stuttering, nonostante gli FPS siano sostanzialmente identici....scongiurati dalla maggior bandwidth a disposizione (ricordo che i dati non sono replicati 1 a 1 con il multi-gpu esplicito)...
Ma che discorsi stai facendo ?
Se con 2 schede al 51% di utilizzo fai un risultato, quest'ultimo a grandi linee sarà eguagliato da una singola scheda a pieno utilizzo.
Che il CF funzioni o meno, 51% di utilizzo vuol dire che sta andando appena più di una singola scheda.
Stai dicendo che l'architettura può impedire lo sfruttamento pieno delle unità ? Sì ma su percentuali come il 51% !!!
Dello stuttering non ci interessa, parliamo prima di frame rate.
Anzi da quanto dici tu su Nvidia il gioco va pure a scatti.
tuttodigitale
01-06-2016, 17:14
Ho capito
voi sapete le prestazioni e il comportano di GCN 4.0?
sapete le condizioni di test.?
Sapete già che la gtx1060 costerà 250 euro? E se fosse con cosa coprirà il buco tra le prestazioni di una gtx 980 e una gtx1070? Si passa da 250 a 520 euro...logico perchè non ci ho pensato prima...
Che una cpu impegnata al 50% faccia solo la metà degli FPS, mi pare una semplificazione, assurda a dir poco (c'è la possibilità, ma è assai remota)...non vi rendete neppure conto di quante variabili ci siano. Quello pubblicato va preso come un valore indicativo, punto.
FINE DISCUSSIONE
Ma la sostanza è che il TDP è il consumo durante il normale funzionamento nei giochi.
Chissà cosa ne pensa Calabar.
Che ha preso una bella cantonata anche lui. ;)
Il TDP è un valore che indica il dimensionamento della dissipazione, ma non ha nulla a che fare con il consumo.
Due schede con TDP identico e persino con consumi di picco identici possono avere efficienze molto differenti e di conseguenza consumi molto differenti.
Senza contare che il TDP non è una misura del consumo, ma un valore deciso dal produttore del chip, che può decidere di dichiarare valori più o meno conservativi.
Per cui no, continui a non avere ragione.
Il ragionamento più semplice e diretto è: se 2 schede al 50% fanno gli stessi numeri di una sola (frame in più o in meno), una scheda al 100% farà gli stessi numeri pure lei ...
É semplice ma... non necessariamente corretto.
Come dicevo prima, quel 100% potrebbe essere un dato molto lontano dal reale sfruttamento di questa scheda.
Certo, AMD ha sicuramente voluto che qualcuno lo pensasse, ma il risultato sarebbe abbastanza assurdo, a meno che davvero in quel singolo gioco particolarmente favorevole ad AMD la 480 possa eguagliare la 1080 (e io francamente non lo credo).
PaulGuru
01-06-2016, 17:21
Che ha preso una bella cantonata anche lui. ;)
Il TDP è un valore che indica il dimensionamento della dissipazione, ma non ha nulla a che fare con il consumo.
Due schede con TDP identico e persino con consumi di picco identici possono avere efficienze molto differenti e di conseguenza consumi molto differenti.
Senza contare che il TDP non è una misura del consumo, ma un valore deciso dal produttore del chip, che può decidere di dichiarare valori più o meno conservativi.
E' diversa come la conduttività di elettricità e quella di calore, sono due cose differenti ma si discostano fino ad un certo punto perchè sono comunque connessi.
Una GPU che ha minor consumo non toglie che possa scaldare di più della controparte pari.
Goofy Goober
01-06-2016, 17:26
Può essere, ma allora perché non presentarla?
EDIT:
http://wccftech.com/fable-legends-dx12-benchmark-results/
Piccolo appunto sulle DX12: Fable Legends, che a quanto pare è un RPG basato su UE4 DX12 only.
Fable Legends è morto senza mai vedere il lancio ufficiale (c'è stata solo la beta), assieme allo studio che lo aveva creato, Lionhead, chiuso da MS.
Quindi i test fatti in passato, quando il gioco esisteva ancora, sono test su una versione non finale.
A mio parere bisogna come quando ci furono le DX11... Aspettare i primi giochi effettivamente "full" DX11. E come molti sanno ci fu da aspettare parecchio (contando poi che DX10 e DX10.1 erano stati dei fantasmi in pratica).
Jones D. Daemon
01-06-2016, 18:06
Fable Legends è morto senza mai vedere il lancio ufficiale (c'è stata solo la beta), assieme allo studio che lo aveva creato, Lionhead, chiuso da MS.
Quindi i test fatti in passato, quando il gioco esisteva ancora, sono test su una versione non finale.
A mio parere bisogna come quando ci furono le DX11... Aspettare i primi giochi effettivamente "full" DX11. E come molti sanno ci fu da aspettare parecchio (contando poi che DX10 e DX10.1 erano stati dei fantasmi in pratica).
Ma infatti sono d'accordissimo con te, i test in DX12 vanno evitati come la peste e non presi in considerazione finché non ci sarà un gioco con supporto esclusivo alle DX12. Solo allora potremmo trarre le dovute considerazioni. Farlo ora, con il poco materiale che abbiamo, e fantasticare su sogni speranze angioletti e arcobaleni delle meraviglia delle DX12 e AMD mi sembra quantomeno prematuro.
Jones D. Daemon
01-06-2016, 18:19
Ho capito
voi sapete le prestazioni e il comportano di GCN 4.0?
sapete le condizioni di test.?
Sapete già che la gtx1060 costerà 250 euro? E se fosse con cosa coprirà il buco tra le prestazioni di una gtx 980 e una gtx1070? Si passa da 250 a 520 euro...logico perchè non ci ho pensato prima...
Che una cpu impegnata al 50% faccia solo la metà degli FPS, mi pare una semplificazione, assurda a dir poco (c'è la possibilità, ma è assai remota)...non vi rendete neppure conto di quante variabili ci siano. Quello pubblicato va preso come un valore indicativo, punto.
FINE DISCUSSIONE
Listino (quindi esentasse) di 250$, direi che è una previsione fattibile.
Noi non le sappiamo le prestazioni di GCN 4.0 (ma nemmeno tu). Sempre per una eventuale FE, andando a scaglionare le fasce ogni 200 euro più o meno.
Non sappiamo le condizioni di test semplicemente perché quelli di AMD non ci hanno nemmeno detto a che risoluzione lo hanno effettuato.
Io le variabili le ho volontariamente eliminate utilizzando la situazione più favorevole ad AMD: ovvero quella di uno scaling al 100% del Xfire, ovvero prendo per assunto che in AMD hanno trovato il modo di far aumentare le prestazioni del 100% con una seconda gpu. Se così non fosse (e così non è) la cosa si farebbe ancora più ridicola: assumendo un 20% di perdita di performance della seconda scheda, una 480 risulterebbe andare MOLTO MEGLIO di una 1080.
Vorrei che commentassi la piccola equazione riportata sopra, ovvero (sempre nella situazione irreale di uno scaling al 100% del xfire):
2 x 480 @ 50% > GTX 1080 = 1 x 480 @ 100% > GTX 1080
Se hai delle informazioni che rendono possibile questa equazione ti prego di rivelarle, altrimenti devo convenire che AMD ha fatto la figura della cioccolataia con questa presentazione.
mirkonorroz
01-06-2016, 18:41
Mboh... io quel poco che capisco dall'articolo di anandtech su civilization e' che:
1. Hanno scelto SFR per avere il gioco piu' responsivo
e visto che:
2. Il gioco e' CPU limited
e
3. ha comunque una grafica leggera
da cio' si ha il basso utilizzo delle GPU che siano in cross o meno
Ora si puo' traslare questo in AOS?
Probabilmente si'. La grafica non e' comunque 'sto gran che' ed e' cpu intensivo.
Ha senso farlo? Si' perche' le dx12/mantle/vulkan etc. sgravavano proprio la cpu.
Oh... magari poi ho sbagliato tutto... :stordita:
PaulGuru
01-06-2016, 18:45
Vorrei che commentassi la piccola equazione riportata sopra, ovvero (sempre nella situazione irreale di uno scaling al 100% del xfire):
2 x 480 @ 50% > GTX 1080 = 1 x 480 @ 100% > GTX 1080
Se hai delle informazioni che rendono possibile questa equazione ti prego di rivelarle, altrimenti devo convenire che AMD ha fatto la figura della cioccolataia con questa presentazione.Anche io vorrei vedere cosa scrive.
Tuttodigitale prego e senza giri di parole.
mirkonorroz
01-06-2016, 18:57
10 + 10 > 18 implica? 20 > 18
il 50% di 20 piu' il 50% 20 > 18 implica? il 100% di 20 > 18
Imho se lo scaling e' del 100% si'. O no? :stordita:
Se lo scaling non e' del 100% fate i calcoli :D
PS: Io in matematica faccio pena ::fagiano:
blackshard
01-06-2016, 19:11
Vorrei che commentassi la piccola equazione riportata sopra, ovvero (sempre nella situazione irreale di uno scaling al 100% del xfire):
2 x 480 @ 50% > GTX 1080 = 1 x 480 @ 100% > GTX 1080
Forse perché in setup singolo una 480 comunque non usa il 100% delle risorse a disposizione?
leggete sempre quel che volete leggere...
per voi cosa significa "GPU utilizzation xx%"?
e vi pare logico che 2 schede in CF che vanno singolarmente come una 390 possano euguagliare le prestazioni di una 1080 usando la meta' delle proprie risorse, sapendo inoltre che il CF decurta la potenza delle schede per l'overhead del 35-38%?
allora una sola andrebbe di piu'...e logica conclusione.
in quella slide stanno solo evidenziando che il consumo di una singola RX 480 e' del 51% rispetto al consumo di una 1080 che gira al 98.7% del possibile potenziale che ha (che e' in pratica l'overclock che setta in automatico e dinamicamente il tool boost 3.0).
2 RX 480 in CF (con tutte le limitazioni che porta) consumano il 102% di una 1080 nel suo pieno potenziale (ossia 225W, ossia PCIe+8PIN)....
e vanno di piu'.
RX 480 consuma 114W;
228W in coppia, ma hanno, insieme, anche il doppio della ram e 2 ventole da alimentare.
stanno semplicemente dicendo che la scheda che si scontrera' contro 1080 (e che sara' un chip vega cut da 3072 SP a 1266-1500mhz con 8GB di GDDR5x, nominata RX 490x) andra' di piu' e consumera' meno.
e intrinsecamente stanno dicendo che a fondere la 1080 non si superano i 60fps in 4K.
per fargli fare 58.7 alla 1080 sei in 4K extream:
http://www.ashesofthesingularity.com/metaverse#/personas/812cec85-aeeb-4325-b42b-2cb79f76c78b/match-details/629c5c3f-6ae9-406f-97a6-209edc9cea63
ma se si guarda il livello medio di processore e punteggio:
http://www.ashesofthesingularity.com/metaverse#/ladders/benchmark/overall/High_4k?viewType=myself&filters={%22gpu%22:%22NVIDIA%20GeForce%20GTX%201080%22}
e' facile intuire che erano ben oltre il clock di default, la stavano usando a 2100mhz, al limite della scheda, al limite dell'alimentazione.
questa e' una 390:
http://www.ashesofthesingularity.com/metaverse#/personas/798bd264-719e-4050-a989-77e5a967282e/match-details/d6c3d7af-2f31-4558-8feb-33a5c4fc38d6
quindi una rx 480
50x2 in CF fanno 100;
100-37.5% siamo a 62.5fps.
ma guardate il processore che ci vuole...
le DX12 necessitano di core, non solo di frequenza, e maxwell non glie ne e' mai fregato nulla di avere tanti core per giocare.
quindi, cari miei, comevolevasidimostrare, ancora leggete SOLO quello che volete e pensate SOLO in una direzione.
io non capisco come la gente ancora vi risponda.
Anche io vorrei vedere cosa scrive.
Tuttodigitale prego e senza giri di parole.Mi sembra lo abbia già spiegato alcuni mex più su, quando ha detto che non c'è perfetta correlazione tra la percentuale di utilizzo ed il risultato prestazionale.
Semplificando, se un VGA al 100% ha un FR di 100, la stessa al 50% può avere un FR superiore a 50.
nickname88
01-06-2016, 19:46
Mi sembra lo abbia già spiegato alcuni mex più su, quando ha detto che non c'è perfetta correlazione tra la percentuale di utilizzo ed il risultato prestazionale.
Semplificando, se un VGA al 100% ha un FR di 100, la stessa al 50% può avere un FR superiore a 50.
Perdonatemi se mi intrometto anche io ma questa anche a me sembra una non-risposta, è tutto un girarci attorno senza mai centrare alcun obbiettivo come se si volesse nascondere qualcosa.
Se un componente al 50% restituisce un risultato, è logico pensare che al 100% vada il doppio o quasi, altrimenti perchè evidenziare questo aspetto ?
A me appare come una semplicissima equazione.
Niente di preciso ma ad occhio e croce o è così o il filmatino ha introdotto un dato fuorviante visto che non c'è alcuno screen che le schede siano utilizzate al 51%.
Perdonatemi se mi intrometto anche io ma questa anche a me sembra una non-risposta, è tutto un girarci attorno senza mai centrare alcun obbiettivo come se si volesse nascondere qualcosa.
La vera risposta è che il loro ragionamento "matematico" semplice è... semplicemente errato.
Stanno semplificando una questione che semplice non è, per di più senza neppure avere dati sufficienti per valutare.
L'uso del 50% delle risorse non significa affatto che un uso al 100% significa prestazioni doppie. Anche se semplificando può sembrare così.
Se ti occorre una certe energia per portare un'auto a 100 all'ora, pensi che per portarla da 100 a 200 all'ora ci voglia altrettanta energia o di più? (la domanda è retorica)
E questo è solo uno degli elementi da tenere in considerazione.
Niente di preciso ma ad occhio e croce o è così o il filmatino ha introdotto un dato fuorviante visto che non c'è alcuno screen che le schede siano utilizzate al 51%.
Intendi dire che non viene mostrato uno strumento che in quel momento misuri l'utilizzo della scheda?
Perché nella presentazione il dato appare, ma è scritto nella slide, non misurato con un benchmark.
lucusta
In questi giorni leggendo i vari topic sulle nuove gpu Nvidia, l'annuncio della cpu Intel a 10 core etc... ho avuto modo di leggere i tuoi interventi e cavolo, sono pieni d'illazioni, dati inventati, corbellerie varie etc...
Senza contare che ti appresti a parlare di prodotti che non sono ancora usciti e asserisci che sono meglio di questi e quegli altri... tra l'altro senza dimostrare con prove e dati scientifici.
Inoltre dai del fanboy a destra e a manca, ma se ce ne uno, sei proprio te, con una spiccata venerazione verso i prodotti AMD. Spero che ne hai un'entrata economica, altrimenti non capisco come si possa arrivare a questi livelli di fanatismo.
E un'altra cosa, non si capisce niente da come ti esprimi. Se le tue intenzioni sono di usare termini tecnici, mi spiace ma stai fallendo e dimostri di avere poca conoscenza di quello che affermi.
Era più forte di me e dovevo replicare... praticamente gli ultimi tuoi post, sono un pugno in un occhio.
evita di leggermi, non lo trovi semplice?
questa e' la mia seconda iscrizione al forum (la prima era con una mail che ormai ho perso)... hai visto la data?
tu in 5 anni hai scritto tanti messaggi quanti io in 16 o 17... chi se ricorda....che senso ha?
sono anni che leggo 4 scazzacani sulle news che non riescono a guardare oltre il propio naso ed elogiare tecnologie e costruzioni che il primo ingegnerucolo riuscirebbe a fare.
e no, non sono propriamente un tecnico conclamato.. anche perche', sì, oggi sto' facendo ingegneria informatica, ma 25 anni li ho passati a fare altro... percio' se uso termini non consoni o se qualche volta mi confondo... sticazzi... generalmente sto' davanti al PC leggendo le news negl'intervalli della giornata... poi ho anche altre, tante, cose da fare... quindi non mi ci spreco piu' di tanto.
capisce chi vuole capire...
e no, non sono un fanboy, anche se saranno 10 anni che compro intel solo sui portatili (ma sono il primo a non consigliare un Bulldozer, o a dirti che un atom di oggi non e' affatto male)... in effetti a me non cambia nulla del marchio sul pezzo, mi basta che sia buono per quello che mi serve...
invece c'e' chi ogni volta fa' la solita squerela di scemate; alcune volte ha ragione, altre, come questa... negano l'evidenza.
se leggo ogni volta i soliti mentecatti che una volta la pensano in un modo, quando cambia la pensano nell'altro... che insomma la pensano sempre e comunque come fa' intel o nvidia, indifferentemente dal contesto, indifferentemente dalle condizioni, indifferentemente dalla tecnologia usate, indifferentemente dal costo... poi si, magari scrivo e gli faccio notare che c'e' ben oltre quello che pensano e credono di sapere... generalmente le persone boriose non le digerisco.
poi invece a quelli come te, e' difficile che risponda.
li lascio sbattere per quello che sono.
Considera un ultima cosa: probabilmente o smesso di giocare col PC quando ancora non eri stato nemmeno concepito.
ti do' un parametro: vedi quella vecchia console nelle news di oggi?
ne ho una in garage, me ne hanno regalata una quando era appena uscita in giappone, per la prima elementare....e ancora l'ho in garage.
PS:
in altri luoghi (ma credo anche qui) sono piu' di 20 giorni che ho scritto il perche' quella scheda sarebbe costata 250 euro e avrebbe avuto quelle esatte prestazioni.
ma io sono un chimico, non un ingegnere... di queste cose non ne so' nulla...
e' stato un quasi piacere parlare per l'ultima volta con te.
Dovrebbero presentare una scheda che impensierisca le gtx 1070 e le gtx 1080, invece presentano una scheda che va la metà e che è in competizione con un ormai vecchio modello Nvidia uscito quasi 2 anni fa. Certo costa poco e sicuramente sarà un buon acquisto per chi vuole fare un aggiornamento al proprio pc e capisce qualcosa (chi non capisce di solito prende Nvidia, non perchè siano nettamente migliori ma perchè Nvidia sa vendersi meglio di AMD), ma se continua cosi Nvidia non troverà nessun motivo per prendere seriamente la competizione ed abbassare i prezzi della fascia alta.
Io spero che le probabili RX 490 o RX 490x diano filo da torcere ad Nvidia in quella fascia, ma ho un brutto presentimento.
evita di leggermi, non lo trovi semplice?
questa e' la mia seconda iscrizione al forum (la prima era con una mail che ormai ho perso)... hai visto la data?
tu in 5 anni hai scritto tanti messaggi quanti io in 16 o 17... chi se ricorda....che senso ha?
sono anni che leggo 4 scazzacani sulle news che non riescono a guardare oltre il propio naso ed elogiare tecnologie e costruzioni che il primo ingegnerucolo riuscirebbe a fare.
e no, non sono propriamente un tecnico conclamato.. anche perche', sì, oggi sto' facendo ingegneria informatica, ma 25 anni li ho passati a fare altro... percio' se uso termini non consoni o se qualche volta mi confondo... sticazzi... generalmente sto' davanti al PC leggendo le news negl'intervalli della giornata... poi ho anche altre, tante, cose da fare... quindi non mi ci spreco piu' di tanto.
capisce chi vuole capire...
e no, non sono un fanboy, anche se saranno 10 anni che compro intel solo sui portatili (ma sono il primo a non consigliare un Bulldozer, o a dirti che un atom di oggi non e' affatto male)... in effetti a me non cambia nulla del marchio sul pezzo, mi basta che sia buono per quello che mi serve...
invece c'e' chi ogni volta fa' la solita squerela di scemate; alcune volte ha ragione, altre, come questa... negano l'evidenza.
se leggo ogni volta i soliti mentecatti che una volta la pensano in un modo, quando cambia la pensano nell'altro... che insomma la pensano sempre e comunque come fa' intel o nvidia, indifferentemente dal contesto, indifferentemente dalle condizioni, indifferentemente dalla tecnologia usate, indifferentemente dal costo... poi si, magari scrivo e gli faccio notare che c'e' ben oltre quello che pensano e credono di sapere... generalmente le persone boriose non le digerisco.
poi invece a quelli come te, e' difficile che risponda.
li lascio sbattere per quello che sono.
Considera un ultima cosa: probabilmente o smesso di giocare col PC quando ancora non eri stato nemmeno concepito.
ti do' un parametro: vedi quella vecchia console nelle news di oggi?
ne ho una in garage, me ne hanno regalata una quando era appena uscita in giappone, per la prima elementare....e ancora l'ho in garage.
PS:
in altri luoghi (ma credo anche qui) sono piu' di 20 giorni che ho scritto il perche' quella scheda sarebbe costata 250 euro e avrebbe avuto quelle esatte prestazioni.
ma io sono un chimico, non un ingegnere... di queste cose non ne so' nulla...
e' stato un quasi piacere parlare per l'ultima volta con te.
Dopo aver capito che soggetto sei, lo farò senz'altro...
Pare che vuoi dimostrare che sei "grande", ma sinceramente ti sei perso per strada delirando...
"Anno di iscrizione forum? Console vecchia nella news? Hai smesso di giocare quando io ancora dovevo essere concepito? "
:doh:
Inoltre se dici che non ti frega di parlare in termini tecnici, allora evita di farlo, soprattutto su cose che non sai. Quindi non lamentarti poi se te lo fanno notare.
Per il resto, buona continuazione.
L1ttlesn1tch
01-06-2016, 21:41
Se ce l'hai più lungo lo sbandieri chiaramente così da bloccare gli acquisti verso Nvidia.
Gli acquisti di cosa?
Di fatto nVidia ha fatto un paper launch, di 1080 in giro non se ne vedono, le 1070 non ne hanno neanche per darle a siti rinomati e seguiti da milioni di persone!!!
Se tutto va bene le 10X0 saranno disponibili per tutti a fine mese.... guarda caso quando lo saranno anche le 480!
Jones D. Daemon
01-06-2016, 21:43
leggete sempre quel che volete leggere...
per voi cosa significa "GPU utilizzation xx%"?
e vi pare logico che 2 schede in CF che vanno singolarmente come una 390 possano euguagliare le prestazioni di una 1080 usando la meta' delle proprie risorse, sapendo inoltre che il CF decurta la potenza delle schede per l'overhead del 35-38%?
allora una sola andrebbe di piu'...e logica conclusione.
in quella slide stanno solo evidenziando che il consumo di una singola RX 480 e' del 51% rispetto al consumo di una 1080 che gira al 98.7% del possibile potenziale che ha (che e' in pratica l'overclock che setta in automatico e dinamicamente il tool boost 3.0).
2 RX 480 in CF (con tutte le limitazioni che porta) consumano il 102% di una 1080 nel suo pieno potenziale (ossia 225W, ossia PCIe+8PIN)....
e vanno di piu'.
RX 480 consuma 114W;
228W in coppia, ma hanno, insieme, anche il doppio della ram e 2 ventole da alimentare.
stanno semplicemente dicendo che la scheda che si scontrera' contro 1080 (e che sara' un chip vega cut da 3072 SP a 1266-1500mhz con 8GB di GDDR5x, nominata RX 490x) andra' di piu' e consumera' meno.
e intrinsecamente stanno dicendo che a fondere la 1080 non si superano i 60fps in 4K.
per fargli fare 58.7 alla 1080 sei in 4K extream:
http://www.ashesofthesingularity.com/metaverse#/personas/812cec85-aeeb-4325-b42b-2cb79f76c78b/match-details/629c5c3f-6ae9-406f-97a6-209edc9cea63
ma se si guarda il livello medio di processore e punteggio:
http://www.ashesofthesingularity.com/metaverse#/ladders/benchmark/overall/High_4k?viewType=myself&filters={%22gpu%22:%22NVIDIA%20GeForce%20GTX%201080%22}
e' facile intuire che erano ben oltre il clock di default, la stavano usando a 2100mhz, al limite della scheda, al limite dell'alimentazione.
questa e' una 390:
http://www.ashesofthesingularity.com/metaverse#/personas/798bd264-719e-4050-a989-77e5a967282e/match-details/d6c3d7af-2f31-4558-8feb-33a5c4fc38d6
quindi una rx 480
50x2 in CF fanno 100;
100-37.5% siamo a 62.5fps.
ma guardate il processore che ci vuole...
le DX12 necessitano di core, non solo di frequenza, e maxwell non glie ne e' mai fregato nulla di avere tanti core per giocare.
quindi, cari miei, comevolevasidimostrare, ancora leggete SOLO quello che volete e pensate SOLO in una direzione.
io non capisco come la gente ancora vi risponda.
Non lo sappiamo che significa, perché AMD non ha spiegato un'emerita cippa. Ma se quello che conosciamo da anni è vero, GPU utilization indica il carico di lavoro sul chip grafico in quel determinato momento, prendi ad esempio GPU-Z. Se AMD mi scrive in una slide, di una setup Xfire, che il GPU utilization è del 51%, basandomi sul significato "classico" del termine penso che le 2 gpu, sommate, siano caricate al 51% del loro potenziale massimo. tutto questo togliendo dall'equazione gli altri fattori come il memory buffer load, il power target, memory consumption, video engine load...insomma, l'altra montagna di parametri che possono determinare il funzionamento di una gpu.
Hai asserito che la gpu GTX 1080 consumi 225, dati dai 150w del connettore 8 pin e i 75 del bus pci express.
Ora mi sembra logico asserire che il consumo di una singola 480 si attesti sui 150w, ovvero 75 6 pin + 75 bus. Dato confermato da AMD anche in relazione al tdp. Sinceramente, il consumo dei 114 o mi è sfuggito oppure è uscito...da qualche parte, boh...cercando su google questo dato esce fuori come risultato questo singolo thread...e basta.
Quindi, data anche la MANCANZA DI INFORMAZIONI da parte di AMD, che non ha dichiarato clock di base, boost clock e clock della memoria, 2 RX 480 potrebbero benissimo consumare 300w, mandando a monte il ragionamento sul consumo. AMD credo che debba finirla con il vedo-non-vedo, con strani bench in Xfire, con presentazioni di gpu ferme, senza divulgare i dati di base ma divulgando bench che non hanno ne capo ne coda, presentazioni di quadrati metallici che assomigliano a cpu (non in funzione)
Ho già detto e ripetuto che NON PRENDO in considerazione test fatti su UN SINGOLO GIOCO, NON FULL DX12, OTTIMIZZATO AMD (e la cosa si sa da eoni, inutile negarlo) e veramente non è facile capire un bel niente, dato che non è riportato NESSUN DATO relativo alla frequenza delle gpu...e comunque, COME SEMPRE, vi attenete ad un singolo benchmark...quando ho già postato prima i risultati di Fable Legends, progetto chiuso ok, ma FULL DX12, e non "abbiamo le DX12 ma solo con l'async, di cui facciamo utilizzo più che massivo" e la storia è un pochino diversa:
http://wccftech.com/fable-legends-dx12-benchmark-results/
Jones D. Daemon
01-06-2016, 21:56
:read: Gli acquisti di cosa?
Di fatto nVidia ha fatto un paper launch, di 1080 in giro non se ne vedono, le 1070 non ne hanno neanche per darle a siti rinomati e seguiti da milioni di persone!!!
Se tutto va bene le 10X0 saranno disponibili per tutti a fine mese.... guarda caso quando lo saranno anche le 480!
Ah perché questo di AMD non è classificabile come paper launch?
Veramente di schede ne ho viste in giro:
https://www.facebook.com/drako.it/photos/a.182206788501932.62095.167452256644052/1007246845997918/?type=3&theater
un paio anche da un noto negozio qui di Roma. Poche, è vero, ma le schede a saer cercare si trovavano e si trovano tutto'ora: re dei case per esempio, eprezzo da un rifornimento il 9 giugno e il dragone il 3 di giugno. i primi pezzi sono finiti (causa scimmie).
Ah perché questo di AMD non è classificabile come paper launch?
Ovviamente no, dato che non c'è stato un "launch", questo non può essere certo di "paper".
Credo comunque che L1ttlesn1tch intendesse dire che, se le schede AMD saranno disponibili da subito, il vantaggio temporale di Nvidia sarà molto ridotto, dato che le schede Nvidia al momento non sono così facili da reperire.
Anche questo potremo verificarlo al lancio della 480.
Jones D. Daemon
ti sei accorto delle tecnologie in uso?
di come e' cambiata l'archittettura?
di come invece nvidia non ha cambiato nulla e se ne uscita con una nuova schede "de legno", che ancora praticamente nessuno ha?
magari ti e' sfuggito che 2304 CUs vanno piu' di 2560 CUs, e che non e' una questione di sola frequenza operativa.
1266x2304/1000=2916
cioe' questa scheda dovrebbe andare ben piu' di una 390, piu' di una 390X.
ma non e' cosi'...
le pipeline di queste CUs sono state raddoppiate in lunghezza, evitando di dovre fare un lavoro accessorio per riportare il dato in esecusione su una nuova pipeline.
il rapporto d'efficenza di cicli per calcolo cosi' raggiunto si e' posto a un 1.15, e grazie alla possibilita' di alzare la frequenza si sono raggiunti quei risultati.
anche nvidia ha rifatto il trucco a maxwell;
se fai i conti tra' numero di CUDA e frequenza troverai pero' che e' diminuito.
hanno dovuto aggiungere quello che non avevano e che in DX11 non serviva su ogni stadio (registri), ma non lo potevano aggiungere come sulla concorrenza, per via della pessima resa di chip cosi' grandi sul PP di TSMC, che e' evidente che non e' ottimale, se ci devono far uscire anche le GP106,
segno che statisticamente anche un die di 2/3 rispetto GP104 risulta statisticamente danneggiato in quntita' tali che e' consigliabile il riutilizzo come chip ulteriormente cuttato.
E quindi AMD ha ritoccato l'architetura migliorandola del 15%, nvidia ha dovuto mettere una pezza alla sua, adattissima a dx11, ma inadatta a DX12, aggiungendo anche lei stadi, ma intermedi.... non hanno tolto nessun lavoro accessorio (cosi' lo capisci, spero), hanno aggiunto altro, usabile in precise circostanza, tra' l'altro.
il loro indice e' cicli per calcolo e' diminuito a 0.95%.
state facendo 10 pagine di discussione su 2 valori senza riuscire a tirare fuori il ragno dal buco perche' non considerate tutti i fattori in gioco.
domani ti spiego l'architettura che dovrebbe avere Volta e quella che sicuramente ha Navi.
PS:
te devi allenà con google....
https://www.google.it/search?client=firefox-b&q=AMD+polaris+110+w&oq=AMD+polaris+110+w&gs_l=serp.3...11914.12274.0.12912.2.2.0.0.0.0.119.218.1j1.2.0....0...1c.1.64.serp..0.1.118...30i10.QOjVYl8iAJ0
poi pero' i numeri li devi saper anche capire, ma credo che gli adoratori non vedranno mai il vero senso delle cose:
http://www.hwupgrade.it/forum/showpost.php?p=43724929&postcount=62
ti stanno vendendo schede in overclock, ed anche pesantemente overclockate, su chip ad alto indice di bug e ci stanno facendo benchmark indicando prestazioni che puoi ottenere solo per 5 miseri minuti.
credo che solo quella che hanno portato alla presentazione possa raggiungere 2144mhz a 67°C a T ambiente, ma conoscendo il tipo con la scheda di legno in mano, la T ambiente era riferita al polo nord nel mezzo della notte invernale.
e te lo ripeto:
quello e' un potenziale di stima rispetto al consumo generato.
sai benissimo, dopo anni che sta' in giro questo tipo di tecnologia, che un CF o uno SLI va' circa il 60% in piu' della singola scheda e che basta fare un chip che abbia il 60% in piu' di CUs integrate per farlo andare tal quale a pari frequenza
bene, allora adesso leggi su quella slide non 4 numeri, ma la scritta:
se lo facciamo piu' grosso del 60% va' di piu' e consuma meno, molto meno (ha 1 ventola e 8GB di ram in piu').
ma allo stesso modo leggi:
se lo facciamo solo il 35% piu' grande e lo mandiamo il 20% in piu' , andra ancora di piu' e consumera' comunque meno.
232*1.35=313.2mm^2->GP104=314mm^2
e al 35% piu' grande, si avrebbero le stesse dimensioni, come vedi.
quindi puoi tradurlo come:
abbiamo la tecnologia migliore.
quindi?
ora ti e' piu' chiaro?
non e' un messaggio per 4 ragazzini che giocano, ma per il mercato.
L1ttlesn1tch
01-06-2016, 22:27
:read:
Ah perché questo di AMD non è classificabile come paper launch?
Veramente di schede ne ho viste in giro:
https://www.facebook.com/drako.it/photos/a.182206788501932.62095.167452256644052/1007246845997918/?type=3&theater
un paio anche da un noto negozio qui di Roma. Poche, è vero, ma le schede a saer cercare si trovavano e si trovano tutto'ora: re dei case per esempio, eprezzo da un rifornimento il 9 giugno e il dragone il 3 di giugno. i primi pezzi sono finiti (causa scimmie).
Certo che è un paper launch, anzi neanche questo è! nVidia almeno ha presentato le schede e i bench :D
Un paio di schede in giro vuol dire paper launch a casa mia. Insomma ora che saranno disponibili per tutti i comuni mortali arriva fine mese. Le 1070 invece sono un'incognita, anche se credo abbiano fatto il pieno di ordini per le 1080, segno che i fanboy sono in aumento, e non sono mica scemi a declassare un chip per vendertelo a metà prezzo se hanno la gente in fila per le 1080!
L1ttlesn1tch
01-06-2016, 22:31
Ovviamente no, dato che non c'è stato un "launch", questo non può essere certo di "paper".
Credo comunque che L1ttlesn1tch intendesse dire che, se le schede AMD saranno disponibili da subito, il vantaggio temporale di Nvidia sarà molto ridotto, dato che le schede Nvidia al momento non sono così facili da reperire.
Anche questo potremo verificarlo al lancio della 480.
Appunto. Ma gli aficionados dei verdi hanno imparato alla perfezione il giochino del vedo ma nego ad oltranza.
Jones D. Daemon
01-06-2016, 22:54
ti sei accorto delle tecnologie in uso?
di come e' cambiata l'archittettura?
di come invece nvidia non ha cambiato nulla e se ne uscita con una nuova schede "de legno", che ancora praticamente nessuno ha?
magari ti e' sfuggito che 2304 CUs vanno piu' di 2560 CUs, e che non e' una questione di sola frequenza operativa.
1266x2304/1000=2916
cioe' questa scheda dovrebbe andare ben piu' di una 390, piu' di una 390X.
ma non e' cosi'...
le pipeline di queste CUs sono state raddoppiate in lunghezza, evitando di dovre fare un lavoro accessorio per riportare il dato in esecusione su una nuova pipeline.
il rapporto d'efficenza di cicli per calcolo cosi' raggiunto si e' posto a un 1.15, e grazie alla possibilita' di alzare la frequenza si sono raggiunti quei risultati.
anche nvidia ha rifatto il trucco a maxwell;
se fai i conti tra' numero di CUDA e frequenza troverai pero' che e' diminuito.
hanno dovuto aggiungere quello che non avevano e che in DX11 non serviva su ogni stadio (registri), ma non lo potevano aggiungere come sulla concorrenza, per via della pessima resa di chip cosi' grandi sul PP di TSMC, che e' evidente che non e' ottimale, se ci devono far uscire anche le GP106,
segno che statisticamente anche un die di 2/3 rispetto GP104 risulta statisticamente danneggiato in quntita' tali che e' consigliabile il riutilizzo come chip ulteriormente cuttato.
E quindi AMD ha ritoccato l'architetura migliorandola del 15%, nvidia ha dovuto mettere una pezza alla sua, adattissima a dx11, ma inadatta a DX12, aggiungendo anche lei stadi, ma intermedi.... non hanno tolto nessun lavoro accessorio (cosi' lo capisci, spero), hanno aggiunto altro, usabile in precise circostanza, tra' l'altro.
il loro indice e' cicli per calcolo e' diminuito a 0.95%.
state facendo 10 pagine di discussione su 2 valori senza riuscire a tirare fuori il ragno dal buco perche' non considerate tutti i fattori in gioco.
domani ti spiego l'architettura che dovrebbe avere Volta e quella che sicuramente ha Navi.
PS:
te devi allenà con google....
https://www.google.it/search?client=firefox-b&q=AMD+polaris+110+w&oq=AMD+polaris+110+w&gs_l=serp.3...11914.12274.0.12912.2.2.0.0.0.0.119.218.1j1.2.0....0...1c.1.64.serp..0.1.118...30i10.QOjVYl8iAJ0
poi pero' i numeri li devi saper anche capire.
e te lo ripeto:
quello e' un potenziale di stima rispetto al consumo generato.
sai benissimo, dopo anni che sta' in giro questo tipo di tecnologia, che un CF o uno SLI va' circa il 60% in piu' della singola scheda e che basta fare un chip che abbia il 60% in piu' di CUs integrate per farlo andare tal quale a pari frequenza
bene, allora adesso leggi su quella slide non 4 numeri, ma la scritta:
se lo facciamo piu' grosso del 60% va' di piu' e consuma meno, molto meno (ha 1 ventola e 8GB di ram in piu').
ma allo stesso modo leggi:
se lo facciamo solo il 35% piu' grande e lo mandiamo il 20% in piu' , andra ancora di piu' e consumera' comunque meno.
232*1.35=313.2mm^2->GP104=314mm^2
e al 35% piu' grande, si avrebbero le stesse dimensioni, come vedi.
quindi puoi tradurlo come:
abbiamo la tecnologia migliore.
quindi?
ora ti e' piu' chiaro?
non e' un messaggio per 4 ragazzini che giocano, ma per il mercato.
Schede di legno, detto questa volta a nvidia è tanta roba. Dato che le schede ci sono, poche ma ci sono. Amd fa vedere una scheda con 2 dati in croce a una presunta CPU ma quello va bene...
No, non è chiaro nulla, e dato che cliccando sul link di Google che hai messo tu c'è scritto per lo più maybe...leaked...exstimated ma nulla di nulla di ufficiale. Chi dice 100 chi dice 115 chi dice 135. E tu stai a pontificare su dati del genere?
Oltretutto il tuo atteggiamento verso di chi sta parlando civilmente da so tutto io no lo trovo costruttivo. E no guarda non ti prendere la pena di spiegarmi nulla, gli aruspici non mi sono mai andati a genio.
Jones D. Daemon
01-06-2016, 23:00
Appunto. Ma gli aficionados dei verdi hanno imparato alla perfezione il giochino del vedo ma nego ad oltranza.
Fanboy verde? Guarda ho idea che ti sbagli, anzi credo di essere uno dei 2 pirla che ha usato per un periodo la 6990 e la 7990 :D
PaulGuru
01-06-2016, 23:03
Gli acquisti di cosa?
Di fatto nVidia ha fatto un paper launch, di 1080 in giro non se ne vedono, le 1070 non ne hanno neanche per darle a siti rinomati e seguiti da milioni di persone!!!
Se tutto va bene le 10X0 saranno disponibili per tutti a fine mese.... guarda caso quando lo saranno anche le 480!
Vega è previsto per fine anno / 2017 quindi direi che di margine Nvidia ne ha parecchio !
Faranno in tempo pure a far uscire la 1060 ed a raggiungere la piena commercializzazione.
Siamo solo al primo di Giugno.
E pensi veramente che AMD con Vega quando uscirà sarà subito disponibile ? Farà la stessa gavetta.
PaulGuru
01-06-2016, 23:05
La vera risposta è che il loro ragionamento "matematico" semplice è... semplicemente errato.
Stanno semplificando una questione che semplice non è, per di più senza neppure avere dati sufficienti per valutare.
L'uso del 50% delle risorse non significa affatto che un uso al 100% significa prestazioni doppie. Anche se semplificando può sembrare così.
Se ti occorre una certe energia per portare un'auto a 100 all'ora, pensi che per portarla da 100 a 200 all'ora ci voglia altrettanta energia o di più? (la domanda è retorica)
E questo è solo uno degli elementi da tenere in considerazione.
Intendi dire che non viene mostrato uno strumento che in quel momento misuri l'utilizzo della scheda?
Perché nella presentazione il dato appare, ma è scritto nella slide, non misurato con un benchmark.Ma che razza di esempio è ?
49% è uno scarto esageratissimo, va bene che il CF non scala benissimo ma lì non stà proprio funzionando.
Una singola scheda al 100% magari non va il +100% ma di certo parecchio più della metà di una 1080.
L1ttlesn1tch
01-06-2016, 23:23
Fanboy verde? Guarda ho idea che ti sbagli, anzi credo di essere uno dei 2 pirla che ha usato per un periodo la 6990 e la 7990 :D
Ah, allora è per questore ce l'hai su con Amd!!!:D
Boh io avevo al tempo 2 6970 e 2 7970.... e proprio dopo queste ho deciso che il multi GPU lo lascio ad altri, per me mai più!
Adesso per lavoro sarà più di un anno che per giocare mi avanzano si e no 2 ore a settimana, quindi sto bene con la 780, anche se ho un problema, comune a molti a quanto pare, con i driver (alla faccia dei soliti funboy che ancora tirano fuori la storia dei driver AMD quando esauriscono gli argomenti) siccome al PC ho collegato anche la TV gestire 2 display è una tragedia, e sono oramai più di 2 anni che questo problema persiste e nVidia non lo ha ancora risolto.
Il prezzo è relativo,la gtx 970 la venderanno usata a 200 euro,fine della storia del prezzo,come faro io tra l'altro.
Schede video che vanno uguale alla generazione vecchia di amd,ma consumano meno non se le fila nessuno,hanno già provato con i processori a puntare sul prezzo,non li ha presi nessuno.
Un floppone pazzesco sta scheda video,nessuno abbandona Nvidia per Amd con tutti i casini di driver e cattiva ottimizzazione dei giochi per avere meno consumi. Dovevano puntare alla gtx 1070 con una scheda video sui 300 euro,ma ormai Amd è comandata da paperino e i suoi tre nipotini.
veramente i casini di drivers e cattiva ottimizzazione io li ho trovati lato Nvidia.
dal 2010 a settembre 2015 con amd nessun problema, da settembre 2015 ad oggi con nvidia sono riucito ad istallare i meno peggio e non sono assolutamente soddisfatto.
secondo me chi ha nvidia e parla male dei drivers AMD significa che non e' a conoscenza di entrambe le situazioni.
ho provato a dare fiducia ad Nvidia (spinto dal prezzo basso e consumi) ma me ne sto pentendo amaramente.
prossimo giro si torna in AMD e chiudo con le ''commercialate'' nvidia.
veramente i casini di drivers e cattiva ottimizzazione io li ho trovati lato Nvidia.
dal 2010 a settembre 2015 con amd nessun problema, da settembre 2015 ad oggi con nvidia sono riucito ad istallare i meno peggio e non sono assolutamente soddisfatto.
secondo me chi ha nvidia e parla male dei drivers AMD significa che non e' a conoscenza di entrambe le situazioni.
ho provato a dare fiducia ad Nvidia (spinto dal prezzo basso e consumi) ma me ne sto pentendo amaramente.
prossimo giro si torna in AMD e chiudo con le ''commercialate'' nvidia.
io li continuo ad avere con AMD..
le vecchie nvidia mi pilotano il monitor in DVI, ma sulle ATI il monitor connesso in DVI lo vedi solo al post, poi nero...
su un altro monitor la gestione nvidia delle risoluzioni custom e' pessima, ma almeno funziona, su ati l'hanno messa ora e fa' quello che gli pare comunque... nonpuoi gestire risoluzioni ridotte e spostarle dove vuoi, te le mette comunque sempre centrate.
quella e' comunque una questione di monitor... infati non vorro' piu acer manco se me li regalano... e anche samsung non scherza... ma quelli sono tv economici, non monitor.
Oltretutto il tuo atteggiamento verso di chi sta parlando civilmente da so tutto io no lo trovo costruttivo. E no guarda non ti prendere la pena di spiegarmi nulla, gli aruspici non mi sono mai andati a genio.
aspetta le specifiche, allora...
son pagine e pagine che scrivi, e sembra che non ti piaccia farlo senza avere dati dichiarati o reali in mano... allora perche' scrivi?
compra direttamente, se la trovi, una 1080, di quella hai anche i benchmark, e gioca contento.
blackshard
02-06-2016, 00:51
leggete sempre quel che volete leggere...
per voi cosa significa "GPU utilizzation xx%"?
e vi pare logico che 2 schede in CF che vanno singolarmente come una 390 possano euguagliare le prestazioni di una 1080 usando la meta' delle proprie risorse, sapendo inoltre che il CF decurta la potenza delle schede per l'overhead del 35-38%?
allora una sola andrebbe di piu'...e logica conclusione.
in quella slide stanno solo evidenziando che il consumo di una singola RX 480 e' del 51% rispetto al consumo di una 1080 che gira al 98.7% del possibile potenziale che ha (che e' in pratica l'overclock che setta in automatico e dinamicamente il tool boost 3.0).
2 RX 480 in CF (con tutte le limitazioni che porta) consumano il 102% di una 1080 nel suo pieno potenziale (ossia 225W, ossia PCIe+8PIN)....
e vanno di piu'.
RX 480 consuma 114W;
228W in coppia, ma hanno, insieme, anche il doppio della ram e 2 ventole da alimentare.
stanno semplicemente dicendo che la scheda che si scontrera' contro 1080 (e che sara' un chip vega cut da 3072 SP a 1266-1500mhz con 8GB di GDDR5x, nominata RX 490x) andra' di piu' e consumera' meno.
e intrinsecamente stanno dicendo che a fondere la 1080 non si superano i 60fps in 4K.
per fargli fare 58.7 alla 1080 sei in 4K extream:
http://www.ashesofthesingularity.com/metaverse#/personas/812cec85-aeeb-4325-b42b-2cb79f76c78b/match-details/629c5c3f-6ae9-406f-97a6-209edc9cea63
ma se si guarda il livello medio di processore e punteggio:
http://www.ashesofthesingularity.com/metaverse#/ladders/benchmark/overall/High_4k?viewType=myself&filters={%22gpu%22:%22NVIDIA%20GeForce%20GTX%201080%22}
e' facile intuire che erano ben oltre il clock di default, la stavano usando a 2100mhz, al limite della scheda, al limite dell'alimentazione.
questa e' una 390:
http://www.ashesofthesingularity.com/metaverse#/personas/798bd264-719e-4050-a989-77e5a967282e/match-details/d6c3d7af-2f31-4558-8feb-33a5c4fc38d6
quindi una rx 480
50x2 in CF fanno 100;
100-37.5% siamo a 62.5fps.
ma guardate il processore che ci vuole...
le DX12 necessitano di core, non solo di frequenza, e maxwell non glie ne e' mai fregato nulla di avere tanti core per giocare.
quindi, cari miei, comevolevasidimostrare, ancora leggete SOLO quello che volete e pensate SOLO in una direzione.
io non capisco come la gente ancora vi risponda.
:ave:
Stesso identico ragionamento che ho fatto io e medesime conclusioni!!
Dopo aver capito che soggetto sei, lo farò senz'altro...
Pare che vuoi dimostrare che sei "grande", ma sinceramente ti sei perso per strada delirando...
"Anno di iscrizione forum? Console vecchia nella news? Hai smesso di giocare quando io ancora dovevo essere concepito? "
:doh:
Inoltre se dici che non ti frega di parlare in termini tecnici, allora evita di farlo, soprattutto su cose che non sai. Quindi non lamentarti poi se te lo fanno notare.
Per il resto, buona continuazione.
ma, vedi, hai interpretato male...come era pronosticabile.
quello che ti ho scritto non lo devi intendere come:
"Lei non sa' chi sono io!"
ma come:
"tu non sai chi sono io, perche' mi devi rompere i maroni?"
non ti piace? il mondo e' in gran parte libero, vario e soprattutto molto grande.
e soprattutto: la logica non la devi conoscere, la devi saper applicare..
e quando scrivo che qualcuno non guarda ad un palmo dal proprio naso e' perche' certa gente non guarda oltre se stessa.
tu sai guardare oltre?
allora non farmi rispondere ad un eventuale replica.
Dragon2002
02-06-2016, 01:29
veramente i casini di drivers e cattiva ottimizzazione io li ho trovati lato Nvidia.
dal 2010 a settembre 2015 con amd nessun problema, da settembre 2015 ad oggi con nvidia sono riucito ad istallare i meno peggio e non sono assolutamente soddisfatto.
secondo me chi ha nvidia e parla male dei drivers AMD significa che non e' a conoscenza di entrambe le situazioni.
ho provato a dare fiducia ad Nvidia (spinto dal prezzo basso e consumi) ma me ne sto pentendo amaramente.
prossimo giro si torna in AMD e chiudo con le ''commercialate'' nvidia.
Io ho avuto per anni amd,va beh che diventavano sempre più forni di anno in anno,ma avevo sempre problemi con i giochi,le prime settimane se ti dice bene prestazioni almeno il 30% inferiori rispetto a schede Nvidia con le stesse prestazioni,se ti dice male il gioco in questione non funziona proprio,poi sistemano per carità,ma la scimmia per un gioco è subito non dopo 2 settimane. Ho avuto una marea di schede Ati,so di cosa parlo. Ho una gtx 970 da un paio di anni e non ho mai avuto il minimo problema con i giochi.
A parte tutto il flame inutile su questo forum per una slide, e' inutile scontrarsi ora su quale scheda sia meglio oggi con generazioni di giochi vecchie o in DX 11, o analizzare le prestazioni su quei 2 3 giochi disponibili in DX 12.
Atteniamoci ai fatti, cioè che il vecchio paradigma e' che schede come la 980ti sono pesantemente cpu bottlenecked soprattutto a risoluzioni piu basse, mentre il futuro e' scaricare il carico sulla GPU (ed e' per questo che con le DX 12 anche le cpu piu antiche avranno benefici in termini di fps prodotti) e questo si fa con l'asynchronous compute. Questo e' il futuro, che lo si accetti o no.
E a oggi, Polaris e' parecchio piu ottimizzata sotto questo aspetto, che per altro influenzerà tutti i giochi 3 anni da oggi.
Questo non vuol dire che Nvidia non li riprendera mai o stara con le mani in mano, ma non vuol dire nemmeno che scommettere su AMD sia una cosa azzardata, anzi considerando quanta differenza ci sia tra schermi GSYNC e freesync in termini di prezzo, appare a molti la scelta piu saggia.
http://gamegpu.com/images/stories/Test_GPU/strategy/Total_War_Warhammer/test/tww_pr.jpg
AMD ha anche fornito una preview build in DX12 del gioco:
http://cdn.mos.cms.futurecdn.net/eWbftusixdWfrSR3eJWnmF.png
http://cdn.mos.cms.futurecdn.net/oQ6VTF2hyVjghFsWafnHcH.png
Per altro, e' uscito fuori un bench con sisoftsandra di una nuova scheda AMD (ie: RX 480 ;) ) che si piazza sopra la 980ti
Ecco il link:
http://ranker.sisoftware.net/show_run.php?q=c2ffcdf4d2b3d2efdce4dde4d5e5c3b18cbc9aff9aa797b1c2ffc7&l=en
Da notare come la frequenza sia 1266 Mhz.
io l'ho capita cosi',se una 480 ottimizzata per bassi consumi la overclocchi,i consumi si alzano molto velocemente non raggiungendo comunque le 1070/1080
in cross invece e' possibile tenerle "tranquille" ottenendo prestazioni equiparabili a una 1080 a un consumo perfino inferiore e a una frazione del costo:eek: :D
il marketing amd spesso e' inconcepibile,ma questa volta dobbiamo dargli ragione
quando arrivarono i 28nm,la prima fu' amd con la 7970,e poco dopo nvidia rispose con la 680,andavano quasi uguali ma il marketing nvidia fece credere che la sua soluzione era migliore,andate a vedere che fino ha fatto la povera 680 grazie al mitico supporto e driver leggendari nvidia:mad:
adesso invece con i 16-14nm nvidia presenta una gpu di classe simile,ma attenzione amd non la segue e offre prima prodotti mainstream,praticamente polaris e' il successore di pitcairn,la 7870 oggi declassata in fascia bassa r7 370
ci state arrivando?
praticamente oggi amd ha presentato un giocattolo:eek:
il bello che molti non hanno capito e stanno imprecando sul perche non compete con le 1070/1080:doh:
ma per la miseria il prezzo e' uno spoiler grande come:sofico:
amd fa bene a puntare su questa fascia,economica e moderna(hdr,vr,dx12..etc) gia' al day-one,deve recuperare tanto share e una scheda costosa non lo permette,mettici pure che se disgraziatamente faceva un paio di fps in meno in qualche gioco e...megafail(per i verdi al massimo ci giochi a pacman:doh:)
giustamente amd per pubblicizzare il suo prodotto fa leva con i suoi pro,prestazioni da fascia alta precedente,ma bassi consumi a tal punto che due in cross costano meno consumando meno della 1080 andando uguale,sarebbe stato considerato impossibile fino a oggi:eek:
eppure noto alcuni che continuano a girare nel thread particolarmente frustrati,si capisce che non riuscite a lasciare nvidia e vedere che un giocattolo rischia di raggiungere una gpu da 800€...
e "dateje foco" a sta bandiera;)
tanto piu' che se amd recupera share,di riflesso recupera anche un'altro burst di un 5~15% dalle ottimizzazioni negate delle sh attualmente
GTX 980 e GTX 970 con un calo del prezzo.
Una 980 nuova a 250€... oddio.
AleLinuxBSD
02-06-2016, 06:46
Fare schede che consumano 150W a singolo slot, porta con sè molti compromessi a livello di temperature (e già lavorano a 82°C le FE) e rumore.
Basta mettere un sistema di raffreddamento più efficiente (ad aria, con una ventola più grande, anche se incide un po' sull'altezza complessiva, cosa però del tutto ininfluente considerando lo spazio comunque necessario lato Cpu).
Non vedo come un sistema a doppio slot, più ingombrante, riesca da solo, a migliorare la situazione.
PaulGuru
02-06-2016, 07:11
A parte tutto il flame inutile su questo forum per una slide, e' inutile scontrarsi ora su quale scheda sia meglio oggi con generazioni di giochi vecchie o in DX 11, o analizzare le prestazioni su quei 2 3 giochi disponibili in DX 12.
Atteniamoci ai fatti, cioè che il vecchio paradigma e' che schede come la 980ti sono pesantemente cpu bottlenecked soprattutto a risoluzioni piu basse, mentre il futuro e' scaricare il carico sulla GPU (ed e' per questo che con le DX 12 anche le cpu piu antiche avranno benefici in termini di fps prodotti) e questo si fa con l'asynchronous compute. Questo e' il futuro, che lo si accetti o no.
E a oggi, Polaris e' parecchio piu ottimizzata sotto questo aspetto, che per altro influenzerà tutti i giochi 3 anni da oggi.
Questo non vuol dire che Nvidia non li riprendera mai o stara con le mani in mano, ma non vuol dire nemmeno che scommettere su AMD sia una cosa azzardata, anzi considerando quanta differenza ci sia tra schermi GSYNC e freesync in termini di prezzo, appare a molti la scelta piu saggia.
http://gamegpu.com/images/stories/Test_GPU/strategy/Total_War_Warhammer/test/tww_pr.jpg
AMD ha anche fornito una preview build in DX12 del gioco:
http://cdn.mos.cms.futurecdn.net/eWbftusixdWfrSR3eJWnmF.png
http://cdn.mos.cms.futurecdn.net/oQ6VTF2hyVjghFsWafnHcH.pngTraggono benefici fino ad un certo punto.
Gli i3 pagano ancora pegno e parecchio.
E fra l'altro si sente ancora la differenza relativa alla frequenza operativa.
tel aral
02-06-2016, 09:29
Ma come mai Nvidia ha tali problemi di driver?
io l'ho capita cosi',se una 480 ottimizzata per bassi consumi la overclocchi,i consumi si alzano molto velocemente non raggiungendo comunque le 1070/1080
in cross invece e' possibile tenerle "tranquille" ottenendo prestazioni equiparabili a una 1080 a un consumo perfino inferiore e a una frazione del costo:eek: :D
il marketing amd spesso e' inconcepibile,ma questa volta dobbiamo dargli ragione
quando arrivarono i 28nm,la prima fu' amd con la 7970,e poco dopo nvidia rispose con la 680,andavano quasi uguali ma il marketing nvidia fece credere che la sua soluzione era migliore,andate a vedere che fino ha fatto la povera 680 grazie al mitico supporto e driver leggendari nvidia:mad:
adesso invece con i 16-14nm nvidia presenta una gpu di classe simile,ma attenzione amd non la segue e offre prima prodotti mainstream,praticamente polaris e' il successore di pitcairn,la 7870 oggi declassata in fascia bassa r7 370
ci state arrivando?
praticamente oggi amd ha presentato un giocattolo:eek:
il bello che molti non hanno capito e stanno imprecando sul perche non compete con le 1070/1080:doh:
ma per la miseria il prezzo e' uno spoiler grande come:sofico:
amd fa bene a puntare su questa fascia,economica e moderna(hdr,vr,dx12..etc) gia' al day-one,deve recuperare tanto share e una scheda costosa non lo permette,mettici pure che se disgraziatamente faceva un paio di fps in meno in qualche gioco e...megafail(per i verdi al massimo ci giochi a pacman:doh:)
giustamente amd per pubblicizzare il suo prodotto fa leva con i suoi pro,prestazioni da fascia alta precedente,ma bassi consumi a tal punto che due in cross costano meno consumando meno della 1080 andando uguale,sarebbe stato considerato impossibile fino a oggi:eek:
eppure noto alcuni che continuano a girare nel thread particolarmente frustrati,si capisce che non riuscite a lasciare nvidia e vedere che un giocattolo rischia di raggiungere una gpu da 800€...
e "dateje foco" a sta bandiera;)
tanto piu' che se amd recupera share,di riflesso recupera anche un'altro burst di un 5~15% dalle ottimizzazioni negate delle sh attualmente
eh.. almeno qualcuno la usa ancora la testa per ragionare! grazie!
si... i chip AMD non saliranno, o meglio perderanno molta della propria efficienza e una 480 non arrivera' comunque ad una 1070, che a sua volta puo' essere settata sui 2Ghz senza pena a fargli succhiare 220W.
finfet, per com'e' non scala bene la frequenza (e sara' un anno che a slide lo stanno dicendo al pubblico).
quindi meglio puntare sulla modularita', come sulle CPU; si adeguera' il software, visto che l'80% dell'HW girera' su questo principio: console.
gia' le vecchie console sono basate su questo, e sono 60 milioni di pezzi in giro per il mondo;
le nuove console metteranno direttamente una polaris dentro il case, senza stare a fare una APU, che non puo' garantire, per ora, scaling prestazionale... belle, tuttoinuno, ma semplicemente troppo grandi per dover gestire quello che hanno intenzione di fargli gestire.
e poi non conviene nemmeno... gia' tutto l'HW e' disponibile, perche' spendere in ingegnerizzazione se lo hai gia' e consuma poco?
gia' grazie alle console hanno risparmiato molto,con un unico progetto coprono piu' fascie e settori
poi e' da notare che grazie al nascente mercato della vr,il multi-gpu sara' implementato nativamente,non si rischia come prima che i giochi andavano ogni 3x2
questa volta tutti hanno interesse a ottimizzare l'esperienza d'uso:)
per curiosita' ma con il limite di 150w,la 480 fino dove potrebbe arrivare in freq:confused:
Traggono benefici fino ad un certo punto.
Gli i3 pagano ancora pegno e parecchio.
E fra l'altro si sente ancora la differenza relativa alla frequenza operativa.
i3 4330 3.5 = 32/23 dual core
i5 4670K 3.4 = 41/31 quad core
i7 3970x 3.5 = 53/42 octa core
FX 9590 4.7 = 48/36 BD 8 core
FX 8350 4.0 = 41/31 BD 8 core
a pari architettura CPU:
su frequenza (BD) differenziale Ghz/differenziale FPS(min) = 1,175/1,170(1,16)
su numero di core (intel)
i3/i5 dCore/dFPS = 2/1,28125(1,095)
i5/i7 dCore/dFPS = 2/1,292(1,354)
i3/i7 dCore/dFPS = 4/1,65625(1,826)
ddCore/ddFPS tra' i3/i7 e i3/i5 = 2/1,2926
ddCore/ddFPS tra' i3/i7 e i5/i7 = 2/1.2819
ddCore/ddFPS tra' i3/i5 e i5/i7 = 1/1
questo ti fa' capire che questo gioco , nel dominio di non limitazione da fattori esterni, e' linearmente dipendente dalla frequenza del processore con fattore 1, ma che lo e' allo stesso modo in ragione del numero di core applicati.
la semplice questione e' che e' molto difficile trovare processori che abbiano il doppio della frequenza (o comunque portarli a quel livello), ma e' molto piu' comune trovare processori che abbiano il doppio dei core.
e tutto questo su un gioco che dovrebbe fare estremo uso di AC usando un'architettura grafica che non sfrutta AC se non in emulazione software, come e' Maxwell, e quindi poco oltre con Pascal.
se fai uno SLI di 1070 otterresti piu' o meno gli stessi differenziali (e poco piu' in quanto a FPS).
se prendi un'architettura AC, come fury o polaris, vedrai che il differenziale sulla frequenza e' 1, mentre sui core rimane invariato, ma con fattore di efficacia molto maggiore rispetto a 1.3 circa visto su Maxwell, visto che l'implementazione e' HW (su i3 e i5 ha un 1.6, su i5 e i7-5xxx hai la limitazione della singola scheda, quindi non sei piu' nel dominio considerato).
Pascal non si discosterebbe molto da Maxwell... la sua implementazione HW di AC e' praticamente sfruttabile solo in VR; in queste condizioni riuscirebbe a stare con un fattore incrementale sui core di intermedio tra' fury/pascal e maxwell.. purtroppo non si hanno dati in tal senso e si puo' solo estrapolare ponendo ipotesi.
l'analisi sarebbe piu' esaustiva facendo i test con 3 processori a core incrementali con set frequenza crescente.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.