View Full Version : AMD conferma, nuovamente, il debutto di Vega entro fine giugno
Redazione di Hardware Upg
26-04-2017, 09:31
Link alla notizia: http://www.hwupgrade.it/news/skvideo/amd-conferma-nuovamente-il-debutto-di-vega-entro-fine-giugno_68353.html
Sulla propria pagina Facebook AMD conferma che il debutto delle prime schede video basate su architettura Vega di prossima generazione avverrà nel corso del secondo trimestre 2017
Click sul link per visualizzare la notizia.
nickname88
26-04-2017, 10:19
A questo punto direi che ci stiamo avvicinando ad un anno di distanza con le soluzioni Nvidia
Portocala
26-04-2017, 11:03
Saranno delle RX480 pompate ancora di più delle RX580?
Io voglio una RX590 o 590X!
nickname88
26-04-2017, 11:14
Saranno delle RX480 pompate ancora di più delle RX580?
Io voglio una RX590 o 590X!
in teoria dovrebbe competere con la 1080Ti
Gyammy85
26-04-2017, 11:22
A questo punto direi che ci stiamo avvicinando ad un anno di distanza con le soluzioni Nvidia
Eh già, il peggior ritardo di sempre...però è servito ad avere 2 uber titan :eek:
CrapaDiLegno
26-04-2017, 12:04
A questo punto direi che ci stiamo avvicinando ad un anno di distanza con le soluzioni Nvidia
A questo punto è lecito affermare che hanno iniziato a lavorare su Vega nel momento in cui hanno visto quante bastonate stavano prendendo da Maxwell e che nessuna revisione di GCN li avrebbe salvati.
Dal rilascio di Vega (sempre che avverrà davvero per il Q2) al lancio di Maxwell sono passati 3 anni giusti giusti.
in teoria dovrebbe competere con la 1080Ti
Visto che hanno un anno di ritardo, Volta non è distante e usano costosissima HBM2, si spera che vadano decisamente meglio della 1080Ti senza trucchi di extreme overclock e consumi da fornace (aka 580, che è un assurdo.. chip più grande con PP più denso, più TFLOPS teorici, maggiori consumi ma ancora serve un overclock fuori range per arrivare a pareggiare il GP104!). L'architettura deve mostrare di essere competitiva, o saranno punto e a capo con la questione costi, nessun margine e nvidia che farà per un altro paio di anni quello che meglio crede (tipi vendere chippetti da 300mm^2 come top gamma).
Se con chippone e HBM2 fa quanto la 1080Ti che ha un chip da 470mm^2 e consuma 250W con 12GB di GDDR5X a bordo (che da sola si pappa almeno 50W) allora non ha fatto bene i compiti a casa e siamo a livello di Fiji vs GM200.. con un ritardo di 12 mesi, però.
HwWizzard
26-04-2017, 12:04
in teoria dovrebbe competere con la 1080Ti
Per avere un senso deve battere la Titan Xp e anche abbastanza nettamente. NVidia mica sta dormendo, Pascal è un mezzo flop come IPC rispetto a Maxwell quindi mi aspetto un gran salto da Volta. Ipotizzo una 1180 liscia oltre la Titan come prestazioni, quindi Vega TOP deve superare la Titan di almeno un 15-20% medio. Altrimenti AMD non eroderà nulla ad nVidia, le 5XX consumano come la 1080Ti e vanno meno della 1060.
CrapaDiLegno
26-04-2017, 12:20
Per avere un senso deve battere la Titan Xp e anche abbastanza nettamente. NVidia mica sta dormendo, Pascal è un mezzo flop come IPC rispetto a Maxwell quindi mi aspetto un gran salto da Volta. Ipotizzo una 1180 liscia oltre la Titan come prestazioni, quindi Vega TOP deve superare la Titan di almeno un 15-20% medio. Altrimenti AMD non eroderà nulla ad nVidia, le 5XX consumano come la 1080Ti e vanno meno della 1060.
Mezzo flop perché?
Visto che è costato praticamente nulla a nvidia fare lo shrink di Maxwell con 4 modifiche al dispatcher dei thread (non diversamente da Polaris che è un tappa buchi per AMD), non direi che è "un mezzo flop". Se conti che la 1070 con 6.5TFLOPS tiene a bada la Fury X con 8.6 TFLOPS, il calcolo delle IPC è tutto relativo. La 1060 fa 4.3TFLOPS, la 480 ne fa 5.8 (la "nuova" 580 circa 6TFLOPS) e la vecchia 980 (che va quanto la 1060) fa 5TFLOPS, vedi un po' quanto la questione "IPC rispetto a Maxwell è un flop".
Per il resto concordo: con la tecnologia (e il ritardo ) che AMD sta usando, le prestazioni di Vega DEVONO essere superiori a quelle della 1080Ti (o TitanX che sia).
A questo punto direi che ci stiamo avvicinando ad un anno di distanza con le soluzioni Nvidia
Ormai più che di ritardo, con l'uscita della serie 5xx, io parlerei di rinuncia: hanno rinunciato alla fascia alta per la serie 4xx e l'hanno posticipata alla serie successiva, completando la gamma delle 5xx (peccato che queste ultime siano praticamente rebrand).
... e che nessuna revisione di GCN li avrebbe salvati.
Vega è una revisione di GNC... quindi di che stiamo parlando?
L'architettura deve mostrare di essere competitiva, o saranno punto e a capo con la questione costi, nessun margine ...
Questo è il punto.
Ma ti ricordo che AMD accede alle fonderie di globalfoundries con contratti vantaggiosi e che i 14nm di globalfoundries non sono allo stesso livello dei 16nm di TSMC.
Quindi non dimenticare che il fattore "costo" non dipende solo dalla dimensione del chip ma dal livello di rese che si vuole ottenere e dal contratto con la fonderia, che è determinante, e AMD non a caso si serve da globalfoundries.
con la tecnologia (e il ritardo ) che AMD sta usando, le prestazioni di Vega DEVONO essere superiori a quelle della 1080Ti (o TitanX che sia).
Da come ne parli sembra che AMD utilizzi una tecnologia inferiore, invece si tratta di scelte architetturali che, ti ricordo, vedono le schede AMD avanti in diversi ambiti nel supporto delle moderne API grafiche.
Io comunque non vedo perchè Vega debba stracciare le Titan: sicuramente sarebbe un bene per AMD se lo facesse, ma a parità di processo produttivo (anzi...), con una tecnologia più orientata al calcolo, sarebbe a mio parere già ottimo un pareggio.
Ale55andr0
26-04-2017, 13:26
Se con chippone e HBM2 fa quanto la 1080Ti che ha un chip da 470mm^2 e consuma 250W con 12GB di GDDR5X a bordo (che da sola si pappa almeno 50W) allora non ha fatto bene i compiti a casa e siamo a livello di Fiji vs GM200.. con un ritardo di 12 mesi, però.
Il chip è dato sui 500mm2, non mi pare di confrontare una mattonella con un peso piuma quindi. Le hbm2 non danno più prestazioni, il mezzo tera di banda lo si ha anche con le gddr5x 11gbps. Le usano per vantaggi di tipo energetico il quale, nessuno nega, gli torna comodo almeno ad oggi
Mezzo flop perché?
Visto che è costato praticamente nulla a nvidia fare lo shrink di Maxwell con 4 modifiche al dispatcher dei thread (non diversamente da Polaris che è un tappa buchi per AMD), non direi che è "un mezzo flop". Se conti che la 1070 con 6.5TFLOPS tiene a bada la Fury X con 8.6 TFLOPS, il calcolo delle IPC è tutto relativo. La 1060 fa 4.3TFLOPS, la 480 ne fa 5.8 (la "nuova" 580 circa 6TFLOPS) e la vecchia 980 (che va quanto la 1060) fa 5TFLOPS, vedi un po' quanto la questione "IPC rispetto a Maxwell è un flop".
Per il resto concordo: con la tecnologia (e il ritardo ) che AMD sta usando, le prestazioni di Vega DEVONO essere superiori a quelle della 1080Ti (o TitanX che sia).
I tflop come dici non c'entrano col frame rate dei videogiochi e che nei calcoli teorici puri sono brutali non è una novità quindi. E non deve battere la titan xp, ma deve fornire prestazioni di buon livello senza sfondare gli ani a livello monetario. Nel mercato cio che manca non sono più prestazioni in termini assoluti, per quanto non faccia certo schifo alzare amcora l'asticella eh, ma averle a prezzi meno osceni. Se avesse le prestazioni di una ti a 500 per dire, solo un folle si lamenterebbe. Il vero problema è la strategia che ha lasciato a digiuno per un anno chi vuole scelta.
Comunque è sempre una rassicurante costante vederti onnipresente negli articoli amd per ricordarci quanto faccia cagare, levando gli inutili filtri :D attendiamo con ansia un contributo prezioso di mikelezz e preghiamo per paulguru del quale ci hanno privato :cry:
HwWizzard
26-04-2017, 13:33
Mezzo flop perché?
Visto che è costato praticamente nulla a nvidia fare lo shrink di Maxwell con 4 modifiche al dispatcher dei thread (non diversamente da Polaris che è un tappa buchi per AMD), non direi che è "un mezzo flop". Se conti che la 1070 con 6.5TFLOPS tiene a bada la Fury X con 8.6 TFLOPS, il calcolo delle IPC è tutto relativo. La 1060 fa 4.3TFLOPS, la 480 ne fa 5.8 (la "nuova" 580 circa 6TFLOPS) e la vecchia 980 (che va quanto la 1060) fa 5TFLOPS, vedi un po' quanto la questione "IPC rispetto a Maxwell è un flop".
Per il resto concordo: con la tecnologia (e il ritardo ) che AMD sta usando, le prestazioni di Vega DEVONO essere superiori a quelle della 1080Ti (o TitanX che sia).
Mezzo flop perché di fatto è sempre Maxwell e quindi niente surplus di prestazioni se non quelle date dall'aumento delle freq. Non misurare i TFLOPS io misuro quello che mi da nei giochi e di quello ho scritto. Per il resto nulla da dire la mia 1070 non raggiunge mai i 60 gradi e frulla a 2Ghz praticamente inudibile.
... Anche tra le VGA.
Comunque vada la fine del monopolio delle CPU è stato decretato, e se AMD facesse lo stesso pure lato VGA non può che essere una manna (non canna... Manna.. Benigni docet, quando ancora era un comico e non un venduto alla politica).
Se uscisse una Vega anche del 10% meno veloce della Titan ma il 40% più economica io sarei comunque felice.
In fondo tutti quelli che hanno un monitor Full HD non oltre i 60Hz (e credo siano più del 50% dell'utenza), avere una Vega sui 250-300 Euro sarebbe un sogno ad occhi aperti:
*) pieno supporto alle dx12 (che a mio avviso ci accompagneranno per tanti anni, almeno per un altro giro di console)
*) pieno supporto a Mantel (che se gli sviluppatori lo supportassero in blocco, il 40% degli utenti non lascerebbe più Windows 7 per il 10)
*) memoria HBM2 non più colli di bottiglia in nessun scenario (Full-hd ... parlo di Full-hd non 4k)
*) concorrenza.. conccorenza...concorrenza...
Che dire di più?? Aspettiamo le APU 6 core SMT con VGA Vega embedded per i portatili, con basse frequenze e consumi irrisori. Dei veri Desktop Replacement sotto i 2 chili di peso.
tuttodigitale
26-04-2017, 13:44
Dal rilascio di Vega (sempre che avverrà davvero per il Q2) al lancio di Maxwell sono passati 3 anni giusti giusti.
premesso che tra Maxwell e Pascal cambia relativamente molto poco, quindi sarebbe bastato semplicemente che AMD avesse investito maggiori risorse su Polaris, per avere una efficienza che non fosse solo pari a quella di Fiji...
l'intento di Polaris era soprattutto quello di ridurre i costi produttivi di Tahiti e Hawaii...soluzioni che in origine era state pensate per essere vendute a 400-500 euro e non 170-260 delle rx470-480....
una gestione oculata delle finanze non investirebbe mai più risorse del necessario....e abbassare il consumo della RX480 di 50W è tutto fuorchè che essenziale (ma possibilissimo come dimostra l'andamento dei consumi della VGA praticamente identici a quelle viste nelle vecchie gpu kepler e Hawaii)....tanto che i produttori, ancora prima di AMD, hanno deciso di andare oltre....se Polaris non fondesse con un consumo di 300W stai sicuro che l'avrebbero non solo proposta ma anche riuscita a vendere una simile soluzione...
il reale vantaggio di nvidia è dato dalla maggior efficienza nell'utilizzo della bandwidth...per il resto è una architettura fortemente orientata alle esigenze attuali dei giochi...(addirittura le prestazioni della 1070 stanno già iniziando a decadere al vantaggio della 980ti...)
Per il resto se c'è un chip che pare introdurre effettive novità dai tempi di G80 questo è proprio VEGA....;)
*) pieno supporto a Mantel (che se gli sviluppatori lo supportassero in blocco, il 40% degli utenti non lascerebbe più Windows 7 per il 10)
Giusto un appunto.
Mantle (e non mantel :p ) non è più supportato lato consumer e non verrà più supportato.
Il codice di Mantle è defluito in Vulkan (Khronos group, quelli delle OpenGL), quindi alla fine non si sente più il bisogno di supportare Mantle se non in ambiti specifici.
Per le HBM i vantaggi sono la semplicità del controller (spazio risparmiato sul die), l'ampia bandwidth (comunque in linea di massima raggiungibile dalle nuove GDDR) e i consumi ridotti. Gli svantaggi maggiori sono legati al costo (tecnologia nuova e necessità di interposer).
In Fiji forse erano un po' premature, ora secondo me potrebbero già avere molto più senso, vedremo i risultati con Vega.
Ale55andr0
26-04-2017, 13:57
... Anche tra le VGA.
Aspettiamo a dirlo che per ora ci hanno appioppato solo un rebrand :stordita:
comunque vada la fine del monopolio delle CPU è stato decretato
Aspettiamo a dirlo pure qui, perchè sebbene ryzen sia una gran bel prodotto, dallo straordinario rapporto prezzo prestazioni, purtroppo siamo ancora in alto mare per predire recuperi effettivi di livello, mi basta riportare quanto vissuto qualche giorno fa, quando dopo aver venduto una console a un ragazzo vedendo che ero appassionato di pc mi chiese che configurazione potevo consigliargli per fare montaggi video e foto e appena citata amd mi ha detto "ma se tutti dicono che è scarsa?!"
E questo è uno scenario comunissimo...dimmi tu come può finire un monopolio del genere quando la gente è alimentata a pane&stronzate? :muro:
Ale55andr0
26-04-2017, 14:02
Giusto un appunto.
Mantle (e non mantel :p ) non è più supportato lato consumer e non verrà più supportato.
Essendo defluito in vulkan come dici lo è a conti fatti. Id, che a quanto so per ora è la prima ad averci fatto un gioco, ha inoltre detto che con la loro prossima tecnologia spremeranno bene anche tutti thread di ryzen :sperem:
CrapaDiLegno
26-04-2017, 14:11
Vega è una revisione di GNC... quindi di che stiamo parlando?
Ogni nuova architetura è una "revisione" della precedente. Bisogna capire quanto è cambiato.
Vega non sarà, secondo quanto affermato da AMD stessa, quello che sono state le modifiche di GCN da 1.0 a 1.3 (o Polaris che dir si voglia, cioè praticamente nessuna realmente utile ad aumentare le prestazioni diminuendo i consumi).
Sarà una modifica più profonda che dovrebbe permettere alla architettura di raggiungere le frequenze che i PP di oggi permettono.
Questo è il punto.
Ma ti ricordo che AMD accede alle fonderie di globalfoundries con contratti vantaggiosi e che i 14nm di globalfoundries non sono allo stesso livello dei 16nm di TSMC.
Quindi non dimenticare che il fattore "costo" non dipende solo dalla dimensione del chip ma dal livello di rese che si vuole ottenere e dal contratto con la fonderia, che è determinante, e AMD non a caso si serve da globalfoundries.
Ancora questa cosa dei costi ridotti di GF. o GF usa silicio scadente o i costi per realizzare circuiti di questa complessità è simile. Il PP è di Samsung (GF ha ben poco su cui speculare), quindi è logico supporre che i costi di GF siano simili a quelli che Samsung ha nel creare le GPU di nvidia. Le dimensioni dei chip influiscono oggi come lo hanno fatto ieri e 30 anni fa. Nelle GPU così come per tutti gli altri integrati (anche per quelli di pochi mm^2 si lavora per renderli sempre più piccoli, chissà perché).
Da come ne parli sembra che AMD utilizzi una tecnologia inferiore, invece si tratta di scelte architetturali che, ti ricordo, vedono le schede AMD avanti in diversi ambiti nel supporto delle moderne API grafiche.
Questa è la solita leggenda metropolitana che non vorrei leggere in un forum di appassionati che dovrebbero capire qualcosa di più che comparare le semplici barrette colorate.
AMD non ha nessun vantaggio da nessuna parte con la sua architettura. Ha una architettura estremamente inefficiente in termini di TFLOPS erogati rispetto ai TFLOPS teorici e "il vantaggio nelle moderne API" si risolve nella capacità di queste, quando programmate ad hoc, di rimuovere parte di questa inefficienza e migliorare leggermente. Non c'è alcun miracolo né alcun vantaggio particolare. Con il silicio e i W che usano dovrebbero stare avanti alle corrispettive nvidia di almeno il 30%. Non è una scelta architetturale consapevolmente vantaggiosa quella di usare più silicio e più energia per fare quello che la concorrenza fa usando meno (e quindi costando meno). Semplicemente si tratta di tentare di mettere una pezza a quello che non si riesce ad ottenere in altra maniera.
Io comunque non vedo perchè Vega debba stracciare le Titan: sicuramente sarebbe un bene per AMD se lo facesse, ma a parità di processo produttivo (anzi...), con una tecnologia più orientata al calcolo, sarebbe a mio parere già ottimo un pareggio.
Tecnologia più orientata al calcolo cosa vuol dire? AMD abbonda di TFLOPS (teorici) rispetto alle schede nvidia. E' proprio questa abbondanza che le ha permesso in questi anni di fare qualche progresso di qualche punto percentuale rispetto alla concorrente. Motori sempre più complessi e sfruttamento di qualche punto percentuale in più delle enormi capacità di calcolo (olrtre che qualche settaggio forzato atto a diminuire la tesselation) le hanno permesso di creare la leggenda metropolitana dell'abbandono delle architetture vecchie da parte di nvidia. In realtà le sue schede continuano ad essere più grandi ed a consumare di più rispetto alla concorrenza.
La cosa strana non è che lei migliora, ma che non è già avanti e di tanto.
Il chip è dato sui 500mm2, non mi pare di confrontare una mattonella con un peso piuma quindi. Le hbm2 non danno più prestazioni, il mezzo tera di banda lo si ha anche con le gddr5x 11gbps. Le usano per vantaggi di tipo energetico il quale, nessuno nega, gli torna comodo almeno ad oggi
LE HBM2 non sono regalate né per i chip né sopratutto per il montaggio che richiede ulteriore silicio (e tanto) più la procedura di montaggio super precisa che si può fare solo nelle fabbriche dove la HBM2 è prodotta.
Quindi il loro utilizzo o ha un motivo particolare che ne compensa i costi associati o è solo per marketing.
Abbiamo già visto cosa è successo con la versione precedente spinta dal solo marketing. In questo caso con la GDDR5X che non fa tanto peggio e costa decisamente di meno non sfruttare la HBM2 significa fare appello al solo nome sulla scatola per vendere. O svendere. Vedremo.
I tflop come dici non c'entrano col frame rate dei videogiochi e che nei calcoli teorici puri sono brutali non è una novità quindi. E non deve battere la titan xp, ma deve fornire prestazioni di buon livello senza sfondare gli ani a livello monetario. Nel mercato cio che manca non sono più prestazioni in termini assoluti, per quanto non faccia certo schifo alzare amcora l'asticella eh, ma averle a prezzi meno osceni. Se avesse le prestazioni di una ti a 500 per dire, solo un folle si lamenterebbe. Il vero problema è la strategia che ha lasciato a digiuno per un anno chi vuole scelta.
I TFLOPS contano eccome con il frame rate. Ora che si hanno gli shader unificati, conta enormemente avere potenza di calcolo per gestire geometria e pixel. Il problema per AMD si chiamano TFLOPS reali e non quelli teorici di cui abbonda. I suoi reali, cioè quelli che alla fine si riesce a usare delle sue unità di calcolo sono decisamente inferiori a quelli che nvidia realizza con meno TFLOPS teorici. Tutto quanto vedi nelle nuove API è indirizzato per cercare di migliorare questo rapporto e guarda caso favorisce chi ha un divario maggiore tra teorico e reale.
La questione costi vs prezzi (che sono due cose diverse) è sempre la solita. A tutti piacerebbe avere schede della potenza della Titan a 200 euro. Allo stesso tempo mi piacerebbe che l'azienda che le propone sia anche in grado di fare i soldi necessari per continuare a sviluppare sempre migliori architetture senza rischiare di morire, non essere pianta perché sta sempre indietro non avendo capacità economiche sufficienti.
Comunque è sempre una rassicurante costante vederti onnipresente negli articoli amd per ricordarci quanto faccia cagare, levando gli inutili filtri :D attendiamo con ansia un contributo prezioso di mikelezz e preghiamo per paulguru del quale ci hanno privato :cry:
E' bello anche constatare che nonostante gli anni c'è sempre gente convinta che bastano le parole di AMD e 4 barre colorate per definire un prodotto come migliore. Salvo poi dire, ma sì, fa niente se non è meglio, costa meno.
Io sono anni che dico che AMD non sta sfornando prodotti concorrenziali (nonostante le barre colorate) e i fatti mi stanno dando ragione da... sempre.
nvidia è finita a fare quello che vuole con chippetti ridicoli e c'è ancora chi è convinto che GCN sia una buona architettura
E' palese che qualcuno non capisce la realtà ma la guarda secondo solo quello che vuole vedere. Io spero che GCN finisca nel cesso il prima possibile sostituita da qualcosa che ne rimuova le limitazioni. Allora, sono sicuro, compariranno gli eroi del momento a incensare l'architettura come in non plus ultra, il meglio del meglio, il massimo, quello che i denigratori (come me) hanno sempre negato.
La verità è che chi denigra il lavoro di AMD come me è perché vede che si può fare meglio (la concorrenza lo fa, senza se e senza ma. Punto!) e che AMD deve fare qualcosa di meglio che ritoccare GCN (come ha fatto con questa presa in giro chiamata Polaris) per riuscire a cambiare il mercato. E no, l'uso della HBM per avere la meglio sulla GDDR5X non è una soluzione sostenibile. Per quanto detto prima.
tuttodigitale
26-04-2017, 14:35
Mezzo flop perché?
Visto che è costato praticamente nulla a nvidia fare lo shrink di Maxwell con 4 modifiche al dispatcher dei thread (non diversamente da Polaris che è un tappa buchi per AMD),
a me mi viene da ridere e basta...:D
cioè secondo te ha investito meno nvidia che ha aggiornato, salvo rare eccezione, tutte le sue creature dal passaggio kepler->Maxwell->Pascal e probabilmente succedere lo stesso con Volta
AMD ha invece riservato GCN1.2 con tutte le ottimizzazioni del caso a Carrizo e a Fiji....non a caso tra la Fury e maxwell non c'è tutta questa differenza di efficienza...
Polaris è uscito per aggiornare GPU presenti nel mercato dal 2012-2013,...altro che tappabuchi.
ma anche con l'arrivo di VEGA, AMD continuerà la strada del rebrand nella fascia media.
inoltre se hai visto gli studi, le ottimizzazioni sul risparmio energetico hanno un costo allucinante possono rappresentare anche il 80% del costo di un die shrink..
se in AMD hanno deciso fin dal principio di non fare un chip GCN1.3 di fascia alta (e mi pare che sia proprio il caso), a che pro investire su tecnologie necessarie solo per la fascia alta?
tuttodigitale
26-04-2017, 14:54
Ogni nuova architetura è una "revisione" della precedente. Bisogna capire quanto è cambiato.
Vega non sarà, secondo quanto affermato da AMD stessa, quello che sono state le modifiche di GCN da 1.0 a 1.3 (o Polaris che dir si voglia, cioè praticamente nessuna realmente utile ad aumentare le prestazioni diminuendo i consumi).
Sarà una modifica più profonda che dovrebbe permettere alla architettura di raggiungere le frequenze che i PP di oggi permettono.
non c'è bisogno di una nuova architettura per abbattere i consumi...
tra GCN1.2 di Tonga e Fiji/Carrizo non cambia teoricamente niente a livello architetturale...eppure l'efficienza è diversissima......
con un nuovo processo entrano in ballo le ottimizzazioni delle librerie e tanti paltri fattori che possono condizionare non poco le prestazioni...
Sarà una modifica più profonda che dovrebbe permettere alla architettura di raggiungere le frequenze che i PP di oggi permettono.
questa potrebbe anche essere una forma di ottimizzazione per sfruttare il ridotto consumo dinamico offerto dai finfet....non c'è mica la necessità di stravolgere una architettura per raggiungere frequenze più elevate.
Invece come prima, è più che probabile che AMD non abbia voluto e/o potuto spendere più tempo del necessario su Polaris, per concentrarsi su un architettura che introducendo moltissime novità avrebbe reso inutile il tempo speso sulla quella precedente....
Ogni nuova architetura è una "revisione" della precedente. ... Vega non sarà, secondo quanto affermato da AMD stessa, quello che sono state le modifiche di GCN da 1.0 a 1.3 ...
Ovviamente, ma sempre di GNC si tratta. Tu invece ne parli come se fosse qualcosa di diverso, ma l'architettura di base è la stessa.
Non si tratta insomma di un passaggio come quello che abbiamo visto, per esempio, tra i chip vliw e GNC, dove il cambio di architettura è decisamente radicale.
quindi è logico supporre che i costi di GF siano simili a quelli che Samsung ha nel creare le GPU di nvidia...
A parte il fatto che Nvidia usa Samsung solo per la fascia bassissima, mentre qui stiamo parlando della fascia alta (infatti io il paragone l'ho fatto con TSMC), il punto non è quanto il processo costi a globalfoundries (detto tra noi... ad AMD poco importa), ma quanto costi ad AMD.
Ripeto: non è un caso che GF fossero le fonderie di AMD, non è un caso che AMD abbia dei contratti vincolanti con GF e non è un caso che stampi da loro i suoi chip nonostante la presenza sul mercato di fonderie dotate di processi produttivi migliori.
Ad AMD i chip stampati con GF costano meno di quanto le costerebbero con altre fonderie.
Poi ovviamente la dimensione del chip conta, ma come dicevo, è solo un fattore nell'equazione, quindi il ragionamento che spesso fai (chip più grande -> costo maggiore) è semplicistico e spesso errato.
PS: per giustificare quel "spesso" che ho usato, ti faccio l'esempio dei chip economici stampati oggi a 28 o persino 40 nm, che ovviamente sarebbero più piccoli se stampati a 14/16nm, ma stampare a 28nm è alla fine più conveniente... ;) )
Questa è la solita leggenda metropolitana che non vorrei leggere in un forum di appassionati ...
Il supporto al Tier3 sul binding delle risorse in GNC (da GNC 1.1 se non sbaglio) è una leggenda metropolitana?
Il problema dell'architettura Nvidia è che mentre GNC è pensato fin dall'inizio per lo sfruttamente di quelle che oggi sono le nuove API, Nvidia avrebbe dovuto modificare troppo del suo chip per adeguarsi. Dal momento che oggi i giochi sono ancora per la maggior parte DX11 e che Nvidia è leader del mercato non ha avuto la convenienza per farlo, ma in ottica futura il discorso cambia.
La speranza è che Nvidia vi ponga rimedio con Volta. Oggi rimedia con una certa "forza bruta", ma non è ottimizzando sul silicio e sulle alte frequenze che si può dire di avere l'architettura migliore o più evoluta (per quanto ovviamente le schede nvidia abbiano i loro punti di forza sotto diversi aspetti architetturali, come la compressione dei colori, il rasterizer, ecc...).
E io pensavo che un interlocutore come te fosse in grado di vedere la situazione in modo più ampio e certe cose fossero lampanti.
Tecnologia più orientata al calcolo cosa vuol dire?
Significa che rispetto alle corrispettive Nvidia di pari generazione c'è del silicio in più dedicato alle funzionalità di calcolo generico (per esempio nel rapporto tra calcolo SP e DP). Silicio che ha un costo in termini di area e consumi.
Ricordiamo che AMD continua a sviluppare le GPU nell'ottica dell'integrazione con le CPU, e questo ha influenza sulle scelte architetturali.
Che poi AMD faccia male a seguire questa strada è un altro discorso, del resto non è così facile abbandonarla visto anche come funziona il calcolo dp nelle sue GPU.
Gyammy85
26-04-2017, 15:35
E' proprio il caso di dirlo, mainagioia :asd:
e intanto un bastimento di 1070/1080 che nvidia aveva preparato per hwupgrade è ancora li ad aspettare di essere acquistato...
Quindi nemmeno a maggio usciranno ste schede video? :( :(
Le 1080 stanno scendendo di prezzo, mi sa che ne prendo una.
Quindi nemmeno a maggio usciranno ste schede video? :( :(
Non si sa. L'unica cosa nota è che usciranno questo trimestre.
Ad ogni modo maggio, a questo punto, mi sembra abbastanza improbabile, è alle porte e ancora non si sanno neppure i modelli che saranno commercializzati.
Immagino che si saprà qualcosa di più al computex a fine maggio, suppongo la presentazione dei modelli e la data di commercializzazione.
CrapaDiLegno
26-04-2017, 17:40
a me mi viene da ridere e basta...
cioè secondo te ha investito meno nvidia che ha aggiornato, salvo rare eccezione, tutte le sue creature dal passaggio kepler->Maxwell->Pascal e probabilmente succedere lo stesso con Volta
Eh? Chi ha detto questo?
Io ho detto che Pascal è costato nulla ad nvidia (la versione consumer quantomeno, la versione professional è tutta un'altra cosa).
Quella che non ha investito se non gli spiccioli in R&D negli ultimi anni è stata AMD che dopo aver continuato a proporre Terascale in tutte le salse è passata ad un meno che nobile GCN che si è trascinata per 4 revisioni. Il risultato è visibile a tutti.
Poi magari tu vivi nel mondo dove puoi ridere della situazione di AMD. Io invece piango.
AMD ha invece riservato GCN1.2 con tutte le ottimizzazioni del caso a Carrizo e a Fiji....non a caso tra la Fury e maxwell non c'è tutta questa differenza di efficienza...
A no? Vedi dopo.
Polaris è uscito per aggiornare GPU presenti nel mercato dal 2012-2013,...altro che tappabuchi.
Che sia uscito per diminuire i costi non c'è alcun dubbio (anche se c'è chi sostiene che il silicio costa pochi centesimi al mm^2 e che AMD lo faccia pagare ancora di meno). Pure Pascal è nato per ridurre gli enormi costi di MAxwell che era sì molto efficiente ma richiedeva parecchio silicio. Poi comunque ti contraddici. O è una architettura su cui AMD ha investito o è un tappabuchi.
Visto le modifiche e i risultati a me sembra essere un tappabuchi a tutti gli effetti: non va di più di GCN 1.2, ha una frequenza massima ridicola rispetto al PP che usa ed è stato pensato solo fino a una dimensione che copre la fascia media. Se non è un tappabuchi che cosa è?
inoltre se hai visto gli studi, le ottimizzazioni sul risparmio energetico hanno un costo allucinante possono rappresentare anche il 80% del costo di un die shrink..
E quindi? nvidia ha investito nel risparmio energetico proprio con Maxwell (destinato ad entrare dei SoC ARM, come in effetti ha fatto). Investire per avere un prodotto migliore è un plus, non un minus. Non è una scusa dire che l'R&D costa e quindi presentarsi con una ciofeca sul mercato che non regge il confronto con la concorrenza da nessun punto di vista. Ah, ma tanto costa meno... certo certo.. e il bilancio di AMD piange.
se in AMD hanno deciso fin dal principio di non fare un chip GCN1.3 di fascia alta (e mi pare che sia proprio il caso), a che pro investire su tecnologie necessarie solo per la fascia alta?
Stai ribaltando la cosa. Uno non decide di fare o meno qualcosa secondo la temperatura dell'aria la mattina che si è svegliato. AMD ha fatto uno studio approfondito sui costi/guadagni nel produrre i suoi chip e ha visto che oltre una certa dimensione, quindi costi, quindi prestazioni, quindi fascia, non aveva più guadagno. E lì si è fermata.
A che pro creare un chip da 450mm^2 che forse non raggiunge le prestazioni di uno da 330 ma consumando 400W? Ovviamente non ha senso (Hawaii e Tonga docent). Da una architettura che. come ho detto prima, è solo uno shrink della precedente con 4 modifiche e nessun investimento per sfruttare il nuovo PP, che vuoi pretendere?
Se ha deciso di non fare una fascia alta con Polaris è perché ha capito che l'architettura per le prestazioni che dà non è in grado di fruttare soldi. E ho il sospetto che sono stati fin troppo ottimisti, visto che avevano dichiarato consumi <150W per Polaris 10 (e 2.5x di efficienza) per poi dover arrivare a oltre 160W per delle performance ancora sub ottimali. Inoltre credo che avessero in mente ben altri tempi di sviluppo per Vega che avrebbe di fatto prodotto i chip di alta fascia facendo risparmiare.
Invece Poalris peggio del previsto e Vega più in ritardo del previsto. Una combinazione dirompente che le ha dovuto far svendere nuovamente le sue schede (altro che rivoluzione rossa.. già dimenticati gli slogan? A be', chissene, tanto costa meno) e con altri buchi di bilancio.
Cosa che potrà avere un termine se Vega non si presenterà come Fiji: tanto fumo e pochissimo arrosto. Prenderle da una scheda con chip più piccolo, che consuma di meno e memoria GDDR5X sarebbe il colmo. Vorrebbe dire altri anni di svendita e pochi soldi per R&D.
Già comunque arriverà con meno memoria della GTX1080Ti, e per tutti quelli che ieri hanno continuato a dire che la memoria serve ed è ciò che farà la differenza, voglio poi vedere che diranno.
non c'è bisogno di una nuova architettura per abbattere i consumi...
tra GCN1.2 di Tonga e Fiji/Carrizo non cambia teoricamente niente a livello architetturale...eppure l'efficienza è diversissima......
con un nuovo processo entrano in ballo le ottimizzazioni delle librerie e tanti paltri fattori che possono condizionare non poco le prestazioni...
questa potrebbe anche essere una forma di ottimizzazione per sfruttare il ridotto consumo dinamico offerto dai finfet....non c'è mica la necessità di stravolgere una architettura per raggiungere frequenze più elevate.
Non capisco cosa vuol dire "non serve una nuova architettura".
I cambiamenti che si fanno per ottenere certe prestazioni portano ad creare architetture nuove. Maxwell è o non è una nuova architettura rispetto a Kepler? No perché? E se sì perché? Tra GCN1.0 e 1.2 non è cambiato poi molto. Tonga non consumava tanto meno di Tahiti e Fiji se l'è cavata con i consumi per l'uso del liquido che tiene le temperature basse (diminuendo i consumi) e per l'HBM (altri W in meno). Nonostante questo andava di meno del GM200 e consumava di più. Tanto che il prezzo della scheda lo ha deciso nvidia, non AMD.
Vega introdurrà diverse modifiche per riuscire a sfruttare le alte frequenze. Cambiare le unità di calcolo aumentandone le pipeline (per esempio) è o non è cambiare buona parte dell'architettura? Introdurre il Tile Texturing è o non è cambiare parte della architettura?
E sto citando solo le cose che AMD ha pubblicamente detto farà. Figuriamoci quelle che non si vedono. Io non so se Vega sarà o no una nuova architettura, e poco me ne frega: quello che vorrei è che finalmente fosse una architettura moderna che sfrutta quello che è possibile con i nuovi PP usando meno risorse possibili. Copsa che oggi GCN non fa, per come e quanto ce la si rigiri con la questione costi.
Invece come prima, è più che probabile che AMD non abbia voluto e/o potuto spendere più tempo del necessario su Polaris, per concentrarsi su un architettura che introducendo moltissime novità avrebbe reso inutile il tempo speso sulla quella precedente....
E questo come va in confitto con la mia affermazione che Polaris è un tappabuchi?
Hai detto esattamente quello che penso io.
Ovviamente, ma sempre di GNC si tratta. Tu invece ne parli come se fosse qualcosa di diverso, ma l'architettura di base è la stessa.
Non si tratta insomma di un passaggio come quello che abbiamo visto, per esempio, tra i chip vliw e GNC, dove il cambio di architettura è decisamente radicale.
Passaggio radicale o meno le modifiche non saranno le 4 sciocchezze che AMD ha inteordotto in GCN 1.2 che l'hanno lasciata al palo rispetto a Maxwell.
A parte il fatto che Nvidia usa Samsung solo per la fascia bassissima, mentre qui stiamo parlando della fascia alta (infatti io il paragone l'ho fatto con TSMC), il punto non è quanto il processo costi a globalfoundries (detto tra noi... ad AMD poco importa), ma quanto costi ad AMD.
Ripeto: non è un caso che GF fossero le fonderie di AMD, non è un caso che AMD abbia dei contratti vincolanti con GF e non è un caso che stampi da loro i suoi chip nonostante la presenza sul mercato di fonderie dotate di processi produttivi migliori.
Ad AMD i chip stampati con GF costano meno di quanto le costerebbero con altre fonderie.
Poi ovviamente la dimensione del chip conta, ma come dicevo, è solo un fattore nell'equazione, quindi il ragionamento che spesso fai (chip più grande -> costo maggiore) è semplicistico e spesso errato.
PS: per giustificare quel "spesso" che ho usato, ti faccio l'esempio dei chip economici stampati oggi a 28 o persino 40 nm, che ovviamente sarebbero più piccoli se stampati a 14/16nm, ma stampare a 28nm è alla fine più conveniente... ;) )
Non facciamo confusione, per favore.
Certi chip non vale la pena aggiornarli ai nuovi PP perché i nuovi PP costano di più per mm^2 e non tutti i chip sono performance limited, per cui farli più piccoli costa in termini di R&D (rifare il layout mica è gratis, anzi) e non è sempre conveniente farlo, sopratutto se hanno vita limitata o bassa quantità.
Detto questo GPU che si vendono in milioni di pezzi entrano nella lista dei chip che sono performance limited e ad alta tiratura, quindi qualsiasi beneficio possibile in uno dei due campi prestazioni e/o costi è sempre usato dai produttori.
AMD è vincolata a GF per altri contratti che non sia la questione economica. Non credo proprio che AMD paghi meno GF di Samsung o TMSC, di certo non può usare altre fonderie senza pagare GF, quindi alla fine pagherebbe il chip due volte. Inoltre definire "di fascia alta" Polaris mi sembra davvero una esagerazione. E' un chippetto da 230mm^2 che nelle vecchie generazioni era installato sulla serie x40/x50.
Il supporto al Tier3 sul binding delle risorse in GNC (da GNC 1.1 se non sbaglio) è una leggenda metropolitana?
Tu lo sai che le classificazioni di questo tipo si fanno dopo aver creato le feature del chip? Mi sai dire quanto influenza questa capacità rispetto al Tier2? E' questa la caratteristica che fa consumare il 30% in più di corrente? O è questa che rende l'architettura GCN così inefficiente? O che non le fa superare il muro dei 1.3GHz senza richiedere una centrale nucleare per l'alimentazione? Scommeto non lo sai. Sai solo che 3 è maggiore di 2 e quindi è meglio.
Il problema dell'architettura Nvidia è che mentre GNC è pensato fin dall'inizio per lo sfruttamente di quelle che oggi sono le nuove API, Nvidia avrebbe dovuto modificare troppo del suo chip per adeguarsi. Dal momento che oggi i giochi sono ancora per la maggior parte DX11 e che Nvidia è leader del mercato non ha avuto la convenienza per farlo, ma in ottica futura il discorso cambia.
La speranza è che Nvidia vi ponga rimedio con Volta. Oggi rimedia con una certa "forza bruta", ma non è ottimizzando sul silicio e sulle alte frequenze che si può dire di avere l'architettura migliore o più evoluta (per quanto ovviamente le schede nvidia abbiano i loro punti di forza sotto diversi aspetti architetturali, come la compressione dei colori, il rasterizer, ecc...).
E io pensavo che un interlocutore come te fosse in grado di vedere la situazione in modo più ampio e certe cose fossero lampanti.
Eh? Come?
L'architettura nvidia è quella che va di forza bruta????
Dai, qui stiamo sfiorando il ridicolo. Puoi dirmi che è una architettura estremamente ottimizzata per un certo tipo di lavoro, senza che questo impatti poi più di tanto con le nuove API (tutto questo tam tam di AMD e le DX12 si risolve poi con un +10% di aumento di performance per AMD nonostante il 30% in più della potenza di calcolo).
L'architettura nvidia è tanto "forza bruta" che usa:
1. meno energia
2. meno transistor
3. meno banda
4. meno memoria
5. meno TFLOPS
6. permette di gestire meglio la geometria
Quando le schede nvidia useranno le stesse risorse di quelle AMD e queste ultime staranno avanti significherà che l'architettura nvidia sarà superata. Per ora è una Punto che va più forte di una Audi (così come pensate siano le risorse in più usate da AMD).
Nessuno si dovrebbe meravigliare che su un rettilineo con asfalto completamente liscio l'Audi vada di più. Quello che dovrebbe stupire è che la Punto in tali condizioni rimanga comunque a ruota. E il fatto che in tutte le altre condizioni rimanga davanti nonostante turbo e biturbo e bomboloni di benzina aggiuntivi per la Audi (aka OC sopra OC e il doppio dei W, non so se questa cosa l'hai notata nelle recensioni della 580 che a malapena sorpassa la 1060 FE consumando 240W contro 120).
Quello che ti sfugge è che nvdia non ha necessità di rimediare proprio a nulla. Se proprio proprio aumenta un po' le unità di calcolo per colmare quel 10% di differenza con queste fantomatiche DX12/Vulkan e il gioco è bello che fatto. Non le serve stravolgere un bel niente, dato che la sua architettura va strabene rispetto alla concorrenza costandole molto meno (meno silicio, meno consumi = meno costi per dissipatori, montaggio sui portatili cosa che AMD non fa e sono sempre soldi che non prende, meno
Significa che rispetto alle corrispettive Nvidia di pari generazione c'è del silicio in più dedicato alle funzionalità di calcolo generico (per esempio nel rapporto tra calcolo SP e DP). Silicio che ha un costo in termini di area e consumi.
Ricordiamo che AMD continua a sviluppare le GPU nell'ottica dell'integrazione con le CPU, e questo ha influenza sulle scelte architetturali.
Che poi AMD faccia male a seguire questa strada è un altro discorso, del resto non è così facile abbandonarla visto anche come funziona il calcolo dp nelle sue GPU.
No so davvero quanto influiscano le scelte architetturali di AMD rispetto alle APU. nvidia ha fatto un lavoro migliore quando ha deciso di mettere Maxwell nei SoC ARM: ha investito nella riduzione dei consumi e i risultati si sono visti. A me non sembra proprio che AMD sia limitata da quello che sta decidendo di fare per un mercato le APU) che non sembra proprio premiarla.
La questione SP/DP ormai una questione che (fortunatamente) ha perso senso nel mercato consumer. Puoi dirmi per favore una sola applicazione nel mercato consumer che usa il DP? Non parlo di benchmark. Parlo di una applicazione che quando la uso produce un risultato vendibile da cui posso ottenere uno stipendio con il quale pagarmi la differenza di costi tra una scheda che fa solo SP e una che fa DP.
nvidia lo ha capito generazioni fa e da allora produce 2 architetture diverse. Con Maxwell (per necessità) e con Pascal (èer scelta) è arrivata addirittura a non fare un chip con DP per il mercato consumer, neanche a castrarlo. Eppure le sue vendite e i suoi guadagni sono andati alle stelle. Qualcosa deve pur significare.. forse che ha capito cosa vuole il mercato e le offre quello che desidera con la qualità, le performance e i costi adeguati?
Detto questo, per quanto riguarda gli FPS nei giochi il DP non serve a nulla (anzi) e AMD ha già SP in abbondanza. Quello che deve cambiare è tutto il resto, perché non sembra che l'efficienza computazionale (FLOPS teorici/TFLOPS reali) sia a suo favore. nvidia con schede con il 30% di capacità computazionali va meglio, e questo è un dato di fatto, DX12 o meno.
CrapaDiLegno
26-04-2017, 17:45
Non si sa. L'unica cosa nota è che usciranno questo trimestre.
Ad ogni modo maggio, a questo punto, mi sembra abbastanza improbabile, è alle porte e ancora non si sanno neppure i modelli che saranno commercializzati.
Immagino che si saprà qualcosa di più al computex a fine maggio, suppongo la presentazione dei modelli e la data di commercializzazione.
Montando HBM la mia previsione è che prima della fine dell'estate di schede in giro se ne vedranno davvero poche. Le prime schede saranno solo una dimostrazione per cercare di frenare le vendite di nvidia. Poi a Natale le Vega saranno disponibili e nvidia annuncerà Volta (anche lì non importa quando verrà disponibile), tagliandole le gambe.
Vega è troppo in ritardo. Ecco perché deve andare molto di più delle attuali schede nvidia.
Se ammettiamo soltanto che arriverà alle prestazioni della 1080Ti, che fa contro Volta? Abbassa i prezzi? Con HBM2 a bordo? E ci rimane per oltre un anno fino all'arrivo di Navi? Suicidio!
Oppure ipotizziamo che nvidia venderà le schede Volta con prezzi ancora maggiori di quelli di Pascal?? Omicidio!
tuttodigitale
26-04-2017, 23:24
Eh? Chi ha detto questo?
Io ho detto che Pascal è costato nulla ad nvidia (la versione consumer quantomeno, la versione professional è tutta un'altra cosa).
A questo punto non so se ridere o piangere....
è chiaro che Pascal consumer, e i risultati ottimi ottenuti lato efficienza siano diretta conseguenza degli investimenti fatti per adattare l'architettura Maxwell ai 14nm (tra questi c'è anche la riduzione del FO4). Tu parlavi di costi nulli...
A no? Vedi dopo.
leggo su techpowerup che la differenza di prestazioni tra una gtx980ti e una Fury X è pari a ZERO a 1440p...il bello non si può neanche dire che è colpa della noncuranza di nvidia....visto che non solo le fury ma anche le 980ti hanno recuperato terreno nei confronti della 1070 (probabile conseguenza dovuta al fatto che i giochi odierni amano maggiormente il bandwidth...)
la Fury X non è che consuma molto di più...si passa ai 5W di hwupgrade ai 20W di anandtech in game, che su schede da 275W significa si e no, una differenza di efficienza media con gli attuali titoli, inferiore al 10%...
I consumi elevati sono pesantemente condizionati dal fatto che l'architettura AMD richiede circa 1,25V a 1,2GHz contro 1V per i 1,7GHz per nvidia...
Che sia uscito per diminuire i costi non c'è alcun dubbio (anche se c'è chi sostiene che il silicio costa pochi centesimi al mm^2 e che AMD lo faccia pagare ancora di meno).
il silicio costa circa 10 dollari per un pezzo da 100mmq sui 14nm, questo con una resa buona...
Secondo IBS/AMD 1 transistor sui 16nm finfet di TSMC sono più costosi di uno sui 28nm HKMG....e la riduzione dei costi per nvidia è stata assai modesta (se non nulla almeno all'inizio), e credo non sia un caso se hanno puntato sui 14nm Samsung sulla fascia bassa (tra le altre abbassando il turbo boost da 1708 MHz della 1060 ai 1390MHz della 1050ti).
probabilmente il risparmio è più sul PCB della scheda che altro..
di prestazioni, quindi fascia, non aveva più guadagno. E lì si è fermata.
A che pro creare un chip da 450mm^2 che forse non raggiunge le prestazioni di uno da 330 ma consumando 400W? Ovviamente non ha senso (Hawaii e Tonga docent). Da una architettura che. come ho detto prima, è solo uno shrink della precedente con 4 modifiche e nessun investimento per sfruttare il nuovo PP, che vuoi pretendere?
ma guarda che Hawaii è fenomenale per le dimensioni del die, e andava quanto il top di gamma Kepler che aveva un die molto più grande....
e a differenza di GM104 ha la capacità di eseguire calcoli in doppia precisione con un throughput pari a 1/2 FP64 e di utilizzare con profitto i numeri a mezza precisione....
Ricordo inoltre che GP100, l'unica scheda con capacità computazionali superiori alle soluzioni Hawaii, non era disponibile presso gli OEM per tutto il 2017....
Per quanto riguarda tonga, ricordo che stai parlando comunque di un chip che non hai mai funzionato completamente.
Da una architettura che. come ho detto prima, è solo uno shrink della precedente con 4 modifiche e nessun investimento per sfruttare il nuovo PP, che vuoi pretendere?
guarda che se tu che stai girando la frittata...
hanno prodotto FIJI e per mesi non l'hanno potuta vendere per mancanza delle HBM1 (e questo è il motivo per il quale la dual Fiji ha subito un ritardo di oltre 6 mesi....)...nonostante il quantitativo ridotto di VRAM AMD continuerà a proporla nel campo dell'intelligenza artificiale...c'è stata sicuramente anche la volontà di non calpestare le vendite del loro modello di punta che ha la sua nicchia di mercato.
sai per certo che i 14nm LPP garantivano rese dignitose un anno fa? Fino a prova contraria nvidia ha prodotto un chip da 130mmq e basta sul quel processo... o perchè Hynix, che ha collaborato alla realizzazione delle memorie HBM, sta producendo in volumi quelle di seconda generazione solo da un paio di mesi?
Di certo converrai con me, che se AMD avesse voluto avrebbe reso Polaris più efficiente ma soprattutto in grado di lavorare a frequenze maggiore.
Ma Polaris era necessario anche per le versioni mobile, infatti la versione 11 full era disponibile solo per laptop....
ricordo che la radeon pro 460 consuma 35W...
No so davvero quanto influiscano le scelte architetturali di AMD rispetto alle APU. nvidia ha fatto un lavoro migliore quando ha deciso di mettere Maxwell nei SoC ARM: ha investito nella riduzione dei consumi e i risultati si sono visti. A me non sembra proprio che AMD sia limitata da quello che sta decidendo di fare per un mercato le APU) che non sembra proprio premiarla.
lasciamo le scelte degli OEM fuori dal ragionamento...devo ricordarti che nel periodo d'oro dei k8 Intel aveva il 75-80% del mercato CPU?
Detto questo ricordo che AMD ha fatto un vero e proprio miracolo con Carrizo/Bristol Ridge, riuscendo ad uguagliare l'efficienza nel MT delle soluzioni Haswell che utiizzano i 22nm finfet...e l'igp giusto per la cronaca ha piena potenza FP64......
ti è fosse sfuggito un ben meno costoso BR (costa 1/3 :O ) ha prestazioni in linea con un i3 Skylake in cinebench con lo stesso TDP....nonostante ciò siamo letteralmente invasi da soluzioni Pentium ben più lente (anche lato x86 e nel ST la differenza è minima grazie all'elevatissima frequenza turbo di XV...)
La questione SP/DP ormai una questione che (fortunatamente) ha perso senso nel mercato consumer. Puoi dirmi per favore una sola applicazione nel mercato consumer che usa il DP? Non parlo di benchmark. Parlo di una applicazione che quando la uso produce un risultato vendibile da cui posso ottenere uno stipendio con il quale pagarmi la differenza di costi tra una scheda che fa solo SP e una che fa DP.
avrà perso anche senso (ma non per gli FP16 a detta di molti, l'abbandono è stato prematuro....) ma questo non toglie che un chip dotato di queste capacità aggiuntive a parità di tecnologie consumerà decisamente di più...
devo forse ricordarti che le TITAN, una volta abilitate le piene capacità FP64, vedeva calare le prestazioni del 18%.....
Detto questo, per quanto riguarda gli FPS nei giochi il DP non serve a nulla (anzi) e AMD ha già SP in abbondanza. Quello che deve cambiare è tutto il resto, perché non sembra che l'efficienza computazionale (FLOPS teorici/TFLOPS reali) sia a suo favore. nvidia con schede con il 30% di capacità computazionali va meglio, e questo è un dato di fatto, DX12 o meno.
non voglio ritornare sulle stesse cose, ma tu mi costringi...
tra la Fury e la Fury X, a parità di frequenza, a qualsiasi risoluzione, la differenza era del 2-3%....una miseria considerando che la fury X ha il 15% di SP in più e teoricamente una banda passante infinita (tanto più che hanno migliorato la compressione dei dati rispetto ad Hawaii...).
Come dissi tempo fa, e a dirlo è stato Koduri, avrebbero voluto aumentare ulterioremente l'efficienza aumentando le dimensioni del die, ma non l'hanno potuto farlo perchè erano a limite...ma non a causa dei 28nm, ma per i 65nm utilizzati per costruire l'interposer....
tu parli sempre degli n-mila TFLOPs delle Fury, ma perchè non ricordi mai che il pixel fill-rate delle nvidia è circa il 70-100% superiore?
Non sarà mica un caso se un chip vada meglio rispetto all'altro a seconda del carico di lavoro....
Io ho detto che Pascal è costato nulla ad nvidia ...
Tenendo conto che i costi di adattamento al processo produttivo sono tendenzialmente superiori a quelli di sviluppo (spesso molto superiori), direi che non è costata nulla è un po' esagerato.
Di solito è più una questione di tempi e risorse.
E quindi? nvidia ha investito nel risparmio energetico proprio con Maxwell (destinato ad entrare dei SoC ARM, come in effetti ha fatto). Investire per avere un prodotto migliore è un plus, non un minus.
Il discorso è un altro: se il chip Nvidia è più efficiente non significa, come spesso sostieni, che ha un'architettura superiore, ma che Nvidia ha potuto spendere di più per ottimizzarlo.
La differenza è sostanziale, se si sta guardando alle potenzialità future.
Se ha deciso di non fare una fascia alta con Polaris è perché ha capito che l'architettura per le prestazioni che dà non è in grado di fruttare soldi. ...
Oppure che farlo le sarebbe costato troppo, magari l'avrebbe fatta ritardare ulteriormente e le avrebbe tolto risorse per lo sviluppo del progetto successivo.
Si, questo significa che ha fatto uscire un tappabuchi, che non è necessariamente un male se questo tappabuchi può fornirlo ad un prezzo adeguato per le sue prestazioni.
Non capisco cosa vuol dire "non serve una nuova architettura".
I cambiamenti che si fanno per ottenere certe prestazioni portano ad creare architetture nuove.
Almeno su questo cerchiamo di capirci.
Quando parliamo di architettura, intendiamo l'architettura di base. L'architettura precedente di AMD era terascale, oggi è GNC. Nei processori per esempio prima avevamo Bulldozer, ora abbiamo Zen. Tutto ciò che sta in mezzo possiamo chiamarlo revisioni dell'architettura.
Così almeno non bisticciamo sulle parole e capiamo quello che l'altro dice.
Non facciamo confusione, per favore.
Nessuna confusione. Ho fatto un esempio un po' "estremo" (ma non certo raro) per rendere lampante il concetto. E non sto parlando solo di aggiornare ad un nuovo processo produttivo, ma di scegliere un processo produttivo non all'avanguardia proprio per una questione di costi.
Ho capito che non ti piace il concetto che AMD possa scegliere di produrre da globalfoundries perchè le conviene economicamente, ma la realtà è questa.
Se con TSMC avrebbe potuto produrre un chip il 10% più veloce ma al 30% in più del costo (numeri a caso, solo come esempio), pensi l'avrebbe fatto, per una GPU che comunque non mirava al primato?
Ho parlato di "fascia alta" perchè si discuteva di Vega.
Tu lo sai che le classificazioni di questo tipo si fanno dopo aver creato le feature del chip?
E tu lo sai che hai appena scritto una sciocchezza?
Le DX12 nascono per girare sull'hardware esistente. Microsoft ha stabilito una serie di livelli (tier, feature level) che definissero il supporto delle schede esistenti e future alle nuove API.
E non cercare di far passare gli altri per ignoranti quando a mostrare ignoranza sei tu: forse sei tu a credere che sia solo una questione di "tre e meglio di due", la realtà è che le funzionalità del Tier 3 (ossia l'abbattimento dei limiti sulla dimensione degli heap nella condivisione delle risorse) sono fondamentali per avvicinarsi al pieno supporto DX12.
Il problema è che fino a quando Nvidia non si metterà in pari, il suo sfruttamento sarà abbastanza limitato.
L'architettura nvidia è quella che va di forza bruta????
Esatto, e non mi pare che nulla di quel che hai scritto lo neghi. Del resto non è mica una brutta cosa...
Quando le schede nvidia useranno le stesse risorse di quelle AMD e queste ultime staranno avanti significherà che l'architettura nvidia sarà superata.
Affermazione molto semplicistica. Il livello di un'architettura si misura su molti fattori, non è certo solo una questione di efficienza.
Se per esempio decidessi di creare un'architettura ripulita all'osso, tagliando via tutto quello che è secondario, senza nessun supporto alle tecnologie future ma fatta solo per far girare quello che c'è ora sul mercato, con buona probabilità otterrei una migliore efficienza ma non certo un'architettura più avanzata.
Nessuno ovviamente lo fa, perchè il mercato cammina e bisogna pensare al futuro. Bisogna però dire che in questo momento la situazione di Nvidia è per certi versi abbastanza vicina a questo (non in tutto, certo. Tornando a parlare di DX12, da MAxwell nvidia supporta il feature level 12.1 di DX12, che le da accesso a delle API addizionali rispetto alle schede AMD attuali).
Quello che ti sfugge è che nvdia non ha necessità di rimediare proprio a nulla.
Indubbiamente, con il potere di mercato che si ritrova, non ne ha necessità. Ma è indubbio che dovrà farlo, se non vuole rimanere indietro in futuro.
La questione SP/DP ...
Su questo sono d'accordo, ma rimane la scelta di AMD di supportarla, scelta che le costa efficienza e silicio, variabili che vanno considerate nell'equazione.
Del resto sia AMD che Nvidia hanno ridotto man mano il supporto alla DP con le varie revisioni delle loro architetture.
Rimane una nicchia d'utenza a cui la DP interessa e che sicuramente non è felice di questo trend, che la costringe ad acquistare schede di ben altro costo.
Probabilmente AMD rimane più conservativa perchè non ha le risorse al momento per sviluppare due chip separati e si limita ad adattare la propria architettura. Non so come finirà con Vega, ma ho idea che il chip grosso non trascurerà il calcolo DP, perdendo in efficienza sul lato gaming.
Poi a Natale le Vega saranno disponibili e ...
Esagerato :asd:
Va bene ad essere pessimisti, ma anche supponendo Vega disponibile a luglio, da luglio a dicembre sono 5 mesi... un po' troppi da lasciare scoperti. Capirei uno o due mesi, ma cinque...
Le HBM2 sono una tecnologia più matura di quella montata su fiji, in base a cosa pensi che possa ancora creare problemi di fornitura?
Comunque Navi è tutt'ora prevista per la prima metà del 2018, quindi anche lo scenario di AMD che lascia a Nvidia con Volta campo libero per un anno al momento non è plausibile (a meno che tu non sappia di ritardi non ancora resi noti).
CrapaDiLegno
27-04-2017, 10:56
Mi sembra che la questione sia sempre la stessa: trovare giustificazioni su quisquiglie perdendo di vista il bersaglio grosso.
A questo punto non so se ridere o piangere....
è chiaro che Pascal consumer, e i risultati ottimi ottenuti lato efficienza siano diretta conseguenza degli investimenti fatti per adattare l'architettura Maxwell ai 14nm (tra questi c'è anche la riduzione del FO4). Tu parlavi di costi nulli...
I costi per la diminuzione dei consumi sono stati per Maxwell, non per Pascal. Pascal li ha ereditati. Ma nvidia è andata di conserva con questa architettura. Tanto la concorrenza è mille chilometri a distanza e con Polaris è addirittura riuscita a fare peggio (vedesi 580).
Visto che AMD non ha fatto nessun investimento per la diminuzione dei consumi né su GCN né su Polaris, i costi sono stati bassi anche per lei. E i risultati sono quelli che vediamo, anche se tu continui a girare la frittata.
I fatti sono questi.
[QUOTE=tuttodigitale;44697501]
leggo su techpowerup che la differenza di prestazioni tra una gtx980ti e una Fury X è pari a ZERO a 1440p...il bello non si può neanche dire che è colpa della noncuranza di nvidia....visto che non solo le fury ma anche le 980ti hanno recuperato terreno nei confronti della 1070 (probabile conseguenza dovuta al fatto che i giochi odierni amano maggiormente il bandwidth...)
la Fury X non è che consuma molto di più...si passa ai 5W di hwupgrade ai 20W di anandtech in game, che su schede da 275W significa si e no, una differenza di efficienza media con gli attuali titoli, inferiore al 10%...
Tu stai confrontando l'efficienza della scheda complessiva. Come ti ho detto con raffreddamento ad liquido che tiene le temperature basse e l'HBM, quindi con costi spropositati, la Fury X ancora sta dietro la GM200. Con 8.9TFLOPS vs 5.6TFLOPS direi che è alquanto discutibile essere felici perché la Fury X arrivi ai livelli della 980Ti.
Quello che non hai capito, che era il discorso principale, è che neanche con GCN1.2 AMD ha fatto progressi significativi nell'efficienza.
I consumi elevati sono pesantemente condizionati dal fatto che l'architettura AMD richiede circa 1,25V a 1,2GHz contro 1V per i 1,7GHz per nvidia...
Queste sono le solite giustificazioni da fanboy che guarda solo quello che vuole. Le GPU che nvidia con Samsung, che usa lo stesso PP di GF, usano le stesse tensioni delle GPU di AMD ma consumano sempre meno e arrivano a 1700MHz. Il problema non è il PP.
il silicio costa circa 10 dollari per un pezzo da 100mmq sui 14nm, questo con una resa buona...
Secondo IBS/AMD 1 transistor sui 16nm finfet di TSMC sono più costosi di uno sui 28nm HKMG....e la riduzione dei costi per nvidia è stata assai modesta (se non nulla almeno all'inizio), e credo non sia un caso se hanno puntato sui 14nm Samsung sulla fascia bassa (tra le altre abbassando il turbo boost da 1708 MHz della 1060 ai 1390MHz della 1050ti).
probabilmente il risparmio è più sul PCB della scheda che altro..
Una vecchia slide di nvidia mostrava che i costi per transistor con i nuovi PP (da 28nm in poi) andava ad aumentare così tanto che non c'era più alcun risparmio a fare shrink. Ma erano slide di nvidia che ovviamente erano mirate a giustificare gli alti prezzi che oggi impone. Qualcsa di vero ci sarà, ma la corsa di entrambe le aziende a shrinkare Maxwell e GCN dice che i vantaggi ci sono comunque.
Quantomeno nvidia ha giovato di migliori perfomance assolute.
ma guarda che Hawaii è fenomenale per le dimensioni del die, e andava quanto il top di gamma Kepler che aveva un die molto più grande....
e a differenza di GM104 ha la capacità di eseguire calcoli in doppia precisione con un throughput pari a 1/2 FP64 e di utilizzare con profitto i numeri a mezza precisione....
Ricordo inoltre che GP100, l'unica scheda con capacità computazionali superiori alle soluzioni Hawaii, non era disponibile presso gli OEM per tutto il 2017....
Per quanto riguarda tonga, ricordo che stai parlando comunque di un chip che non hai mai funzionato completamente.
Hawaii eccezionale per cosa? Per i consumi fuori di testa? Si è parlato male per anni della prima versione di Fermi.. Hawaii era in proporzione molto peggio. Pensa che era così buono che senza concorrenza (anzi con la concorrenza del GK110 e la sua revisione più recente) non ha venduto nulla in campo professionale. Non è che Kepler fosse una schifezza. A parità di consumi rendeva molto di più anche in DP. Poi entrambe le aziende hanno tagliato i DP per risparmiare silicio dato che i 20nm non sono mai arrivati.
guarda che se tu che stai girando la frittata...
hanno prodotto FIJI e per mesi non l'hanno potuta vendere per mancanza delle HBM1 (e questo è il motivo per il quale la dual Fiji ha subito un ritardo di oltre 6 mesi....)...nonostante il quantitativo ridotto di VRAM AMD continuerà a proporla nel campo dell'intelligenza artificiale...c'è stata sicuramente anche la volontà di non calpestare le vendite del loro modello di punta che ha la sua nicchia di mercato.
Che Fiji fosse pronto mesi prima della commercializzazione e la colpa è stata della mancanza di HBM è una tua teoria. AMD aveva annunciato Fiji a Gennaio ed è uscito a Giugno. Aveva già mostrato i soliti benchmark fasulli che lo mostravano superiore alla Titan X e invece non era così. Ha parlato di efficienza incrementata e poi se ne è uscita con raffreddamento a liquido nonostante l'HBM. Ha parlato di grande overcloccabilità, poi si è scoperto che se reggeva 100MHz in più era un miracolo di un chip extra fortunato.
HBM, interposer, dimensione enorme, tentativo di portarlo al massimo overclock già di fabbrica, solo 4GB di RAM.. fallimento completo su tutti i fronti: il GM200 andava meglio consumando meno. E poteva essere overcloccato per passargli sulle orecchie senza battere ciglio (lo sai che le solite recensioni che vedi sono quelle con il GM200 in stato catatonico a 1000MHz, quando il chip arriva a 1400 senza problemi, vero?). Un gioiello Fiji.
Tutti credevano che sarebbe servito come palestra per l'HBM2, quindi come punto di vantaggio contro nvidia ma... già, nvidia è uscita prima con una scheda con HBM2 là dove serviva realmente e con GDDR5X là dove le schede devono consumare meno. Praticvamente nvidia ha usato intelligentemente tutta la nuova tecnologia a disposizione. Mentre AMD è rimasta alla GDDR5 (HBM ovviamente era un fallimento ancora prima di Fiji, figuriamoci usarla per Polaris).
sai per certo che i 14nm LPP garantivano rese dignitose un anno fa? Fino a prova contraria nvidia ha prodotto un chip da 130mmq e basta sul quel processo... o perchè Hynix, che ha collaborato alla realizzazione delle memorie HBM, sta producendo in volumi quelle di seconda generazione solo da un paio di mesi?
Io, come te, non so nulla delle rese dei vari PP. Quello che possiamo ipotizzare è che nvidia ha voluto testare il PP di Samsung per vedere quali sono i vantaggi e gli svantaggi che AMD può godere. E lo ha fatto con la sua fascia infima. Un po' come quando in F1 sei davanti un giro e vedi che il tuo avversario dietro cambia le gomme. Lo fai anche tu. Qualsiasi cosa dia vantaggio o svantaggio a lui lo fai anche tu, tanto sei avanti un giro. E' l'altro che deve andare più forte.
Inoltre in questo modo nvidia si è messa in un punto di vantaggio con TMSC. Questa deve garantire grande qualità se non vuole che nvidia passi sempre più progetti a Samsung (se questa lavora meglio). Per quanto la giri la strategia di nvidia è inattaccabile e tutto nasce per il fatto che in questi anni è stata leader indiscussa del mercato. Questi sono i vantaggi che porta ad avere la posizione dominante. Sembrano frivolezze, ma permettono di agire in anticipo e non dover sperimentare con strategie assurde che tentano l'exploit all'ultimo (Fiji per ammissione di AMD è un progetto che è nato 18 mesi prima di vederlo sul mercato). Permette di spendere di meno ed essere massimizzati sugli obiettivi che sono pianificati da tempo. Mantiene stabili i rapporti anche quando non sono perfetti (vedi nvidia e i 40nm di TMSC) e gli errori non sono catastrofici (vedi GF100 corretto in meno di 9 mesi).
Di certo converrai con me, che se AMD avesse voluto avrebbe reso Polaris più efficiente ma soprattutto in grado di lavorare a frequenze maggiore.
Di certo converrai che se investi puoi migliorare il prodotto quanto vuoi. Di certo cambiare l'architettura per andare a frequenze maggiori non è cosa che si fa da un giorno all'altro (e infatti vediamo i ritardi di Vega).
Converrai anche che le parole di AMD già aveva fatto sperare che Polaris sarebbe stato quel passo avanti che tutti attendevano.
Converrai con me che NON è stato quello che AMD ha promesso
Converrai con me che nvidia non è stata minimamente disturbata dalla presenza di Polaris sul mercato (giusto quei 30 euro in meno per il GP106 le è costato, recuperati dai prezzi spropositati delle 1070/1080).
Converrai con me che ci si attende che Vega sia finalmente il passo avanti e non un altro fail simil Fiji.
Ma Polaris era necessario anche per le versioni mobile, infatti la versione 11 full era disponibile solo per laptop....
ricordo che la radeon pro 460 consuma 35W...
Ma se Poaris nel mobile non si vede nenache con il binocolo?
lasciamo le scelte degli OEM fuori dal ragionamento...devo ricordarti che nel periodo d'oro dei k8 Intel aveva il 75-80% del mercato CPU?
Dal non avere alcuna argomentazione solida al complottismo.
Tipico di chi non vede la realtà per quello che è: come puoi pretendere che un OEM monti una GPU che consuma il 30% in più rispetto alla concorrenza (questi sono i numeri medi che si vede per Polaris vs Pascal, là dove AMD non vuole raggiungere le prestazioni di quest'ultimo, altrimenti di arriva al doppio!!!! Completamente fuori punto di massima efficienza)? 35W sono pochi? E che ne sai? Se la concorrenza con le stesse prestazioni ne consuma 20, la tua bellissima GPU da 35W rimane sugli scaffali del magazzino dove verrà svalutata alla fine dell'anno.
E infatti la rincorsa di AMD è al ribasso (GPU sempre più piccole dove la differenza, fosse anche del 30% è minima in valore assoluto e influisce nulla sull'autonomia del portatile). Dove sta Polaris, quello necessario per le versioni mobile, in versione 10 sui portatili?
avrà perso anche senso (ma non per gli FP16 a detta di molti, l'abbandono è stato prematuro....) ma questo non toglie che un chip dotato di queste capacità aggiuntive a parità di tecnologie consumerà decisamente di più...
devo forse ricordarti che le TITAN, una volta abilitate le piene capacità FP64, vedeva calare le prestazioni del 18%.....
Ma queste sono giustificazione da panettiere la mattina presto appena sforna le brioches!
Devo forse ricordarti che una GPU che scalda l'acqua per fare il caffè consuma di più di quella che è pensata per fare unicamente il suo lavoro? E quella che prepara l'acqua per la doccia? Mamma mia se consuma! Devo ricordarti che nel mondo consumer avere l'acqua pronta per la doccia quando accendi il PC non è una necessità?
Il tuo discorso avrebbe senso se le schede con capacità DP avessero spaccato il cu|o ai merli nel mercato professionale. A quel punto, con i soldi che AMD avrebbe fatto là, riciclarle nel mercato consumer era più che legittimo. Ma non è stato così: AMD ha proposto una GPU con capacità non richieste per l'unico mercato in cui le vende con, a quanto pare, conseguenze sull'efficienza. Dico apparentemente perché come già detto non è che Tonga, Fiji e Polaris che hanno capacità DP ridottissime siano questi campioni di efficienza. Quali vantaggi per me consumatore che la compra per far andare GTA V meglio possibile?
Giustificazioni astruse che non hanno alcun contatto con la realtà.
non voglio ritornare sulle stesse cose, ma tu mi costringi...
tra la Fury e la Fury X, a parità di frequenza, a qualsiasi risoluzione, la differenza era del 2-3%....una miseria considerando che la fury X ha il 15% di SP in più e teoricamente una banda passante infinita (tanto più che hanno migliorato la compressione dei dati rispetto ad Hawaii...).
Come dissi tempo fa, e a dirlo è stato Koduri, avrebbero voluto aumentare ulterioremente l'efficienza aumentando le dimensioni del die, ma non l'hanno potuto farlo perchè erano a limite...ma non a causa dei 28nm, ma per i 65nm utilizzati per costruire l'interposer....
E' da quando è stato rilasciato che dico che Fiji è una GPU nata male. Ha qualcosa di sbilanciato che le fa fare cose strane (tipo andare come una 390X in FullHD). E' gente come te che continua con la tiritera che in 2K o in 4K va come la GTX980Ti (questa in versione stock, of course, altrimenti ciao ciao) e continua a guardare quelle risoluzioni quando la scheda ha 4GB, quantità che si continua a dire insufficiente persino per il 2K per le schede nvidia.
tu parli sempre degli n-mila TFLOPs delle Fury, ma perchè non ricordi mai che il pixel fill-rate delle nvidia è circa il 70-100% superiore?
Non sarà mica un caso se un chip vada meglio rispetto all'altro a seconda del carico di lavoro....
No. Qui siamo davvero ala frutta nel cercare giustificazioni.
Parliamone come due persone adulte che sono mediamente colte e sanno di cosa parlano e che sanno congiungere i puntini dei fatti che vedono.
A me che AMD faccia 1000TFLOPS e 0 Texture/PixelFill, che abbia 100000GB/s e nvidia 2B/s, che ci siano mille milioni di byte di cache da una parte e zero dall'altra non me ne può fregare di meno. Io non progetto GPU (e credo neanche tu) quindi non vado a sindacare il perché ci sono quei numeri.
Io mi limito a guardare i risultati tenendo conto delle risorse usate. Diversamente dai babbei che si illuminano d'immenso quando vedono una Ferrari battere una Panda, io rimango perplesso quando la prima batte la seconda con 1 lunghezza di distacco. O peggio, quando le arriva dietro anche di poco (ah, ma la Ferrari era lì lì! Come non si fa a capire che è un macchina meravigliosa?).
Le GPU di AMD abbondano di TFLOPS e banda.
Le GPU di nvidia lavorano meglio con la geometria e il pixel filling.
A parità di prestazioni reali (quelle misurate con i motori complessi dei giochi, non con i benchmark inutili) le GPU di nvidia risultano sempre più piccole e consumano meno.
Se fosse cos' semplice avere prestazioni maggiori vedremo schede con 2000ROPs e 64ALU. Invece mi sembra che sia il contrario, no?
Ora, anche rispetto al fatto che ha minori TFLOPS e meno banda, quando i giochi odierni sono passati ad usare gli shader in maniera pesante, le GPU nvidia continuano ad andare meglio (nonostante le leggende dei driver AMD che migliorano e bla bla bla... che non è assolutamente vero.. sono i giochi che nel tempo sono passati a sfruttare le caratteristiche di cui le GPU AMD abbondano, anche se con risultati alterni.. tanto è vero che nei giochi vecchi dove AMD faceva schifo continua a fare schifo, vedesi Project Cards o GTA V.. lì nessun miracolo?).
Se ho una GPU che ha 4.3TFLOPS con 192GB/s e 120W che eroga tanti FPS quanti una che ne fa 5.6TFLPPS e 256GB/s e 165W, rimanendo più piccola, significa che le risorse messe nel chip più piccolo sono meglio sfruttate di quelle che sono nel chip più grande. Questo, ripeto, nonostante che i giochi moderni tendano a usare di più (non dico meglio perché quello è a carico dell'HW e SW di AMD) le risorse di cui il chip più grande abbonda. Mi sembra che fin qui non puoi dire nulla.
La Panda che vince anche sul rettilineo contro la Ferrari lascia qualche dubbio sul fatto che la Ferrari sia migliore, o no? Nonostante questa consumi fino al doppio della prima e abbia il 30% dei cavalli in più. Se il problema è il pixel rate, che AMD metta più ROPs. Ma questo richiederebbe cambiare completamente l'architettura che forse, e continuiamo ad unire i puntini, anche quelli più distanti, non è proprio così bilanciata. Le ROPs però non sono a costo zero in termini di spazio... cosa facciamo? Allarghiamo ulteriormente il die fino a farlo il doppio della concorrenza e con tutto il 50% in più finalmente andiamo uguali? Sacrifichiamo le ALU? Meno ALU più ROPs = maggiori prestazioni? Magari anche sì, non lo so, ma è a carico di AMD costruire l'architettura che meglio funziona con il lavoro che deve compiere. Di certo però è una contraddizione: i giochi moderni usano molta di più banda e ALU e infatti i giochi tendono a girare un po' meglio su HW AMD rispetto all'HW nvidia.
ROPs sì, ROPs no, ti ho confuso? Era voluta la cosa. Perché è evidente che non sono le ROPs a decretare le prestazioni dei giochi (come detto i fatti smentiscono la cosa visto che AMD migliora con quelli moderni, se fosse pixelrate limitata non migliorerebbe così come non migliorano i giochi su nvidia che è TFLOPS e banda limitata).
Quindi, tornando a bomba sulla questione TFLOPS e banda (che sebbene inferiore è compensata da nvidia con una migliore gestione delle compressione dei dati cui AMD è attivata ben dopo... altra distanza da colmare con la concorrenza riguardo all'efficenza e alla diminuzione dei costi, 192bit vs 256 sono lì a provarlo, ma anche GDDR5 di GTX980ti e 1070, questa pure a 256bit, vs HBM di Fury X) non è che nvidia avendone di meno va meno (e sarebbe così affare suo metterne di più in qualsiasi modo per pareggiare con la concorrenza) ma proprio il contrario dell'esempio che tu hai voluto portare come controparte: ne ha di meno (usando meno spazio) e va di più. Cosa dovrebbe cambiare nvidia a questa architettura, quindi? Dargli il 10% in più di TFLOPs per colmare il gap in DX12?
Sembra che con Pascal abbia già tentato portando le frequenze così in alto che AMD per riavere lo stesso gap di prima (contro Maxwell) deve andar a consumare il doppio (punto sulla curva consumi/frequenza altissimo). Con Volta magari ci mette un paio di SM in più, o aumenta ulteriormente l'efficienza computazionale o 2 barbatrucchi per meglio gestire questo fantomatico Async usato da 2 giochi, e fine della storia anche con le DX12.
P.S: per tagliare qualsiasi altra argomentazione sul Pixel rate, devi dirmi perché la Fury in 4K, dove il pixel rate necessario rispetto al FullHD è decisamente superiore, chiude il gap con la GTX980Ti mentre dove non è così critico scende alle prestazioni della 390X (che ha lo stesso numero di ROPs, ma non la stessa banda). O magari ho sbagliato tutto e vediamo che con Vega le ROPs aumentano e a parità di TFLOPS (magari anche con qualche prestidigitazione sull'efficienza computazionale) le schede AMD volano via.
Se così non sarà, credo che sarà difficile per AMD compare i gap a furia di OC e W (la forza bruta che è attribuita a nvidia da qualcuno). Mia personalissima previsione. Poi magari nvidia con Volta fa un altro disastro come con il GF100 ed a AMD basta un GCN 1.4 con 4 sciocchezze in più per arrivare a pareggiare nvidia. Ma se non fa un disastro, occorre che Vega sia almeno il 30% migliore di GCN a parità di frequenze, consumi e spazio usato.
Qui mi fermo. Aspetterò Vega prima di fare qualsiasi altro commento.
CrapaDiLegno
27-04-2017, 12:42
Altro giro, altrqa corsa... pi basta che non ho così tanto tempo solo per voi.
Tenendo conto che i costi di adattamento al processo produttivo sono tendenzialmente superiori a quelli di sviluppo (spesso molto superiori), direi che non è costata nulla è un po' esagerato.
Di solito è più una questione di tempi e risorse.
L'adattamento è implicito. L'investimento per fare quello che sta facendo AMD con Vega però non c'è stato.
Direi che i costi sono nulli (o prossimi a tale, visto che qualche modifica magari come test alpha per Volta è stata comunque fatta).
Di certo non è costata come il passaggio da Kepler a Maxwell (o anche fa Fermi a Kepler).
Il discorso è un altro: se il chip Nvidia è più efficiente non significa, come spesso sostieni, che ha un'architettura superiore, ma che Nvidia ha potuto spendere di più per ottimizzarlo.
La differenza è sostanziale, se si sta guardando alle potenzialità future.
Le potenzialità future sono sempre quelle che si guarda quando qualcosa non funziona come dovrebbe. Aspettate, vedrete, prima o poi, le condizioni cambieranno... Oggi le richieste sono queste, non quelle future.
Oppure che farlo le sarebbe costato troppo, magari l'avrebbe fatta ritardare ulteriormente e le avrebbe tolto risorse per lo sviluppo del progetto successivo.
Si, questo significa che ha fatto uscire un tappabuchi, che non è necessariamente un male se questo tappabuchi può fornirlo ad un prezzo adeguato per le sue prestazioni.
Hai detto quello che ho detto io. Non l'hanno fatta perché le costava troppo rispetto a quanto ne avrebbe ottenuto. Sapeve già che non sarebbe stata competitiva in termini di costi rispetto a quanto fatto da nvidia.
D'altronde l'esempio fatto è lampante: se per raggiungere le prestazioni della 1060 ha dovutousare un OC che la porta consumare fino a 240W, per arrivare alla 1080 (non dico 1080Ti) che doveva usare? 400W? Conun die da oltre 400mm^2?
Quindi tappabuchi sulla fascia più venduta, con zero margini ma sufficiente per non saprire dal mercato.
Almeno su questo cerchiamo di capirci.
Quando parliamo di architettura, intendiamo l'architettura di base. L'architettura precedente di AMD era terascale, oggi è GNC. Nei processori per esempio prima avevamo Bulldozer, ora abbiamo Zen. Tutto ciò che sta in mezzo possiamo chiamarlo revisioni dell'architettura.
Così almeno non bisticciamo sulle parole e capiamo quello che l'altro dice.
Forse non sai che GCN si appoggia su Terascale. E che tutte le architetture nvidia si rifanno a quello che fu l'architettura Tesla (il famoso G80). Ci sono stati salti più o meno grandi tra le varie generazioni, ma "architettura nuova" non dice nulla.
Cayman era una architettura nuova rispetto a Cypress? O era solo il passo di intermezzo tra VLIW5 e GCN con le ALU a 4 vie?
Secondo quando affermato da AMD, con tutti icambiamenti fatti a Polaris, questa dovrebbe essere una architettura nuova...
Nessuna confusione. Ho fatto un esempio un po' "estremo" (ma non certo raro) per rendere lampante il concetto. E non sto parlando solo di aggiornare ad un nuovo processo produttivo, ma di scegliere un processo produttivo non all'avanguardia proprio per una questione di costi.
Ho capito che non ti piace il concetto che AMD possa scegliere di produrre da globalfoundries perchè le conviene economicamente, ma la realtà è questa.
Se con TSMC avrebbe potuto produrre un chip il 10% più veloce ma al 30% in più del costo (numeri a caso, solo come esempio), pensi l'avrebbe fatto, per una GPU che comunque non mirava al primato?
Ho parlato di "fascia alta" perchè si discuteva di Vega.
Che ogni scelta sia fatta per vantaggio economico non si discute. Sono aziende e sanno fare (si spera) i loro conti con dati che non non possiamo avere. Quindi di certo la scelta di GF è stata la più vantaggiosa per AMD. Non vuol dire però che paghi meno. Sono discorso diversi. Ci sono in ballo contratti e vincoli tra le due aziende che sono roba segreta di cui non sappiamo niente. E quant'anche pagasse meno, come detto, non è che possa risparmiare chissà cosa. Le macchine per stampare sono quelle e sul processo potrai sì e no saltare qualche passaggio. Di certo non paga la metà. Questo al netto delle rese che non sappiamo come siano.
E tu lo sai che hai appena scritto una sciocchezza?
Le DX12 nascono per girare sull'hardware esistente. Microsoft ha stabilito una serie di livelli (tier, feature level) che definissero il supporto delle schede esistenti e future alle nuove API.
E non cercare di far passare gli altri per ignoranti quando a mostrare ignoranza sei tu: forse sei tu a credere che sia solo una questione di "tre e meglio di due", la realtà è che le funzionalità del Tier 3 (ossia l'abbattimento dei limiti sulla dimensione degli heap nella condivisione delle risorse) sono fondamentali per avvicinarsi al pieno supporto DX12.
Il problema è che fino a quando Nvidia non si metterà in pari, il suo sfruttamento sarà abbastanza limitato.
Cioè, io ti ho detto che le classificazioni sono fatte dopo che il chip è stato fatto, mi dici che le DX12 sono nate dopo i chip, e mi dici che ho detto una sciocchezza?
Aspetta che riprovo. Le DX12 non hanno richiesto HW nuovo. Sono state un insieme di feature proposte dai vari produttori di GPU per meglio sfruttare il loro HW a basso livello. come da richiesta di MS. AMD ha proposto le sue, nvidia le sue, qualcuno ha bocciato quelle dell'altro, qualcuna è passata comunque con incazzamento dell'altra... fatto sta che alla fine quello che è stato scritto è una serie di funzionalità che vanno a coprire le capacità dell'HW a disposzione.
AMD aveva questi ACE e li ha voluti sfruttare, nvidia no e non era d'accordo, ma visto che MS ha interesse a supportare la sua XBox proprio con le DX12 ha fatto passare la cosa. La questione Tier 1, 2, 3 copre le capacità dei vari HW sul mercato (da Fermi poi mai supportato e GCN 1.0 a Maxwell e GCN 1.2). Ora, ripeto, che io non so quanto sia l'influenza di questa classificazione e tu, anche nella tua risposta, hai confermato che per te 3 è meglio di 2 e quindi AMD avrebbe un vantaggio incredibile se tutti usassero le risorse come fossero tier 3. Mi sembra di aver letto da qualche parte, tempo fa, che uno sviluppatore avesse dichiarato che le differenze erano minime e che comunque i driver coprivano la cosa, quindi ancora non c'è alcuna conferma di quanto ha affermato.
Esatto, e non mi pare che nulla di quel che hai scritto lo neghi. Del resto non è mica una brutta cosa...
Ascolta, se vuoi ragionare, ragioniamo, se vuoi prendermi in giro, allora non credo di voler dedicarti altro tempo.
Come caxxo puoi dire che quello che ho scritto non conferma la cosa? COme la definisci una architettura più efficiente e non basata sulla forza bruta? Cosa di quello che ho scritto non hai capito soddisfare il requisito di maggiore efficienza di tutti gli indici, prestazioni/die space, prestazioni/consumi, prestazioni/risorse a disposizione?
Ora ti chiedo la controprova a questo punto. Fammi l'elenco delle feature dell'architettura AMD che la pongono ad essere non basata sulla forza bruta per effettuare lo stesso lavoro compiuto dall'architettura nvidia.
Comincio io, e poi completi tu:
1. più TFLOPS teorici
2. più banda
3. più Watt
4. più die space
5. meno efficienza computazionale
6... ora tocca a te farmi vedere che l'architettura AMD è meglio ottimizzata per fare lo stesso lavoro.
Affermazione molto semplicistica. Il livello di un'architettura si misura su molti fattori, non è certo solo una questione di efficienza.
Se per esempio decidessi di creare un'architettura ripulita all'osso, tagliando via tutto quello che è secondario, senza nessun supporto alle tecnologie future ma fatta solo per far girare quello che c'è ora sul mercato, con buona probabilità otterrei una migliore efficienza ma non certo un'architettura più avanzata.
Nessuno ovviamente lo fa, perchè il mercato cammina e bisogna pensare al futuro. Bisogna però dire che in questo momento la situazione di Nvidia è per certi versi abbastanza vicina a questo (non in tutto, certo. Tornando a parlare di DX12, da MAxwell nvidia supporta il feature level 12.1 di DX12, che le da accesso a delle API addizionali rispetto alle schede AMD attuali).
Allora Terascale era una architettura ripulita all'osso che era più efficiente. E siete andati avanti per anni a menarla con la questione che nvidia era "grassa, grossa e consumava un fottio in più". Questo perché faceva GPGPU a livello che Terascale non permetteva. Dal G80 a Fermi nvidia ha fatto passi da gigante nell'ottimizzare la sua architettura sia lato gaming che lato GPGPU (con il quale ricordo ha creato un mercato che prima non c'era).
Poi è arrivato GCN, il salvatore della patria (ma come? Terascale non era il non plus ultra per tutto, gaming e GPGU consumando molto meno e usando meno silicio?) e nvidia le ha fatto uno sberleffo (tanto criticato ma poi risultato tanto veritiero).
Ora le parti sono invertite, con nvidia che ha una efficienza straordinaria e AMD che arranca con spazio e consumi. Con la differenza che nvidia in GPGU non deve nulla ad AMD e supporta perfettamente tutte le tecnologie moderne.
Prima di parlare di DX12 che non sono supportate al meglio qui o lì, parliamo del fatto che sul mercato per ora di giochi DX12 non se ne vedono proprio. E non è "colpa" di nvidia. E' colpa del fatto che di motori DX12 non ce ne sono e quei pochi che sono stati adattati semplicemente usano le funzioni base DX12 per replicare le funzioni ad alto livello delle DX11 senza avere quindi un motore pensato per sfruttare le DX12 in maniera completa.
Comunque sia, la questione DX12 miracolose è stata una evidente bufala. In qualche caso le APi a basso livello danno dei vantaggi a costi di maggiore lavoro di sviluppo (che sapiamo già essere al limite per quanto riguarda lo sviluppo dei giochi.. guarda caso no DX12 nativi no where a parte AoS foraggiato da AMD per altro per un gioco minuscolo rispetto alle produzioni AAA) con tutta una serie di effetti collaterali di cui nessuno parla ma che sono evidenti e condizioneranno i giochi (questo per davvero) del futuro.
Innanzi tutto, no supporto nativo a SLI/CF. O te lo fai a manina o non c'è. Guarda caso, nessuno dei giochi adattati alle DX12 va in SLI/CF. nvidia lo ha pure tolto dalla versione mainstream delle sue schede, segno che prevede che non ci sarà alcun futuro per questa tecnologia nonostante le dichiarazioni su AFR/SFR, memorie sommate e tutte le sciocchezze dette e poi ripetute da chi non conosce la tecnologia ma si affida a 4 frasi dette da qualcuno per riportare che le cose stanno così e basta.
Alla fine le DX12 sono una API che non porterà ad alcuna rivoluzione (+30% di prestazioni? E poi? Per cosa? Per porting pietosi di giochi console che se scritti decentemente in DX11 girerebbero due volte più velocemente?), comporta aumenti notevoli nei costi di sviluppo e sono ancora "acerbi".
Forse tra un anno o due cominceremo a vedere qualcosa sviluppato decentemente con queste API e allora avremmo ben altro HW su cui discutere. GCN non sarà quello di oggi (già Vega lo cambierà parecchio), e avremo il successore di Volta a prendersi in carico il lavoro. Ci sono un sacco di cose che devono ancora avvenire per avere dei giochi DX12 perfettamente funzionanti sui nostri PC.
Sembra la stessa cosa che è avvenuto con il passaggio dalle DX9 alle DX10 nel 2010.. ah, la tessellazione, anvedi quanto va meglio sulla nuova serie 5000 di AMD... 9 mesi di sfacelo nei bench... ah, no aspetta, con Fermi nvidia le da 2 piste... ma ma.. 2017... 'ndo sta 'sto sfruttamento della tessellazione che a parte gli effetti dove nvidia la pompa a manetta per mettere in crisi l'HW AMD in verità non se ne trova praticamente traccia e forse non giustifica tutte le risorse che le sono state dedicate?
Complottone AMD contro la tesselazione che lei non supporta decentemente (e deve truccare i driver per farla diminuire in modo che non sembri uno slide show)? O forse che non c'è alcun motivo per usarla in maniera così abusata come nei primi test/bench?
Ti ricordo che con le DX12 i driver non possono più patchare i giochi e risolvere le magagne dei programmatori, ma il codice deve essere scritto in maniera corretta sin dal principio. Altri costi di sviluppo in più.
Tutto fa presagire che le DX12 saranno mainstream tra i 3 o 4 anni dopo la loro apparizione sul mercato. E noi siamo qui prima a parlare delle meraviglie di GCN, poi di Polaris, domani di Vega e nel frattempo Wildlands gira meglio su HW nvidia esattamente come prima.
Indubbiamente, con il potere di mercato che si ritrova, non ne ha necessità. Ma è indubbio che dovrà farlo, se non vuole rimanere indietro in futuro.
Questa del potere di mercato dovete davvero dimostrarla, visto che i giochi sono porting da console, che girano su HW AMD (pezzente, ma comunque l'architettura è quella) dove negli ultimi anni l'uso degli stream processor e banda passante, che non sono una feature di cui le GPU nvidia abbondano, è aumentata parecchio. Dove la geometria (tesselazione) è andata in secondo piano (anche perché appunto visto l'HW pezzente delle console, la geometria a carico della CPU più di tanto non può essere pompata).
Con tutto questo discorso dove nell'unico motore DX12 reale esistente sul mercato AoS, nvidia rimane davanti a AMD (nonostante questa faccia meglio rispetto alle DX11) e con il motore Frostbyte di DICE fatto per sfruttare l'HW AMD al massimo il vantaggio di AMD del 5%, forse? Cioè ad nvidia basta aumentare la capacità computazionale del 10% per eliminare completamente il gap con la migliore implementazione pro AMD sul mercato e lei sarebbe quella che complotta per non volere l'uso delle DX12?
Ora, se le DX12 dessero ad AMD un boost tale per cui la 480 andasse come la 1070, allora magari... ma stiamo parlando di un +10 di aumento delle prestazioni che la porta da -5% a + 5%.. vero che essere sopra è sempre meglio, ma suvvia, di che stiamo discutendo? Del futuro dei videogame e delle strategie future basate su questa stronz@ata a cui i fanby AMD di sono attaccati come bambini alla mammella della mamma?
Sempre a sperare nel futuro, nel domani, nelle potenzialità, nei driver... e se non funziona (perché non funzionerà) allora la colpa sarà degli intrighi di nvidia. Sicuro... con Sony e MS che usano HW AMD sulle loro console e praticamente tutte le SH che sviluppano per tali scatolette... che complottone!
Su questo sono d'accordo, ma rimane la scelta di AMD di supportarla, scelta che le costa efficienza e silicio, variabili che vanno considerate nell'equazione.
Del resto sia AMD che Nvidia hanno ridotto man mano il supporto alla DP con le varie revisioni delle loro architetture.
Rimane una nicchia d'utenza a cui la DP interessa e che sicuramente non è felice di questo trend, che la costringe ad acquistare schede di ben altro costo.
nvidia ha smesso di supporta i DP nel mercato consumer con Fermi. Da allora ha creato 2 architetture distinte, riciclando il big matton solo per le super ultra da vendere a prezzi furiosi. E' AMD che è andata avanti a creare architetture con supporto DP non si sa per quale motivo, salvo ravvedersi quando l'efficienza energetica è scesa ad un mimino insostenibile. Ora infatti anche lei sembra non voler più fare architetture consumer con capacità DP spinte. Non che questo faccia la differenza comunque. Era indietro in efficienza e sempre indietro è rimasta. Probabilmente deve lavorare su qualcosa d'altro.
Probabilmente AMD rimane più conservativa perchè non ha le risorse al momento per sviluppare due chip separati e si limita ad adattare la propria architettura. Non so come finirà con Vega, ma ho idea che il chip grosso non trascurerà il calcolo DP, perdendo in efficienza sul lato gaming.
Con Vega secondo me AMD farà una copia della strategia di nvidia: chip piccoli senza DP, chip grandi con DP da poter vendere (e fare soldi, perché nel consumer con i mega processori e i prezzi da fame di AMD non fai i soldi, al massimo immagine quando funzionano meglio della concorrenza o ti tocca svenderli ulteriormente) nel mercato professionale.
Mercato che ricordo non desidera solo DP. nvidia ha venduto una caterva di schede quadro/Tesla basate unicamente sul calcolo SP.
Esagerato :asd:
Va bene ad essere pessimisti, ma anche supponendo Vega disponibile a luglio, da luglio a dicembre sono 5 mesi... un po' troppi da lasciare scoperti. Capirei uno o due mesi, ma cinque...
Le HBM2 sono una tecnologia più matura di quella montata su fiji, in base a cosa pensi che possa ancora creare problemi di fornitura?
Comunque Navi è tutt'ora prevista per la prima metà del 2018, quindi anche lo scenario di AMD che lascia a Nvidia con Volta campo libero per un anno al momento non è plausibile (a meno che tu non sappia di ritardi non ancora resi noti).
Le HBM2, a differenza della HBM, sono usate anche da nvidia e non sarei così sorpreso da apprendere che nvidia abbia concluso un contratto di fornitura esclusiva per un anno intero (ricordo che nvidia vende il GP100 da Gennaio 2016). Forse anche questa come causa del ritardo di AMD. Di sicuro la produzione non è altissima dato che poi a usarla sono in 2 (nvidia e AMD, non mi risultano altri clienti) quindi non è che basta andare da un fornitore qualunque e chiedere 4 chili di HBM2 per averli il giorno dopo in magazzino come con la GDDR5.
Se ne ordini tanta e non vendi ti rimane sul gobbone (e non costqa poco), se ne ordini poca e vendi si fumi la possibilità di maggiore guadagno / market share.
Inoltre a differenza della GDDR5(X) che si monta nelle fabbriche degli AIB, la HBM va montata nella fabbrica di Hynix o equivalente e quindi c'è un passaggio in più che rallenta la catena produttiva (e aumenta ancora di più i costi, se non fossero già alti a sufficienza). Non pensare che a Luglio/Agosto o anche Settembre il mercato sarà invaso da schede Vega con 8GB di HBM2 a 600 euro.
Con il ritardo di Vega dubito che Navi sarà pronto per l'H1 2018 (se non ti sei accorto ormai siamo a metà 2017, mancano solo 12 mesi al rilascio di Navi secondo te?). Per quella data è previsto Volta, che prenderà il posto di Pascal dopo 2 anni, non di una architettura messa sul mercato meno di 12 mesi prima.
Detto questo anche per te, lascio che siano i fatti a parlare.
Quello che è , è e lo vediamo tutti, nonostante le distorsioni che vi fate nella mente perché sembri altro. Ma i numeri sono numeri e descrivono quello che è successo e sta succedendo.
Per il futuro, come detto, aspettiamo che AMD si degni di darci nuove. E che siano buone nuove, non altre caxxate come ha fatto con Fiji (quale strazio con tutto quel ben di D10 montato) e Polaris (quale presa per i fondelli.. 2.5x di efficienza, <150W, 2 schede come una 1080 con il 50% di carico...).
tuttodigitale
27-04-2017, 14:05
Queste sono le solite giustificazioni da fanboy che guarda solo quello che vuole. Le GPU che nvidia con Samsung, che usa lo stesso PP di GF, usano le stesse tensioni delle GPU di AMD ma consumano sempre meno e arrivano a 1700MHz. Il problema non è il PP.
1) non ho mai detto e affermato che il processo Samsung/GF è di qualità inferiore, ma solo che è più economico che è cosa diversa.
2) parlavo di rese. Non puoi dare per scontato che visto che nvidia è riuscita a proporre chip da 500mmq su processo TSMC, che tra le altre cose già un anno prima è stato utilizzato per lo Sparc da 4,1GHz, quello di GF avrebbe permesso altrettanto.
Fino a prova contraria, nvidia utilizzando le FAB SAmsung, che comunque erano senz'altro più mature di quelle GF, ha fatto un chip da soli 130mmq e limitato le frequenze garantite (e il primo motivo è per avere rese più elevate)...
Non mi pare che sia difficile da capire...
3) sulle tensioni dici una cazzata. Se fosse come dici il processo Samsung farebbe schifo....
la gtx1080, processo TSMC, lavora con una tensione di circa 1V a 1,7-1,8GHz...già 1,1V i consumi esplodono letteralmente...
proprio in virtù del fatto che la Rx480 a 1,2GHz lavora con tensioni troppo elevate per garantire un elevata efficienza, guadagna tantissimo se fatta lavorare intorno al GHz..sulla carta, non sembrano esserci differenze di efficienza tra le soluzioni laptop di nvidia e AMD.
Ma le differenti tensioni richieste, torno a ribadirlo, sono dovute al differente FO4....questo è il motivo per il quale per anni ho detto che un SB sui 32nm SOI avrebbe fatto fatica a raggiungere i 3GHz con una tensione di 1,4V.....
nvidia ha esplicitamente detto che hanno ridotto il FO4, cosa che averrà anche con VEGA (la versione WS dovrebbe avere una frequenza di 1,5GHz)
Mi sembra che la questione sia sempre la stessa: trovare giustificazioni su quisquiglie perdendo di vista il bersaglio grosso.
Tu stai confrontando l'efficienza della scheda complessiva. Come ti ho detto con raffreddamento ad liquido che tiene le temperature basse e l'HBM, quindi con costi spropositati, la Fury X ancora sta dietro la GM200. Con 8.9TFLOPS vs 5.6TFLOPS direi che è alquanto discutibile essere felici perché la Fury X arrivi ai livelli della 980Ti.
Quello che non hai capito, che era il discorso principale, è che neanche con GCN1.2 AMD ha fatto progressi significativi nell'efficienza.
di quale efficienza stai parlando....
energetica? tu stesso hai ammesso che non ci sono differenze significative.
Rapporto TFLOPs/Prestazioni? che parametro è?
se un TFLOP di GCN costa meno in termini energetici, per onore dell'efficienza energetica posso anche sacrificare quella computazionale....
visto che parliamo di fiji, ricordati che sono appunto 8,9TFLOPs teorici che richiedono quasi la stessa energia e area del die dei 5,6TFLOPs della 980ti..
di quale super efficienza stai parlando?
tuttodigitale
27-04-2017, 14:18
Hawaii eccezionale per cosa? Per i consumi fuori di testa? Si è parlato male per anni della prima versione di Fermi.. Hawaii era in proporzione molto peggio. Pensa che era così buono che senza concorrenza (anzi con la concorrenza del GK110 e la sua revisione più recente) non ha venduto nulla in campo professionale. Non è che Kepler fosse una schifezza. A parità di consumi rendeva molto di più anche in DP. Poi entrambe le aziende hanno tagliato i DP per risparmiare silicio dato che i 20nm non sono mai arrivati.
sul piano HW la bontà delle soluzioni Hawaii è indiscutibile....considerando che nonostante sia grande pressoapoco quanto GM104 ha una potenza Fp64 pari ad 1/2 Fp32....devo ricordarti acnora una volta che le schede nvidia guadagnano circa il 20% di efficienza una volta che vengono abilitate le unità FP64.....
ad onor del vero con la piena abilitazione delle prestazioni FP64, Hawaii sarebbe migliore su tutta la linea rispetto a Gk110....prestazioni per mmq e prestazioni per watt con un gap ancora più ampio con i calcoli a doppia precisone....
la scarsa fortuna commerciale dell'architettura GCN ha come motivo principale CUDA, e non certo per l'HW.
tuttodigitale
27-04-2017, 14:33
Dal non avere alcuna argomentazione solida al complottismo.
Tipico di chi non vede la realtà per quello che è: come puoi pretendere che un OEM monti una GPU che consuma il 30% in più rispetto alla concorrenza (questi sono i numeri medi che si vede per Polaris vs Pascal, là dove AMD non vuole raggiungere le prestazioni di quest'ultimo, altrimenti di arriva al doppio!!!! Completamente fuori punto di massima efficienza)? 35W sono pochi? E che ne sai? Se la concorrenza con le stesse prestazioni ne consuma 20, la tua bellissima GPU da 35W rimane sugli scaffali del magazzino dove verrà svalutata alla fine dell'anno.
Non puoi estendere i vantaggi sul desktop sul mobile.....da sempre un FO4 più elevato permette sulla carta di avere vantaggi quando è richiesta la più elevata efficienza
la radeon pro ha il 90% delle prestazioni della rx460 e un TDP di 35W contro i 75W di quest'ultima....
forse è giusto segnalare che la 1050ti per laptop, stesso processo 14nm LPP, ha un TDP di 60W.....la 1050ti va il doppio della rx460?:muro:
20vs35W? di cosa stai parlando? :D
Sono semmai 60 vs 35W, con prestazioni molto simili......:e a consumare MOLTO meno è la soluzione AMD :read:
alla luce di questi risultati devo rimangiarmi quello che ho detto...non sembrerebbe vero che AMD non abbia curato a sufficienza lo shrink della quarta generazione dell'architettura GCN, semmai:
AMD con Polaris ha pensato innanzitutto al mercato mobile con una soluzione in grado di assolvere il compito in maniera specifica e persino migliore di quanto è capace nvidia con le soluzioni Pascal, usando lo stesso processo produttivo... .
Gyammy85
27-04-2017, 15:11
Quindi nemmeno a maggio usciranno ste schede video? :( :(
Le 1080 stanno scendendo di prezzo, mi sa che ne prendo una.
Dovrebbero uscire a maggio le schede
in mezzo a tutti questi wall text mi sono perso, chi è verde (pardon, fan del portafoglio) e rosso qui? :O
Ultima anche per me (pensavo di non rispondere, ma su qualcosa voglio mettere i puntini sulle i).
Costi produttivi: non si può parlare di costi nulli, adattare anche un'architettura esistente senza cambiare una virgola ad un nuovo processo produttivo è costoso, soprattutto se si lavora molto sull'ottimizzazione (che deve comunque essere nuovamente affrontata, Nvidia con Pascal ha dovuto riottimizzare sul nuovo processo, non ha vissuto di rendita sul lavoro fatto per Maxwell).
Ad ogni modo concordo sul fatto che AMD, con polaris (soprattutto con la serie 5xx) ci abbia investito il meno possibile.
Architettura e revisioni: ovviamente anche quando si crea una nuova architettura il vecchio non si butta via mal del tutto. Ma ci sono dei cambiamenti concettuali sul funzionamento del chip che determinano un cambio reale di architettura, tale da differenziarlo da una revisione.
Ho fatto prima gli esempi delle architetture AMD perchè molto chiari anche nei nomi che l'azienda ha dato ai chip: terascale e GNC, Buldozer e Zen.
Ad ogni modo l'importante è capirsi.
Vega, nonostante i cambiamenti fatti a Polaris, ne condivide comunque i principi di funzionamento, portando però tante migliorie (sulla carta, per lo meno). Per questo non mi pare ci siano le premesse per parlare di nuova architettura.
Le potenzialità future sono sempre quelle ...
Non parlo di miglioramenti di una scheda già in commercio, ma di cosa si potrebbe ottenere sulla stessa architettura se venisse fatto quel lavoro di ottimizzazione che non è stato fatto.
Hai detto quello che ho detto io.
Non proprio. Tu hai detto che non avrebbe avuto convenienza ad ottimizzare perchè sarebbe stata comunque non competitiva. Io invece ho detto che non avrebbe avuto convenienza ad ottimizzare perchè anche se fosse stata competitiva (nulla esclude che avrebbe potuto fare meglio delle nvidia) non ne avrebbe avuto una convenienza.
Insomma, per te era una causa persa, per me semplicemente una scelta (legata a costi, risorse, tempi, ecc...).
Quindi di certo la scelta di GF è stata la più vantaggiosa per AMD. Non vuol dire però che paghi meno.
Alcuni degli accordi che in passato amd aveva sulla produzione di chip bulldozer sono diventati pubblici, e si è visto che c'erano condizioni molto vantaggiose (in cambio, in questo caso, dell'occupazione di un certo numero di slot produttivi o dell'esclusività). Pensa che era persino saltato fuori che AMD pagasse solo i chip funzionanti, indipendentemente dalle rese.
Ora, è difficile stimare il vantaggio economico, l'idea che mi son fatto in base a quanto ho letto è che polaris per AMD fosse un chip molto, molto economico. Hanno puntato a fare quantità, ad un prezzo aggressivo e con un certo margine senza spendere troppo sull'ottimizzazione del prodotto.
Cioè, io ti ho detto che le classificazioni sono fatte dopo che il chip è stato fatto, mi dici che le DX12 sono nate dopo i chip, e mi dici che ho detto una sciocchezza?
A me era sembrato che scrivessi qualcosa di differente: ossia che queste classificazioni venissero sempre fatte a posteriori. In realtà non è proprio così, ed è evidente se consideri il fatto che in quel momento nessun chip implementava alcune delle caratteristiche che fanno parte di queste API.
Di fatto, per un'implementazione hardware completa delle DX12 occorreva nuovo hardware (e occorre tutt'ora).
Mi sembra di aver letto da qualche parte, tempo fa, che uno sviluppatore avesse dichiarato che le differenze erano minime e che comunque i driver coprivano la cosa, quindi ancora non c'è alcuna conferma di quanto ha affermato.
Io avevo letto esattamente il contrario, con più sviluppatori che affermavano come il supporto al Tier 3 fosse estremamente comodo e molto utile sul fronte prestazionale quando sfruttato adeguatamente.
Ora dopo tanto tempo beccare di nuovo le fonti mi richiederebbe un po' troppo tempo, ma sono sicuro che volendo approfondire si possano ancora trovare.
Ascolta, se vuoi ragionare, ragioniamo, se vuoi prendermi in giro, allora non credo di voler dedicarti altro tempo.
Mi pare che proprio da questo orecchio non ci vuoi sentire.
Chi ha mai detto che avere una notevole forza bruta significa non essere efficiente? Chi ha mai parlato di efficienza?
Ripeto, avere una notevole forza bruta non è una cosa negativa. Significa solo che le prestazioni ottenute non sono frutto di una supremazia architetturale.
Allora Terascale era una architettura ripulita all'osso che era più efficiente. E siete andati avanti per anni a menarla con la questione che nvidia era "grassa, grossa e consumava un fottio in più".
"siete andati avanti"? :asd:
Ma per chi mi prendi, per un fanboy AMD solo perchè rispondo alle tue sparate pro-nvidia? Dovresti un attimo provare a cambiare atteggiamento.
Piuttosto dovresti ricordare come allora gli affezionati Nvidia giustificavano Fermi ma ora le schede AMD sono uno schifo perchè consumano 30W in più. E giusto nell'altro post hai persino scritto che rispetto a Fermi Hawaii era in proporzione molto peggio... suvvia, non scherziamo.
Ad ogni modo: terascale in realtà era sempre avanti alle Nvidia relativamente al supporto API, quindi tanto all'osso non era.
Erano filosofie differenti, come ora lo sono GNC e le architettura attuali Nvidia. Ogni scelta ha pro e contro, solo tu ti impunti a vedere una superiorità di una delle due parti definendo altra con termini (dal "fallimento", a "disastro", a "meno che nobile GCN", ecc...) che francamente ho visto pronunciare solo ai fanboy più accaniti.
A scanso di equivoci, parlo di superiorità tecnologica, non commerciale. Commercialmente Nvidia ha fatto indubbiamente meglio.
Si possono avere le migliori tecnologie e architetture, ma non usarle al meglio e non centrare l'obiettivo commerciale, cosa che ultimamente AMD ha fatto abbastanza spesso.
Prima di parlare di DX12 che non sono supportate al meglio qui o lì, parliamo del fatto che sul mercato per ora di giochi DX12 non se ne vedono proprio. E non è "colpa" di nvidia. E' colpa del fatto che di motori DX12 non ce ne sono e quei pochi che sono stati adattati semplicemente usano le funzioni base DX12 per replicare le funzioni ad alto livello delle DX11 senza avere quindi un motore pensato per sfruttare le DX12 in maniera completa.
Su questo siamo d'accordo. Infatti si suppone che la prossima generazione di motori sfrutti molto meglio queste API e si comincino a vedere le reali differenze.
Non sono d'accordo sul resto.
DX12/Mantle/Vulkan/Metal sono una vera rivoluzione (o meglio, un ritorno) in ambito gaming PC. E non parlo del poco che si vede ora, che come tu stesso noti, consiste nell'eliminare qualche collo di bottiglia sostituendo alcune parti di codice.
Che i costi di sviluppo con DX12 (Vulkan, etc... dirò DX12 ma mi riferirò a tutti) aumentino contraddice quanto ho letto in passato, non stiamo passando dal java all'assembler, diversi sviluppatori hanno parlato di sforzi contenuti nel convertire i motori attuali, di cui non ci sarà più bisogno quando i motori saranno DX12 nativi, tra qualche anno.
PS: io per la tessellazione ricordo una storia ben diversa. AMD si lamentava perchè alcuni benchmark utilizzavano un livello di tessellazione eccessivo, oltre ogni senso logico, mettendo in crisi le proprie architetture. Si è parlato di Nvidia che ha spinto all'adozione di importazioni inutilmente elevate per favorire il proprio approccio.
Ti ricordo che con le DX12 i driver non possono più patchare i giochi e risolvere le magagne dei programmatori, ma il codice deve essere scritto in maniera corretta sin dal principio. Altri costi di sviluppo in più.
Perchè in più? Dovevano essere patchati prima e dovranno essere patchati ora. La differenza sarà che avremo driver più snelli, e che AMD e Nvidia collaboreranno direttamente con le SW House per correggere quegli errori (come già stanno facendo).
A me pare un approccio migliore, meglio correggere il problema una volta alla radice che doverlo aggirare più volte ognuno nei propri driver.
Questa del potere di mercato dovete davvero dimostrarla
C'è davvero bisogno di dimostrare che un'azienda con l'80% del mercato schede discrete per PC abbia un elevato potere contrattuale? Quello consolle è un mondo a parte.
perché nel consumer con i mega processori e i prezzi da fame di AMD non fai i soldi
Non mi sembra che con Polaris i chip AMD siano ne "mega processori" ne siano venduti a prezzi da fame (anzi...).
Forse sei rimasto nel passato.
Le HBM2 ...
E tu non credo che AMD abbia tenuto conto di queste cose? Il ritardo c'è già stato, ora è tempo di far uscire queste schede.
Dubito anche che Nvidia abbia monopolizzato la produzione, le HBM sono comunque sviluppate da AMD e mi parrebbe più sensato se questa si fosse tutelata con accordi di fornitura adeguati, che non permettessero all'ultima arrivata di soffiarle sotto il naso il suo prodotto.
Con il ritardo di Vega dubito che Navi sarà pronto per l'H1 2018 (se non ti sei accorto ormai siamo a metà 2017, mancano solo 12 mesi al rilascio di Navi secondo te?).
Dipende da cosa sia dovuto il ritardo. Lo sviluppo di Navi è ovviamente già iniziato da tempo, e procede per proprio conto nonostante i ritardi di Vega (che possono incidere, ma non più di tanto).
Se il ritardo fosse dovuto alle HBM2, per l'arrivo di Navi la tecnologia sarà già matura e non dovrebbe introdurre ulteriori ritardi.
Ok, mi sono dilungato un poi' più del previsto. Spero per lo meno che questo servirà per le discussioni future, senza che si debbano leggere sempre le solite cose (a cui ovviamente toccherà rispondere ancora con le solite cose...).
CrapaDiLegno
27-04-2017, 15:47
1) non ho mai detto e affermato che il processo Samsung/GF è di qualità inferiore, ma solo che è più economico che è cosa diversa.
Non è che ho voglia di riquotare ogni tua singola affermazione.
Tu questo hai detto:
I consumi elevati sono pesantemente condizionati dal fatto che l'architettura AMD richiede circa 1,25V a 1,2GHz contro 1V per i 1,7GHz per nvidia...
e io ti ho fatto notare che sullo stesso PP le tensioni di Polari s e Pascal sono le stesse ma le GPU nvidia arrivano lo stesso a 1700MHz consumando 65W. E quindi il problema non è il PP o le tensioni che questo richiede.
2) parlavo di rese. Non puoi dare per scontato che visto che nvidia è riuscita a proporre chip da 500mmq su processo TSMC, che tra le altre cose già un anno prima è stato utilizzato per lo Sparc da 4,1GHz, quello di GF avrebbe permesso altrettanto.
Fino a prova contraria, nvidia utilizzando le FAB SAmsung, che comunque erano senz'altro più mature di quelle GF, ha fatto un chip da soli 130mmq e limitato le frequenze garantite (e il primo motivo è per avere rese più elevate)...
Non mi pare che sia difficile da capire...
Io non di per scontato nulla. Siete voi che state estraendo dati a favore delle vostre teorie senza però avere nulla in mano. Io ho ho solo visto nvidia cominciare a produrre un chip grande oltre 600mm^2 (non 500) come primissimo chip creato sul nuovo PP. Poi ho visto sfornare uno dietro l'altro i fratellini minori.
Siete voi che avete tirato in ballo costi e capacità produttive di Samsung senza alcun motivo. O meglio. Solo per cercare di dire che AMD a chipponi più grandi ma le costano poco, quindi chissene.
3) sulle tensioni dici una cazzata. Se fosse come dici il processo Samsung farebbe schifo....
la gtx1080, processo TSMC, lavora con una tensione di circa 1V a 1,7-1,8GHz...già 1,1V i consumi esplodono letteralmente...
proprio in virtù del fatto che la Rx480 a 1,2GHz lavora con tensioni troppo elevate per garantire un elevata efficienza, guadagna tantissimo se fatta lavorare intorno al GHz..sulla carta, non sembrano esserci differenze di efficienza tra le soluzioni laptop di nvidia e AMD.
Guarda che le cazzate le stai dicendo tu. Io non ho fatto alcuna comaprazione tra Pascal TMSC e Polaris GF. Te lo sei inventato tu.
Quello che vedo è che Polari s mura a 1300MHz (siamo già ben oltre il punto di massima efficienza) ma AMD è arrivata a portarlo a oltre 1400Mhz dove per l'8% di prestazioni in più consuma il 50% in più. Che sommato a quanto già schifo faceva prima significa che consuma il doppio per le stesse prestazioni. Io mica ho detto che il processo fa schifo. Quota se trovi la mi affermazione.
di quale efficienza stai parlando....
energetica? tu stesso hai ammesso che non ci sono differenze significative.
Hey, capiamoci perché mi sembra che leggi e intendi quello che vuoi. Prima di tutto non ho detto che la differenza non è significativa. Ho detto ceh tu stai guardando l'efficienza della scheda, non della GPU.
La GPU di AMD consuma di più nonostante raffreddamento a liquido e HBM di solo 4GB. L'hai capito questo o fai finta di niente?
E nonostante questo non overclocca (è giò al massimo permesso dalla architettura) mentre la scheda nvidia sale come un razzo ancora.
Rapporto TFLOPs/Prestazioni? che parametro è?
se un TFLOP di GCN costa meno in termini energetici, per onore dell'efficienza energetica posso anche sacrificare quella computazionale....
visto che parliamo di fiji, ricordati che sono appunto 8,9TFLOPs teorici che richiedono quasi la stessa energia e area del die dei 5,6TFLOPs della 980ti..
di quale super efficienza stai parlando?
TFLOPS/prestazioni è quello che mi dice quanto bene va l'architettura (quella che è pensata per il futuro, quella che è super efficiente, quella che non usa la forza bruta...).
1. non richiede la stessa energia. Togli memorie e raffreddamento a liquido e sei sempre indietro
2. non richiede la stessa area, visto che AMD ha detto che il controller HBM è oltre 50mm^2 più piccolo di quello di Hawaii.
3. per arrivare a mettere tutti quegli shader le ROPs sono state sacrificate e il chip in qualche modo non funziona adeguatamente in molte occasioni, sopratutto a bassa risoluzione. E' un chip nato male che nessuno ha voluto. Punto.
Non puoi estendere i vantaggi sul desktop sul mobile.....da sempre un FO4 più elevato permette sulla carta di avere vantaggi quando è richiesta la più elevata efficienza
la radeon pro ha il 90% delle prestazioni della rx460 e un TDP di 35W contro i 75W di quest'ultima....
forse è giusto segnalare che la 1050ti per laptop, stesso processo 14nm LPP, ha un TDP di 60W.....la 1050ti va il doppio della rx460?:muro:
20vs35W? di cosa stai parlando? :D
Sono semmai 60 vs 35W, con prestazioni molto simili......:e a consumare MOLTO meno è la soluzione AMD :read:
Parlo di quello che vedo. A parte che non so perch tu dica che la 1050 mobile consumi 60W. Per il resto è evidente che nessuno vuole le schede discrete di AMD sui portatili. E no, non c'è un complotto. Semplicemente consumano di più. Se AMD può abbassare consumi delle sue schede mobile, altrettanto può nvidia. E forse anche meglio, visto che è su macchine Samsung meglio rodate.
alla luce di questi risultati devo rimangiarmi quello che ho detto...non sembrerebbe vero che AMD non abbia curato a sufficienza lo shrink della quarta generazione dell'architettura GCN, semmai:
AMD con Polaris ha pensato innanzitutto al mercato mobile con una soluzione in grado di assolvere il compito in maniera specifica e persino migliore di quanto è capace nvidia con le soluzioni Pascal, usando lo stesso processo produttivo... .
MA SE NON C'E' SU NESSUNA SOLUZIONE PORTATILE CHE CAXXO CONTINUI CON QUESTA AUTOCONVINZIONE CHE TI STAI SPARANDO DA QUANDO GCN e' USCITO???
Nel tuo universo parallelo AMD dovrebbe avere l'80% del mercato desktop e la totalità del mercato HPC e dominare in quello mobile dove l'efficienza conta un casino. Con questa architettura così miracolosa che fa più TFLOPS con meno W, consuma meno nei portatili, rende di più con meno silicio e in più il silicio le costa pure meno rispetto a TMSC...
E invece, mio caro, DEVI SVEGLIARTI!!!! La realtà è l'opposto.
Ora rifai tutti i calcoli e torna a parlare di GCN come buona architettura quando, comparata a quella nvidia, consuma meno, usa meno spazio e a parità di TFLOPS teorici, va uguale, non quando usa trucchi di programmazione a carico degli sviluppatori (sovvenzionati) con HW apposito (oltre alle mille mila ALU in più rispetto a nvidia) per guadagnare rullo di tamburi.. il 10%. 5% netti sulla concorrenza. Che dopo Terascale contro cui lottava con chipponi più grandi ma l'aveva comunque vinta, grazie a GCN si è trovata a combattere con chipponi più grandi e più energivori e ha fatto il botto come si è visto.
Ora rigira la frittata come vuoi, incensa Thaiti, Tonga e Fiji, rendi Polaris il martire dei complotti, ma la situazione reale è che GCN è e rimane una architettura che non compete oggi, come non lo ha fatto a Marzo 2012 quando sul mercato è arrivato il GK104.
Io continuo a sperare in un Vega decisamente migliore, perché a continuare a dire che GCN è buone e bello poi qualcuno se ne convince pure e nvidia ci spara Volta a 1000 euro per una x80.
tuttodigitale
27-04-2017, 19:36
Non è che ho voglia di riquotare ogni tua singola affermazione.
Tu questo hai detto: I consumi elevati sono pesantemente condizionati dal fatto che l'architettura AMD richiede circa 1,25V a 1,2GHz contro 1V per i 1,7GHz per nvidia
.
esattamente i consumi sono condizionati dal fatto, che l'architettura di AMD per arrivare a 1,3GHz richiede tanto al silicio....in sostanza oltre il GHz è da considerarsi un vero e proprio OC....
dove avrei parlato di processo? :rolleyes:
e io ti ho fatto notare che sullo stesso PP le tensioni di Polari s e Pascal sono le stesse ma le GPU nvidia arrivano lo stesso a 1700MHz consumando 65W. E quindi il problema non è il PP o le tensioni che questo richiede.
ti avevo già detto che quanto stai affermando è falso....
1,06V per raggiungere i 1892MHz.... per la gtx1080
oggi, quindi con un processo produttivo migliorato le GPU polaris richiedono 1,21-1,25V per raggiungere 1,35GHz...
(fonte:anandtech)
come fai a non vedere le differenze?
Tu pensi davvero che un chip da 500mmq come VEGA può permettersi il lusso di avere una tensione operativa superiore ai 1,2V? Eppure la frequenza dovrebbe essere intorno ai 1,5GHz....:read:
Siete voi che avete tirato in ballo costi e capacità produttive di Samsung senza alcun motivo. O meglio. Solo per cercare di dire che AMD a chipponi più grandi ma le costano poco, quindi chissene.
ho tirato in ballo le capacità di GF poichè è dalla fornitura di questa azienda che dipende la capacità di AMD di fare o no GPU di grosse dimensioni. Queste sono per lo più sconosciute, ed è proprio per questo che non puoi dare per scontato che GF un anno fa sarebbe stato in grado di produrre con buone rese chip di grandi dimensioni...
è inutile mettere in ballo TSMC, questa ha prodotto una CPU HPC da 4,1GHz....quindi aveva un silicio con rese sufficientemente buone. Samsung se ricordi ha avuto problemi produttivi che avevano spinto Apple ad approvvigionarsi da TSMC....
inoltre nvidia ha limitato pesantemente la frequenza di turbo boost, no perchè il processo Samsung è inferiore (le prove di OC mostrano differenze minime) ma semplicemente per aumentare le rese.....infatti come nel caso AMD i chip buoni sono stati riservati al mobile, e contrariamente al solito hanno frequenze maggiori, che avvalorano ulteriormente la mia tesi......
nonostante tutti questi indizi, sei tu che stai dando per scontato che l'ultima arrivata sul processo finfet (GloFo) abbia avuto le stesse capacità produttive fin da subito....
Guarda che le cazzate le stai dicendo tu. Io non ho fatto alcuna comaprazione tra Pascal TMSC e Polaris GF. Te lo sei inventato tu.
Quello che vedo è che Polari s mura a 1300MHz (siamo già ben oltre il punto di massima efficienza) ma AMD è arrivata a portarlo a oltre 1400Mhz dove per l'8% di prestazioni in più consuma il 50% in più. Che sommato a quanto già schifo faceva prima significa che consuma il doppio per le stesse prestazioni. Io mica ho detto che il processo fa schifo. Quota se trovi la mi affermazione.
non girare la frittata tu hai scritto che io avrei detto che il processo fa schifo, mentre ho detto che il motivo della bassa efficienza sul desktop è perchè Polaris lavora a voltaggi alti a causa del suo elevato valore di FO4....
Hey, capiamoci perché mi sembra che leggi e intendi quello che vuoi. Prima di tutto non ho detto che la differenza non è significativa. Ho detto ceh tu stai guardando l'efficienza della scheda, non della GPU.
La GPU di AMD consuma di più nonostante raffreddamento a liquido e HBM di solo 4GB. L'hai capito questo o fai finta di niente?
E nonostante questo non overclocca (è giò al massimo permesso dalla architettura) mentre la scheda nvidia sale come un razzo ancora.
ma metti anche che l'impianto a liquido di suo consuma circa 10W.
E comunque come hai fatto notare, la Fury x era a limite con il clock...già la Fury liscia (-5% di clock) consuma 20W meno della 980ti
http://images.anandtech.com/graphs/graph9421/75693.png
per me stai facendo una discussione su pochissimi punti percentuali di efficienza...
TFLOPS/prestazioni è quello che mi dice quanto bene va l'architettura (quella che è pensata per il futuro, quella che è super efficiente, quella che non usa la forza bruta...).
se quello che dici fosse vero le GPU sarebbero intrisecamente meno efficienti delle CPU poichè a parità di GFLOPs rendono meno? :rolleyes:
importante è anche quanto costano in termini di superficie e potenza dissipata la forza bruta...
1. non richiede la stessa energia. Togli memorie e raffreddamento a liquido e sei sempre indietro
guarda che esiste una enorme differenza di GFLOPs certamente non colmabile con i pochi watt di consumo delle VRAM (tra le altre cose colmate in parte proprio dal maggior consumo proprio dell'impianto di dissipazione)
3. per arrivare a mettere tutti quegli shader le ROPs sono state sacrificate e il chip in qualche modo non funziona adeguatamente in molte occasioni, sopratutto a bassa risoluzione. E' un chip nato male che nessuno ha voluto. Punto.
guarda che gli shader, come ho fatto notare non aiutano neppure alle alte risoluzioni...la differenza minima con la fury liscia è praticamente costante.
E per l'ennesima volta sono state sacrificate perchè il processo non ha permesso di aumentare le dimensioni del anche soli di pochi mmq....
Parlo di quello che vedo. A parte che non so perch tu dica che la 1050 mobile consumi 60W.
invece non so perchè tu scriva per il semplice gusto di contraddirmi....:rolleyes:
http://www.digitaltrends.com/computing/nvidia-geforce-gtx-1050-ti-laptops-benchmarked-specs/
MA SE NON C'E' SU NESSUNA SOLUZIONE PORTATILE CHE CAXXO CONTINUI CON QUESTA AUTOCONVINZIONE CHE TI STAI SPARANDO DA QUANDO GCN e' USCITO???
https://www.apple.com/it/macbook-pro/ :confused:
per il resto, sei letteralmente uscito di testa parlando di complotti, quando l'unico mio pensiero al riguardo, è che non sempre gli OEM scelgono prodotti tecnicamente migliori o con un migliore rapporto prezzo prestazioni, ma tengono d'occhio, ovviamente anche la percezione del marchio da parte di chi compra....
questo non toglie che un introvabile portatile con BR, va circa il 30-40% più di un Pentium skylake con lo stesso TDP in cinebecnh avendo prestazioni nel MT paragonabile ad un i3 skylake e nel ST ad un i3 Haswell.. (fonte:notebookcheck)
Tu pensi che oggi se parli con un commesso (più informato dei clienti :eek: ) pendi davvero che sappia che AMD abbia colmato quasi del tutto il gap?:doh:
Ricordo che AMD, addirittura nel mercato RETAIL, ha raggiunto il massimo delle vendite nel 2007, 6-7 mesi dopo la commercializzazione di conroe......
come vedi ho terminato gli argomenti, anche perchè le tue esternazioni sono distanti anni luce dalla verità...
CrapaDiLegno
28-04-2017, 00:55
Ultima anche per me (pensavo di non rispondere, ma su qualcosa voglio mettere i puntini sulle i).
Qualche puntino anche per me, intanto che il telefono si aggiorna ;)
Costi produttivi: non si può parlare di costi nulli, adattare anche un'architettura esistente senza cambiare una virgola ad un nuovo processo produttivo è costoso, soprattutto se si lavora molto sull'ottimizzazione (che deve comunque essere nuovamente affrontata, Nvidia con Pascal ha dovuto riottimizzare sul nuovo processo, non ha vissuto di rendita sul lavoro fatto per Maxwell).
Ad ogni modo concordo sul fatto che AMD, con polaris (soprattutto con la serie 5xx) ci abbia investito il meno possibile.
Ma è ovvio che Pascal non è costao zero dollari, ma una frazione infinitesima di quanto è costato Maxwell. Pure Polaris per AMD è costato qualcosa, d'altronde il layout per il nuovo PP lo devi fare anche con l'architettura pronta e finita, ma è costato uno sputo rispetto a quanto è costato GCN1.2.
Architettura e revisioni: ovviamente anche quando si crea una nuova architettura il vecchio non si butta via mal del tutto. Ma ci sono dei cambiamenti concettuali sul funzionamento del chip che determinano un cambio reale di architettura, tale da differenziarlo da una revisione.
Ho fatto prima gli esempi delle architetture AMD perchè molto chiari anche nei nomi che l'azienda ha dato ai chip: terascale e GNC, Buldozer e Zen.
Ad ogni modo l'importante è capirsi.
Vega, nonostante i cambiamenti fatti a Polaris, ne condivide comunque i principi di funzionamento, portando però tante migliorie (sulla carta, per lo meno). Per questo non mi pare ci siano le premesse per parlare di nuova architettura.
Vedremo i cambiamenti di Vega, ma come abbiamo visto piccoli cambiamenti fondamentali, come in Mexwell rispetto a Kepler, possono portare a risultati molto diversi.
Non parlo di miglioramenti di una scheda già in commercio, ma di cosa si potrebbe ottenere sulla stessa architettura se venisse fatto quel lavoro di ottimizzazione che non è stato fatto. E certo, se creo qualcosa id diverso, pur tenendo parte di quel che ho, è ovvio che posso avere risultati diversi.
Basta avere i soldi e le giuste idee per fare il lavoro. Per ora AMD non ha avuto nessuno delle due. Dopo i risparmi fatti con GCN si spera che qualcosa in più abbiamo messo in Vega e soprattutto si spera che le si sia schiarita le idee su quel che vuole fare da grande: GPU ottimizzate per il mercato consumer/mobile o GPU per il mercato professionale. Due mercati, due diversi set di funzionalità richiesti: fare tutta una poltiglia come ha fatto finora non l'ha certo aiutata, nonostante i numeri (teorici) che stampava sulle scatole.
Non proprio. Tu hai detto che non avrebbe avuto convenienza ad ottimizzare perchè sarebbe stata comunque non competitiva. Io invece ho detto che non avrebbe avuto convenienza ad ottimizzare perchè anche se fosse stata competitiva (nulla esclude che avrebbe potuto fare meglio delle nvidia) non ne avrebbe avuto una convenienza.
Insomma, per te era una causa persa, per me semplicemente una scelta (legata a costi, risorse, tempi, ecc...).
Io ho detto che non avevano nessuna convenienza perché l'investimento sarebbe stato superiore ai guadagni. Guarda che le aziende ragionano così. Mica che fanno le cose ad minchiam. Se investo un miliardo per fare una linea di chip grandi come una mattonella voglio essere sicuro che ne entrino almeno altrettanti, se lo scopo è farsi vedere sul mercato. Altrimenti non si fa. Dopo il buco di Fiji direi che l'idea di fare chip grandi per nulla è definitivamente passata.
Se pensi di non avere un ritorno sufficiente è perché il mercato non è disponibile a pagare quanto chiedi o perché sai che la concorrenza non ti darà sufficiente spazio.
Se la concorrenza nello stesso mercato fa guadagni (e mica pochi) e tu non partecipi significa che sai di non essere in grado di competere in termini di prezzi/margini e quindi rinunci. Che è la stesa cosa che hai detto tu. Semplicemente AMD non ci ha visto un investimento fruttuoso, e questo non è dovuto alle scie chimiche o perché SU quel giorno si è alzata con il raffreddore, semplicemente perché sanno che a parità di costi (non prezzi) nvidia è piazzata decisamente meglio e non le si può fare guerra con i chipponi. Già fa fatica con quelli piccoli dove il 50% di energia in più è qualcosa ma ancora gestibile, figuriamoci quando si parla di schede da 250+W. Lì il 50% in più sono centinaia di W di differenza. Più costi di raffreddamento, più problemi, uniti alle dimensioni maggiori dei chip (più costi checché tu dica che paghi poco il silicio) e minori margini, la convenienza non c'è. Stessa cosa che ho detto io, solo che io l'ho motivata, non sono andato dicendo una cosa astratta.
Alcuni degli accordi che in passato amd aveva sulla produzione di chip bulldozer sono diventati pubblici, e si è visto che c'erano condizioni molto vantaggiose (in cambio, in questo caso, dell'occupazione di un certo numero di slot produttivi o dell'esclusività). Pensa che era persino saltato fuori che AMD pagasse solo i chip funzionanti, indipendentemente dalle rese.
Ora, è difficile stimare il vantaggio economico, l'idea che mi son fatto in base a quanto ho letto è che polaris per AMD fosse un chip molto, molto economico. Hanno puntato a fare quantità, ad un prezzo aggressivo e con un certo margine senza spendere troppo sull'ottimizzazione del prodotto.
Che il problema di AMD è il costo dei suoi prodotti non è un segreto. Sono anni ormai che non ha margine sui suoi prodotti per via del fatto che a parità di risorse vanno meno di quelli della concorrenza. Sono anni che lo sostengo e sono anni che dico che la cosa ha influenza sulle strategia aziendali. Quindi che GF le sia più conveniente è molto probabile. Che sia tanto più conveniente ho i miei dubbi.
Vediamo cosa tira fuori con Vega e a che costi (i prezzi li farà come al solito nvidia decidendo quanti dollari per FPS si dovrà pagare).
A me era sembrato che scrivessi qualcosa di differente: ossia che queste classificazioni venissero sempre fatte a posteriori. In realtà non è proprio così, ed è evidente se consideri il fatto che in quel momento nessun chip implementava alcune delle caratteristiche che fanno parte di queste API.
Di fatto, per un'implementazione hardware completa delle DX12 occorreva nuovo hardware (e occorre tutt'ora).
Le DX12, come detto, sono postume ad HW già disponibile, per cui si è dovuto creare le classificazioni più disparate per astrarre più architetture possibili.
Non è un mistero che la più entusiasta a cambiare le vecchie DX11 su cui non è mai riuscita a essere efficiente è stata AMD e quindi ha proposto tutta una serie di cose che vanno a suo vantaggio e a svantaggio della concorrenza.
Non è un mistero che tutto questo lavoro non è che abbia poi portato ai miracoli tanto decantati. Si parla sempre dei vantaggi di AMD con le DX12, ma sempre e solo verso sè stessa. E grazie al piffero, in DX11 faceva cag@re che metà basta... ma alla fin fine quanto è il vantaggio? Sono andato a vedere i famosissimi risultati di Doom in Vulkan che dicono tutti spaccare il cu|o a nvidia... tra 1060 senza async e 480 con async siamo a 10FPS di differenza. 115 a 125 circa. L'8% in più.
Sto parlando di Vulkan che non ha un motore portato a DX11. Libero di usare al meglio la tecnologia come le librerie consentono.
8% in più. Un botto in più rispetto alla versione OpenCL. Ma lì perché l'implementazione di AMD con i sui driver faceva schifo per davvero e le prendeva di santa ragione da nvidia.
Ora ritorno al punto zero: scheda che consuma 165W, è più grande, ha il 30% in più di potenza computazionale (teorica) anche se meno ROPs.. vantaggio? 8%. Con il miglior esempio finora sfornato a 2. Ripeto, stiamo parlando di uno stramaledettissimo 8% di differenza di prestazioni tra l'architettura che non usa l'async (nvidia non la supporta in Vulkan per ora) e quella che è stata pensata per essere future proof, DX12 compliant...
Di contro nvidia fa prestazioni più che ragguardevoli anche con le semplici OpenGL.
E' davvero l'async e il basso livello che dobbiamo guardare per avere davvero la rivoluzione che ci aspettavamo? Dobbiamo davvero caricare i programmatori di lavoro extra per estrarre quella misera potenza in più?
Ricordo che i driver non potranno più intervenire come prima e se un motore farà schifo per una particolare architettura non ci sarà nessuna pezza disponibile: così è e così rimarrà. Comincerà la vera corsa a foraggiare i programmatori per farli ottimizzare per una architettura piuttosto che un'altra? Per una differenza del 10%? Il miracolo che tutti aspettavamo?
Mi pare che proprio da questo orecchio non ci vuoi sentire.
Chi ha mai detto che avere una notevole forza bruta significa non essere efficiente? Chi ha mai parlato di efficienza?
Ripeto, avere una notevole forza bruta non è una cosa negativa. Significa solo che le prestazioni ottenute non sono frutto di una supremazia architetturale.
Mi sa che hai sbagliato a descrivere le caratteristiche della architettura nvidia come "forza bruta". La forza bruta è quella che si applica senza ottimizzazione, nello spreco assoluto per riuscire a risolvere un problema.
Usare miliardi di tentativi per craccare una password è forza bruta. Lo si fa in barba al fatto che non c'è alternativa e si provano tutte le combinazioni (ovviamente partendo dalle più probabili, ma con una cifratura a 512 bit non c'è vocabolario che tenga). Forza beuta è quando per avere il risultato il prima possibile faccio di tutto, compreso eseguire i percorsi meno probabili, in barba alle risorse usate (energia e transistor), pur di non perdere un solo salto condizionale. Forza bruta è attaccare un problema usando quanto è possibile per risolverlo in minor tempo. E' costruire una architettura che usa più risorse possibili per farlo.
Questo non è la descrizione della architettura che nvidia ha creato.
Semmai il contrario, come ti ho fatto vedere.
Meno ALU, meno energia, meno banda, meno silicio (anche se con Maxwell parte del vantaggio della densità dell'architettura è stato sacrificato per l'efficienza energetica, e nonostante questo rimane sempre comunque più piccola) tutto dice che nvidia ha cercato di fare in modo che ogni risorsa sia usata al meglio.
Ora voi dite che sono un fanboy. Purtroppo questi sono fatti, e per quanto vorrei vedere Vega fare lo stesso, per ora ho solo Polari per fare un confronto e la cosa mi fa piangere. E non sono io che sono fanboy e guardo le cose con occhio distorto. I fatti sono questi, porca miseria... e questo qui sotto continua con la sua lotta ai mulini a vento...
Ad ogni modo: terascale in realtà era sempre avanti alle Nvidia relativamente al supporto API, quindi tanto all'osso non era.
Erano filosofie differenti, come ora lo sono GNC e le architettura attuali Nvidia. Ogni scelta ha pro e contro, solo tu ti impunti a vedere una superiorità di una delle due parti definendo altra con termini (dal "fallimento", a "disastro", a "meno che nobile GCN", ecc...) che francamente ho visto pronunciare solo ai fanboy più accaniti.
I fanboy distorcono la realtà pur di avere ragione (see below). Io vi sto rinfacciando dati. Roba misurabile. Roba che ha impatti reali. Roba che si vede nei benchmark e nei bilanci. Roba che si può toccare con mano.
A scanso di equivoci, parlo di superiorità tecnologica, non commerciale. Commercialmente Nvidia ha fatto indubbiamente meglio.
Si possono avere le migliori tecnologie e architetture, ma non usarle al meglio e non centrare l'obiettivo commerciale, cosa che ultimamente AMD ha fatto abbastanza spesso.
Un giorno qualcuno mi spiegherà dove sta la superiorità tecnologica di AMD.
Chi parla delle fantomatiche capacità DP per giustificare i consumi e gli sprechi (ma chi le ha chieste 'ste DP se poi non le si usa da nessuna parte? Io preferivo l'integrazione della moka di caffè, certamente più utile!).
Chi parla di funzionalità "future" o meglio disposte ad essere sfruttate nel futuro.. futuro che sembra essere sempre domani... intanto di là si sfornano schede che partono a razzo il day one e muoiono andando sempre a razzo (nonostante le leggende metropolitane).
C'è chi dice che l'architettura che arriva è quella giusta.. Terascale VLIW5, VLIW4, CGN 1.0. 1.1. 1,.2 e 1.3 (Polaris).. e sto ancora aspettando quella che fa abbassare i prezzi a nvidia. Forse Vega? Che si è dovuta incasinare da sola con Fermi per avere una battuta di arresto, che dimostra che se AMD è davvero competitiva i prezzi si abbassano, mica come ora.
Il successo commerciale lo si fa con un prodotto vincente. Non uno mediocre. E per la superiorità tecnologica sono anni e anni che si fa abbinando l'HW al supporto SW. E' con il supporto che si fanno i soldi, non con i transistor grezzi. E nvidia sono esattamente 10 anni che sforna soluzioni HW con supporto HW all'avanguardia e si è costruita un mercato.
E lo sfrutta come si deve (diverse architetture per diversi mercati). Non fa una poltiglia di funzionalità che non vanno bene per un mercato e peggiorano le prestazioni nell'altro alla ricerca dell'exploit che non è mai arrivato.
Su questo siamo d'accordo. Infatti si suppone che la prossima generazione di motori sfrutti molto meglio queste API e si comincino a vedere le reali differenze.
Il fatto è che la prossima generazione di motori arriverà quando le SH avranno recuperato i soldi da questa. Visto quanto sono costati e quanti ce ne sono (vedi i problemi finanziari di Crytek) dubito che la cosa avverrà tanto presto. Al massimo, come succede ora, faranno motori "ibridi" DX11 tradotti in DX12 con le macro.
Le DX12 native per davvero saranno usate da dopo Volta in poi e come fu per le DX10, lasceranno queste scaramucce nel dimenticatoio del tempo e ci si scannerà sull'ultimo frame con le tecnologie a 10 o 7nm.
Non sono d'accordo sul resto.
DX12/Mantle/Vulkan/Metal sono una vera rivoluzione (o meglio, un ritorno) in ambito gaming PC. E non parlo del poco che si vede ora, che come tu stesso noti, consiste nell'eliminare qualche collo di bottiglia sostituendo alcune parti di codice.
Che i costi di sviluppo con DX12 (Vulkan, etc... dirò DX12 ma mi riferirò a tutti) aumentino contraddice quanto ho letto in passato, non stiamo passando dal java all'assembler, diversi sviluppatori hanno parlato di sforzi contenuti nel convertire i motori attuali, di cui non ci sarà più bisogno quando i motori saranno DX12 nativi, tra qualche anno.
Per quanto detto prima saranno anche una rivoluzione, che richiede ai programmatori di partire quasi da zero, ma non lo sono in termini delle prestazioni che dovevano portare. Fosse anche il 30% in più, che me ne faccio? Mezza generazione di HW porta migliori risultati, e molto di più se i porting non fossero fatti con i piedi.
PS: io per la tessellazione ricordo una storia ben diversa. AMD si lamentava perchè alcuni benchmark utilizzavano un livello di tessellazione eccessivo, oltre ogni senso logico, mettendo in crisi le proprie architetture. Si è parlato di Nvidia che ha spinto all'adozione di importazioni inutilmente elevate per favorire il proprio approccio.
Quale storia diversa ho raccontato io?
Ho detto che nvidia ha abusato grandemente del suo vantaggio con la tesselazione con l'arrivo di Fermi e AMD ha messo una pezza patchando i driver e forzando la tesselazione a valori più umani per il suo HW. Ancora oggi in alcuni giochi lo fa, visto che altrimenti prenderebbe sonore bastonate nei benchmark che non hanno alcun senso visto che vedrebbero l'HW AMD andare molto meno di quanto in realtà è richiesto per quella qualità grafica.
Oggi solo qualche gioco (con gli effetti nvidia) abusa della tesselazione. AL lancio delle DX10 c'è stata una corsa di tutti gli sviluppatori a usarla nel modo più bieco possibile giusto per dire "anche noi la supportiamo e guardate quanto!.
Nei giochi moderni vedi forse le impostazioni per la tesselazione nel pannello delle opzioni grafiche? Io no, ma forse perché gioco pochissimo e ultimamente ne ho visti pochi di giochi.
Oggi è il turno dell'Async. Il miracoloso Async che quando abusato vende il codice il 10-15% più veloce. Su un HW che a spanne va il 50% in meno di quello che potrebbe sulla carta. E' un segno distintivo del momento. Poi nessuno ci farà più caso se c'è o meno, che tanto non cambia nulla in qualità dell'immagine ma solo nei tempi di rendering.
C'è davvero bisogno di dimostrare che un'azienda con l'80% del mercato schede discrete per PC abbia un elevato potere contrattuale? Quello consolle è un mondo a parte.
Ma contrattuale in che modo? Le SW dipendono da nvidia? Senza nvidia morirebbero di fame? A me sembra che sia proprio il contrario. Tant'è che molte SH non si curano delle prestazioni sul suo HW e vanno imperterriti a ottimizzare per quanto possono per l'HW AMD. Quello delle console non è un mondo a parte, è un mondo che mantiene le SH. Se io SH vendo 10 milioni di copie di CoD, BattleField, vattelapesca e prevedo di venderne forse un paio su PC, secondo te ho necessità di piegarmi alle richieste di una nvidia qualsiasi che potrebbe pure avere tutto il mercato in mano?
Oppure, se AMD dice loro, guarda che se mi ottimizzi per PC poi ti aiuto per realizzare meglio il codice per console la cosa vale di più?
Quello che può fare nvidia, e che fa, è proporre agli sviluppatori pacchetti di feature già pronte che lo sviluppatore non deve implementare da zero. Gamesworks e Co. è pensato per questo. Fine della devozione che una SH deve ad nvidia. C'è infatti chi le dice che preferisce usare codice proprietario o che ha già ricevuto una offerta migliore da AMD (tipo con il TressFX).
Questa cosa della sudditanza delle SH nei confronti di nvidia è davvero una leggenda metropolitana che non ha alcun senso economico per nessuno.
Non mi sembra che con Polaris i chip AMD siano ne "mega processori" ne siano venduti a prezzi da fame (anzi...).
Forse sei rimasto nel passato.
Stavo parlando di processori creati con le funzionalità per il mercato professionale. Con Polaris non ho visto nemmeno la fascia alta, quindi non c'è neanche da prenderlo in considerazione. Io parlavo delle scelte fatte fino a ieri con Hawaii e Fiji.
E tu non credo che AMD abbia tenuto conto di queste cose? Il ritardo c'è già stato, ora è tempo di far uscire queste schede.
Dubito anche che Nvidia abbia monopolizzato la produzione, le HBM sono comunque sviluppate da AMD e mi parrebbe più sensato se questa si fosse tutelata con accordi di fornitura adeguati, che non permettessero all'ultima arrivata di soffiarle sotto il naso il suo prodotto.
Dipende da cosa sia dovuto il ritardo. Lo sviluppo di Navi è ovviamente già iniziato da tempo, e procede per proprio conto nonostante i ritardi di Vega (che possono incidere, ma non più di tanto).
Se il ritardo fosse dovuto alle HBM2, per l'arrivo di Navi la tecnologia sarà già matura e non dovrebbe introdurre ulteriori ritardi.
Mi sembrano le stesse considerazioni che faceva CdiMauro riguardo ai 10nm. Ah, i 10nm usciranno secondo la tabella anche se i 14nm sono in ritardo, non c'è alcun ritardo annunciato per i 10nm, tutto secondo i piani.
A oltre un anno dalla pianificazione originale dei 10nm non se ne vede l'ombra e i 14nm che sono costati 7 miliardi in più del previsto e un anno di ritardo sono ancora in opera.
Qualcuno si scorda che i prodotti non sono realizzati per riempire le showroom dei negozi ma per fare soldi. Se non ho recuperato i soldi dell'investimento attuale, passare a quello successivo vuol dire perdere denaro.
E se non lo ha fatto Intel che ha soldi "da buttare", figuriamoci se lo può fare AMD che sta raschiando il fondo del barile ogni trimestre svendendo tutto il possibile. O sarà costretta a farlo per evidente inferiorità tecnologica, per cui i suoi prodotti per quanto li tenga sul mercato varranno meno delle sorpresine del Kinder, oppure non c'è alcuna logica di buttare denaro per lanciare un prodotto prima che quello precedente non abbia fatto il suo ciclo.
Ok, mi sono dilungato un poi' più del previsto. Spero per lo meno che questo servirà per le discussioni future, senza che si debbano leggere sempre le solite cose (a cui ovviamente toccherà rispondere ancora con le solite cose...).
Pure io sono stato un po' prolisso.. ma non ho ancora finito.. c'è il Don Chisciotte qui sotto...
esattamente i consumi sono condizionati dal fatto, che l'architettura di AMD per arrivare a 1,3GHz richiede tanto al silicio....in sostanza oltre il GHz è da considerarsi un vero e proprio OC....
dove avrei parlato di processo? :rolleyes:
ti avevo già detto che quanto stai affermando è falso....
1,06V per raggiungere i 1892MHz.... per la gtx1080
oggi, quindi con un processo produttivo migliorato le GPU polaris richiedono 1,21-1,25V per raggiungere 1,35GHz...
(fonte:anandtech)
come fai a non vedere le differenze?
Tu pensi davvero che un chip da 500mmq come VEGA può permettersi il lusso di avere una tensione operativa superiore ai 1,2V? Eppure la frequenza dovrebbe essere intorno ai 1,5GHz....:read:
Mmmmmm. ma perché confronti il PP di TMSC con quello di GF che sono due cose completamente diverse e non comparabili?
Io ti ho confrontato GF con Samsung che sono lo stesso PP. nvidia e AMD usano le stesse tensioni e l'architettura nvidia arriva a 1700Mhz. Consumando uno sputo. Il problema non è il PP. Lo scrivo ora e lo scriverò anche dopo finché non l'avrai capito.
Infatti con Vega cambieranno l'architettura perché con i voltaggi usati si posa andare a qualche centinaio di MHz in più senza fondere come fa ora Polaris.
Che cosa stai cercando di giustificare non capisco. Polaris mura a 1300Mhz e andare oltre è solo volontà di sprecare W per far vedere che arriva alle prestazioni della 1060. Una cosa più che ridicola che solo un fanboy può cercare di giustificare.
ho tirato in ballo le capacità di GF poichè è dalla fornitura di questa azienda che dipende la capacità di AMD di fare o no GPU di grosse dimensioni. Queste sono per lo più sconosciute, ed è proprio per questo che non puoi dare per scontato che GF un anno fa sarebbe stato in grado di produrre con buone rese chip di grandi dimensioni...
è inutile mettere in ballo TSMC, questa ha prodotto una CPU HPC da 4,1GHz....quindi aveva un silicio con rese sufficientemente buone. Samsung se ricordi ha avuto problemi produttivi che avevano spinto Apple ad approvvigionarsi da TSMC....
inoltre nvidia ha limitato pesantemente la frequenza di turbo boost, no perchè il processo Samsung è inferiore (le prove di OC mostrano differenze minime) ma semplicemente per aumentare le rese.....infatti come nel caso AMD i chip buoni sono stati riservati al mobile, e contrariamente al solito hanno frequenze maggiori, che avvalorano ulteriormente la mia tesi......
nonostante tutti questi indizi, sei tu che stai dando per scontato che l'ultima arrivata sul processo finfet (GloFo) abbia avuto le stesse capacità produttive fin da subito....
Ancora. Io non ho dato per scontato un bel niente. E' nella tua testolina malata che hai fato tutto. Mica l'ho imposto io a AMD di non usare un'altra fonderia per fare i suoi chip più grandi. Glielo ho detto io? O forse gli l'ha detto il reparto dei costi che le ha detto che se faceva chip più grandi non arrivava nemmeno lontanamente vicino al pareggio degli investimenti?
Visto che l'architettura è quella che è e non è diversa da GCN 1.2, direi che non ci sono speranza che anche usando il PP di TMSC le frequenze sarebbero state diverse e quindi avrebbe sempre pagato la differenza di dimensioni (che con il processo TMSC si acuiscono essendo meno denso).
Risultato? No chip più grandi di Polaris.
E' solo nella tua testolina che cerca giustificazioni per tutti gli operati di AMD che vedi qualcosa di razionale nel dire che visto che GF non poteva fare chip grandi più di un certo tipo allora è giusta la strategia scelta. La strategia scelta è giusto perché i risultati che sarebbero venuti con le alternative a quello che tu ritieni scontato (affidarsi solo a GF) sono persino peggiori.
Quando capirai che AMD ha un grave problema di prestazioni/area e che questo influisce non poco sui costi e le strategia sarà troppo tardi. O forse qualche futura architettura che mette le cose a posto ti farà capire quali sono i problemi che ha oggi.
non girare la frittata tu hai scritto che io avrei detto che il processo fa schifo, mentre ho detto che il motivo della bassa efficienza sul desktop è perchè Polaris lavora a voltaggi alti a causa del suo elevato valore di FO4....
Ascolta bello, rileggiti tutta la storia. Anzi no, mi hai rotto, ora quoto quello che è stato detto e ti mostro che hai seri problemi di comprensione. Ma seri sul serio. IO NON HO MAI DETTO CHE IL PP FA SCHIFO. Vedi di seguire la discussione non di menar il can per l'aia e poi dire che sono gli altri a scrivere sentenza senza senso:
C: Da una architettura che. come ho detto prima, è solo uno shrink della precedente con 4 modifiche e nessun investimento per sfruttare il nuovo PP, che vuoi pretendere?
T: I consumi elevati sono pesantemente condizionati dal fatto che l'architettura AMD richiede circa 1,25V a 1,2GHz contro 1V per i 1,7GHz per nvidia...
C: Queste sono le solite giustificazioni da fanboy che guarda solo quello che vuole. Le GPU che nvidia con Samsung, che usa lo stesso PP di GF, usano le stesse tensioni delle GPU di AMD ma consumano sempre meno e arrivano a 1700MHz. Il problema non è il PP.
T: 1) non ho mai detto e affermato che il processo Samsung/GF è di qualità inferiore, ma solo che è più economico che è cosa diversa.
3) sulle tensioni dici una cazzata. Se fosse come dici il processo Samsung farebbe schifo....
la gtx1080, processo TSMC, lavora con una tensione di circa 1V a 1,7-1,8GHz...già 1,1V i consumi esplodono letteralmente...
E te ne sci che ti ho accusato di aver detto che il PP fa schifo? E tu mi rinfacci che invece sono io che l'ho detto? Ma stai bene?
Continui a confrontare le mele con le pere per cercare di avere ragione, non so io se non capisci quello che dici, mi prendi per i cu|o o semplicemente scrivi sui tasti tanto per ribattere a tutti i costi.
ma metti anche che l'impianto a liquido di suo consuma circa 10W.
E comunque come hai fatto notare, la Fury x era a limite con il clock...già la Fury liscia (-5% di clock) consuma 20W meno della 980ti
http://images.anandtech.com/graphs/graph9421/75693.png
per me stai facendo una discussione su pochissimi punti percentuali di efficienza...
L'impianto a liquido è fuori dal TDP della scheda e non è misurato dagli strumenti che collegati ai connettori della scheda registrano i soli consumi di questa. Inutilmente stai ancora cercando di rendere Fiji quello che non è. Sul quel chip sono stati fatti una serie di tagli e sacrifici per cercare di renderlo usabile in "soli" 600mm^2" che alla fine ne è uscito un aborto che nessuno ha voluto usare per fare altro che giocare a BF1. Poi rivitalizzato da Doom con Vulkan che lo porta a fare gli stessi valori della 1070 (mamma mia che chippone! 4096 ALU, HBM, 8.9TFLOPS... che va quanto un moscerino da 6.5TFLOPS e GDDR5con bus a 256bit.. che utilità l'HBM, nevvero?).
se quello che dici fosse vero le GPU sarebbero intrisecamente meno efficienti delle CPU poichè a parità di GFLOPs rendono meno? :rolleyes:
importante è anche quanto costano in termini di superficie e potenza dissipata la forza bruta...
Infatti le GPU sono meno efficienti computazionalmente delle GPU. Il loro vantaggio è che le loro ALU consumano una minima frazione di energia e possono essere installate in grande quantità. Alla fine risultano che per quantità di W usati in alcune circostanze operano molto meglio che le CPU nonostante gettino via parecchio del potenziale teorico che hanno.
Quindi la GPU rispetto alla CPU è meno efficiente computazionalmente, ma più efficiente energeticamente. Sono due indice diversi.
Il paragone che hai fatto non è lo stesso tra Maxwell e GCN.
In quest'ultimo caso GCN ha meno efficienza computazionale e rullo di tamburi... è pure meno efficiente energeticamente!!!!!!! Quello che ne deriva è un prodotto che soffre in termini di costi, consumi e pure area (che è un altro indice). Che se riesci a congiungere i puntini risulta essere il motivo per cui non ci sono chip più grandi di Polaris 10.
guarda che esiste una enorme differenza di GFLOPs certamente non colmabile con i pochi watt di consumo delle VRAM (tra le altre cose colmate in parte proprio dal maggior consumo proprio dell'impianto di dissipazione)
Esiste una enorme differenza TEORICA di GFLOPS che in realtà non si vede scaricata al suolo. Puoi avere un motore da 890 cavalli all'albero ma se al suolo ne metti 500, quello sono quelli che spingono l'auto, e un motore che ne sviluppa 5650 ma ne mette a terra 510 va comunque più veloce e consuma pure meno. Questo è quello che I FATTI mostrano. Non c'è Dpn Chisciotte della mancia di AMD che possa alterare questa cosa che è registrata in tutti i bench.
guarda che gli shader, come ho fatto notare non aiutano neppure alle alte risoluzioni...la differenza minima con la fury liscia è praticamente costante.
E per l'ennesima volta sono state sacrificate perchè il processo non ha permesso di aumentare le dimensioni del anche soli di pochi mmq....
Altri mm^2, ma sì, tanto il chip già costava poco e consumava pure meno.
Io non so cosa rende Fiji tanto variabile nella gestione di alcuni carichi di lavoro, di certo il problema non è risolvibile "con pochi mm^2 in più".
Tu guardi Fiji perché con HBM ha efficienza maggiore di quanto in realtà non avrebbe. Io guardo l'altra implementazione standard di Tonga che rispetto alla 960 contro cui si batteva è una mostruosità assurda.
invece non so perchè tu scriva per il semplice gusto di contraddirmi....:rolleyes:
http://www.digitaltrends.com/computing/nvidia-geforce-gtx-1050-ti-laptops-benchmarked-specs/
https://www.apple.com/it/macbook-pro/ :confused:
Ma tu stai confrontando una scheda con le frequenze da desktop con una che già a frequenza piena le prende, figuriamoci quando le sono tagliate per consumare meno?
E mi citi Apple come esempio di mobile? Sai vero che sembra che Apple passerà a nvidia dopo che sarà scaduto il contratto di esclusiva non AMD?
Tutti gli altri OEM di AMD non ne vogliono sapere. Infatti per ogni portatile che trovi che monta Polaris (o GCN) ci sono dai 20 ai 30 modelli che montano una GPU nvidia (una a caso che tanto fanno comunque meglio).
per il resto, sei letteralmente uscito di testa parlando di complotti, quando l'unico mio pensiero al riguardo, è che non sempre gli OEM scelgono prodotti tecnicamente migliori o con un migliore rapporto prezzo prestazioni, ma tengono d'occhio, ovviamente anche la percezione del marchio da parte di chi compra....
No, è un complottone! Non c'è dubbio. Gli OEM non capiscono nulla, esattamente come quelli che hanno snobbato i SoC Intel per gli ARM decretando la morte dei primi. OEM che non capiscono nulla! L'altro Don Chischotte stipendiato da Intel è quasi morto d'infarto quando ha visto che avevo ragione io dopo un paio di anni di sciocchezze scritte per difendere il prodotto della sua azienda che alla fine ha chiuso il reparto SoC (ma cooomeee??? Erano meglio in consumi, prestazioni, in tutto e sono stati snobbati???? A, sicuramente ARM ha pagato! Anzi non Qualcomm. Anzi non Mediatek. Anzi no Samsung. Ah no, Huawei. Ah no LG. Ah no.. ma quanti caxxo di produttori di SoC migliori di Intel c'erano???)
Un prodotto migliore che non è usato?? OEM pagati per non adottarlo!!!!
questo non toglie che un introvabile portatile con BR, va circa il 30-40% più di un Pentium skylake con lo stesso TDP in cinebecnh avendo prestazioni nel MT paragonabile ad un i3 skylake e nel ST ad un i3 Haswell.. (fonte:notebookcheck)
E bla bla bla... guarda che non devi convincere me, devi convincere la gente che i prodotti AMD sono migliori quando lo sono davvero.
Perché se vai in giro a dire che sono migliori quando non lo sono, poi nessuno ti crede quando dici la verità.
come vedi ho terminato gli argomenti, anche perchè le tue esternazioni sono distanti anni luce dalla verità...
Ma proprio no. Non hai capito che le mie esternazioni DESCRIVONO la realtà, Sono le tue giustificazioni e interpretazione dei fatti che la stravolgono, distorcono e ribaltano per cercare di trovare una spiegazione razionale che non implichi semplicemente che il prodotto di AMD è indietro rispetto alla concorrenza e che neanche svenduto prende quote di mercato.
Mio caro, non sono io quello che aspetta la prossima architettura per cercare un po' di sollievo dopo tutte queste delusioni che sono arrivate una dietro l'altra (che inevitabilmente portano a crearsi un mondo parallelo dove le cose non sono quelle realmente accadute).
Io aspetto al prossima architettura per dire "oh, finalmente un prodotto decente che farà concorrenza". Nel 2012 mi sono dato una mano in faccia quando è arrivato il GK104 (e ho previsto i 2 anni di dominio mentre i fanboietti ridevano e si gongolavano delle prestazioni DP di un chip dedicato al mercato consumer che consumava già a i tempi un botto in più
ribaltando la situazione precedente), nel 2014 mi sono pestato le b@lle quando è arrivato Tonga contro Maxwell (e ho previsto altri 2 anni di dominio quando sempre i soliti fanboietti parlavano di HBM come fosse la panacea di tutti i mali che avrebbe messo all'angolo nvidia), nel 2016 mi sono ficcato 2 dita negli occhi per cercare di non vedere il fail completo di Polaris (2.5x di efficienza! Che sarebbe stato una vera rivoluzione e invece = Maxwell con PP migliore, e ho detto che non sarebbe cambiato una cippa nonostante le fantomatiche DX12)... e intanto i prezzi di nvidia sempre più su... ah, che prodotto fantastici questi di AMD che deve svendere pur di non tenerseli in magazzino.
Speriamo sia davvero la volta buona con Vega... non mi è rimasto molto da mutilarmi per la prossima generazione. magari mi spezzo le dita così smetto di perdere tempo a scrivere post che tentano di rimettere le cose nella prospettiva della realtà invece che quella dei vaneggiamenti. E magari alla fine anche tu troverai un po' di sollievo dalle tue dure battaglie che non ti costringeranno a inventarti giustificazioni sempre più assurde nonostante il prodotto palesi difficoltà tecniche evidenti.
Ah, dimenticavo, per una comparazione tra schede della stessa fascia, prova con questa.
http://wccftech.com/nvidia-geforce-gt-1030-gp108-gpu-performance-benchmark/?utm_source=wccftech&utm_medium=related
Magari vedi se AMD ha davvero così tanta efficienza come dici.
tuttodigitale
28-04-2017, 09:34
Mmmmmm. ma perché confronti il PP di TMSC con quello di GF che sono due cose completamente diverse e non comparabili?
se fosse come dici il processo Samsung farebbe schifo, ma per fortuna che quello che scrivi è una tua opinione COMPLETAMENTE fuori dalla realtà....
la MSI GTX1050ti (che come saprai manca di qualsiasi modello di riferimento):
1,1V a 1835MHz, che viene mantenuta per poco tempo
1,075V a 1795MHz.....
fonte:tomshw.it
di cosa stai parlando....
le schede nvidia qualsiasi sia il processo lavora con una tensione inferiore ai 1,1V....e non potrebbe essere altrimenti.
Io ti ho confrontato GF con Samsung che sono lo stesso PP. nvidia e AMD usano le stesse tensioni e l'architettura nvidia arriva a 1700Mhz.
ma secondo te, può mai VEGA avere lo stesso consumo dinamico per clock (e maggior leakage dovuta alla maggior frequenza), e vedere aumentare il numero di cicli nell'unità di tempo?
per aumentare la frequenza di X, e non aumentare il consumo, di solito il FO4 deve essere aumentato più di X, per far lavorare il processore ad una tensione inferiore...
ed è esattamente quello che capita alle architetture Pascal :read:
Esiste una enorme differenza TEORICA di GFLOPS che in realtà non si vede scaricata al suolo. Puoi avere un motore da 890 cavalli all'albero ma se al suolo ne metti 500, quello sono quelli che spingono l'auto, e un motore che ne sviluppa 5650 ma ne mette a terra 510 va comunque più veloce e consuma pure meno. Questo è quello che I FATTI mostrano. Non c'è Dpn Chisciotte della mancia di AMD che possa alterare questa cosa che è registrata in tutti i bench.
l'esempio corretto è un altro: il motore da 890CV consuma la metà del carburante di quello da 560.....ne può farne uno da 1980CV che ne potrebbe scaricare a terra 1000.....
questo è il motivo per il quale IBM ha proposto il CELL, che a 90nm aveva una potenza teorica 5 volte superiore ad un core 2 quad prodotto a 65nm. Non certo perchè era 8 volte più potente a parità di silicio....(Avevano già messo in conto che sarebbe stato molto più difficile sfruttare le capacità teoriche)
Se ci pensi, già il fatto di avere più pipeline in parallelo abbassa per forza di cose l'efficienza computazionale...ma non per questo una architettura a singola pipeline, magari senza pipelining (ad unico stadio) è migliore sul piano energetico.....eppure avrebbe una efficienza computazionale del 100%.....
Ricapitolando le molte s... che hai detto:
1) il processo Samsung richiede tensioni MOLTO maggiori rispetto a quello di TSMC....
falso: 1,062V per GP106 TSMC 16nm, 1,075V per GP107 Samsung, entrambi a 1,8GHz.
2) le GPU nvidia sui 14nm LPP e le GPU AMD lavorano con la stessa tensione.
falso: le GPU nvidia lavorano con stabilità ad una tensione inferiore a 1,1V
3) la differenza di efficienza tra Tonga e Vega è dovuta a gran parte alle HBM....
falso: le memorie non consumano così tanto... i pochi vantaggi delle HBM sono in parte limati anche dalla banda passante extra...
inoltre il consumo di energia della soluzione rx480 a 4GB (con 4GB disabilitati) differisce in maniera trsascurabile (3W).
Se diamo retta ad AMD, ovvero che per ogni watt consumato le gddr5 forniscono 10,6GB/s, in Tonga il consuma dovuto alla RAM è di 176/10,6, di circa 15W....
e probabilmente sono numeri a ribasso, (quindi delle RAM gddr5 più veloci) per metter in buona luce le HBM.
4) se per pochi mmq, nvidia non avesse potuto mettere ulteriori ROPs rispetto al Gk104 non sarebbe cambiato niente per Gk110.
5) la differenza di prestazioni tra una Radeon pro 460 e una 1050ti è tale da compensare ampiamente il consumo energetico pari a 35W e 60W, rispettivamente....la 1050ti per laptop va veloce quanto o persino più della rx470.
6) le APU da 15W di punta di AMD sono inferiori ai pentium lato cpu....
@CrapaDiLegno
E meno male che il precedente era il tuo intervento conclusivo! :asd:
Io cerco stavolta di contenermi, provo a saltare più quote possibili. :D
TFLOPS/prestazioni è quello che mi dice quanto bene va l'architettura (quella che è pensata per il futuro, quella che è super efficiente, quella che non usa la forza bruta...).
Per come la vedo io valutare l'architettura in base al rapporto TFLOPS/prestazioni è come valutare la bontà di un processore in base alla frequenza o al numero di core.
A me da l'impressione che tu stia premendo su questo argomento solo perchè mette in migliore luce le schede Nvidia ("ha le stesse prestazioni con meno TFLOPs"), ma in realtà non ha alcun valore.
Se io realizzassi un'architettura con un pressimo rapporto TFLOPS/prestazioni ma con prestazioni superiori alla concorrenza e minori consumi (a parità di caratteristiche, ovviamente), tu come la giudicheresti?
Ma è ovvio che Pascal non è costao zero dollari, ma una frazione infinitesima di quanto è costato Maxwell.
No, sono costati entrambi tanto, perchè di norma è proprio il costo di sviluppo sul silicio che ha costi elevati. Probabile che con Pascal ci sia stato un risparmio, ma non certo ha speso una frazione rispetto a Maxwell.
Io ho detto che non avevano nessuna convenienza perché l'investimento sarebbe stato superiore ai guadagni.
Se avessi detto questo probabilmente saremmo stati molto più d'accordo. ;)
Vero in generale, però non dimentichiamo che altri fattori possono influire, per esempio si potrebbe voler ridurre i guadagni per poter guadagnare market share.
Non è un mistero che tutto questo lavoro non è che abbia poi portato ai miracoli tanto decantati. Si parla sempre dei vantaggi di AMD con le DX12, ma sempre e solo verso sè stessa. E grazie al piffero, in DX11 faceva cag@re che metà basta...
8% in più. Un botto in più rispetto alla versione OpenCL. Ma lì perché l'implementazione di AMD con i sui driver faceva schifo per davvero e le prendeva di santa ragione da nvidia.
Il punto è che negli ultimi anni, mentre Nvidia si godeva il suo successo e ottimizzava i suoi driver, AMD investiva pesantemente in un vero cambiamento, creando Mantle. Vero cambiamento che c'è stato, portando alla nascita di Vulkan e delle DX12 come le conosciamo. Se questo cambiamento non fosse stato importante, credi che tutti avrebbero il produttore minoritario del mercato? Io sono sicuro di no.
AMD ha problemi di ottimizzazione in DX11? Parrebbe evidente. Intanto però con DX12/Vulkan pare recuperare il gap e superare la scheda di pari fascia del concorrente, e questo con le prime implementazioni serie come Doom, con i motori pensati per sfruttare le nuove API la situazione non può che migliorare.
AMD era in difficoltà. anziché inseguire ha deciso di percorrere un'altra strada che l'avrebbe portata più avanti. Pian piano le DX11, dove è indietro, diventeranno obsolete e rimarrà solo il nuovo campo di battaglia (a cui ovviamente Nvidia si sarà adeguata nel frattempo, ma a quel punto AMD non sarà più in una situazione di svantaggio in cui dovrà inseguire).
A mio parere, tra tanti errori, questa è una delle poche scelte intelligenti fatte da AMD.
Fosse anche il 30% in più, che me ne faccio? Mezza generazione di HW porta migliori risultati, e molto di più se i porting non fossero fatti con i piedi.
Intendi dire che una tecnologia che ti porta immediatamente un anno, un anno e mezzo avanti non serve a nulla? E quanto deve essere il guadagno? Il 100%? Ma anche quello tra un paio di generazioni si riprende... quindi è inutile?
Questo discorso a mio parere è abbastanza assurdo.
Tra l'altro il trend degli ultimi anni, a causa della grande difficoltà di sviluppare nuovi processi produttivi, è un rallentamento dell'aumento di prestazioni tra una generazione e l'altra. Sfruttare meglio l'hardware diventa quindi ancora più importante.
E, ad ogni modo, non è solo una questione di prestazioni: le nuove API consentono di fare cose che prima non si potevano fare. Per questo gli adattamenti dei motori concepiti per le vecchie API non portano vantaggi così marcati, perchè erano costruiti addosso alle limitazioni di queste ultime.
Questa cosa della sudditanza delle SH nei confronti di nvidia è davvero una leggenda metropolitana che non ha alcun senso economico per nessuno.
Non è questione di sudditanza: se devo sviluppare un motore grafico lo faccio su misura per chi ha il 75% del mercato o per chi ha il 25%? Oltre al fatto che sarebbe da ingenui pensare che Nvidia non faccia ulteriore leva sulla propria posizione (come già successo in passato, ne abbiamo anche già parlato con la tessellazione).
Questo vale per in tutti i settori, altrimenti oggi avremmo uno store per i Windows Phone pieno di applicazioni! :p
Mi sembrano le stesse considerazioni che faceva CdiMauro riguardo ai 10nm. Ah, i 10nm usciranno secondo la tabella anche se i 14nm sono in ritardo, non c'è alcun ritardo annunciato per i 10nm, tutto secondo i piani.
Qui parliamo di architetture, non di processi produttivi.
Se ho difficoltà con i 14nm, è probabile che ne avrò a maggior ragione con i 10nm.
Ma se ho problemi con un'architettura, non è affatto detto che li abbia con quella successiva.
In questo caso in particolare, se il problema con le Fury era la fornitura di HBM, ora che le HBM non sono più una novità direi che diventa meno probabile che siano ancora le HBM a creare ulteriori ritardi.
I fanboy distorcono la realtà pur di avere ragione (see below). Io vi sto rinfacciando dati. Roba misurabile. Roba che ha impatti reali. Roba che si vede nei benchmark e nei bilanci. Roba che si può toccare con mano.
Visto che l'hai citato... qui mi sembri cdmauro lol!
Tu solo riporti i dati, tu mostri la realtà. Gli altri sono fanboy che distorcono la realtà.
A me pare abbastanza evidente che le tue argomentazioni, come la tua visione delle situazioni, vadano a senso unico. Anche gli altri riportano dati ma tu ignori o cerchi di screditare quelli che non ti fanno comodo.
A mio parere discuteremo molto meglio se evitassimo di fare uscite di questo tipo.
tuttodigitale
30-04-2017, 18:56
No, sono costati entrambi tanto, perchè di norma è proprio il costo di sviluppo sul silicio che ha costi elevati. Probabile che con Pascal ci sia stato un risparmio, ma non certo ha speso una frazione rispetto a Maxwell.
un immagine vale più di mille parole:
http://semiengineering.com/wp-content/uploads/2014/03/image001.jpg
gd350turbo
01-05-2017, 13:56
Se esce a giugno, che poi sarà luglio, saltiamo agosto, e in settembre forse, se siamo fortunati e AMD avrà lavorato bene, Nvidia calerà i prezzi !
tuttodigitale
01-05-2017, 15:37
Se esce a giugno, che poi sarà luglio, saltiamo agosto, e in settembre forse, se siamo fortunati e AMD avrà lavorato bene, Nvidia calerà i prezzi !
ad esser obiettivi AMD ha sempre e solo parlato di H1 2017, che poi è diventato q2 2017.
sulle prestazioni di VEGA ci sono alcuni punti interrogativi, inutile nasconderlo, e non tanto per le prestazioni degli shader....
alla fine della fiera sono stati pubblicizzati 12,5TFlps contro i 5,6TFLOPs delle rx480, nella peggiore dell'ipotesi (ovvero efficienza computazionale identica al predecessore), si avrebbe un aumento di prestazioni tale da essere del tutto paragonabile ad una 1080ti...
se poi consideriamo che il rapporto ROPs/shader è maggiormente favorevole, il rendimento dovrebbe essere del 5-10% più elevato...
questa senza scomodare le modifiche attuate da AMD al CU di VEGA..
A livello di shader probabilmente VEGA sarà superiore come potenza EFFETTIVA alla TITAN X...
Tuttavia cìè un grande punto interrogativo....
le HBM2 non sono attualmente in grado di garantire un bandwidth doppio rispetto alle HBM di prima generazione. L'inevitabile conseguenza che VEGA avendo solo 2 stack dovrà lavorare con una banda passante di "soli" 352GB/s, appena il 10% più della 1080 liscia... e i 484GB/s della 1080ti..
Gyammy85
02-05-2017, 10:53
Se esce a giugno, che poi sarà luglio, saltiamo agosto, e in settembre forse, se siamo fortunati e AMD avrà lavorato bene, Nvidia calerà i prezzi !
Siiiiii e prenderemo tutti la titan icspiiii
Quindi amd fallisce in ogni caso, a prescindere dalla qualità del prodotto, e poi la gente su questo forum si chiede perché non hanno utili :rolleyes:
Ci sono varie categorie
il cliente nvidia che compratuttotuttocompra a qualsiasi prezzo perché più di sei mesi la scheda nel case non deve starci
Il cliente fan del portafoglio che aspetta amd buona per comprare comunque nvidia
Il cliente amd che si aspetta schede che vanno il triplo a un quarto del prezzo, si stanca e prende comunque nvidia
ecc ecc ecc
gd350turbo
02-05-2017, 12:47
Siiiiii e prenderemo tutti la titan icspiiii
Quindi amd fallisce in ogni caso, a prescindere dalla qualità del prodotto, e poi la gente su questo forum si chiede perché non hanno utili :rolleyes:
Ci sono varie categorie
il cliente nvidia che compratuttotuttocompra a qualsiasi prezzo perché più di sei mesi la scheda nel case non deve starci
Il cliente fan del portafoglio che aspetta amd buona per comprare comunque nvidia
Il cliente amd che si aspetta schede che vanno il triplo a un quarto del prezzo, si stanca e prende comunque nvidia
ecc ecc ecc
Per fare utili, bisogna prima fare un prodotto, poi venderlo..
È un anno e mezzo che Nvidia nella fascia alta non ha concorrenza, loro si che fanno utili !
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.