View Full Version : NVIDIA GeForce GTX 1080: qualche dettaglio in più, prestazioni superiori di 2 volte rispetto a Titan X
Redazione di Hardware Upg
07-05-2016, 06:47
Link alla notizia: http://www.hwupgrade.it/news/skvideo/nvidia-geforce-gtx-1080-qualche-dettaglio-in-piu-prestazioni-superiori-di-2-volte-rispetto-a-titan-x_62537.html
NVIDIA ha annunciato ad Austin, in un evento in cui Hardware Upgrade ha presenziato in esclusiva italiana, le prime schede basate su architettura Pascal destinate al mercato consumer.
Click sul link per visualizzare la notizia.
Spider-Mans
07-05-2016, 07:40
Prestazioni che se confermate sarebbero mostruose...nvidia fara nuovamente il botto di vendite..
monster.fx
07-05-2016, 08:06
Sulla carta bella bestia ... poi bisognerà vederla nel panorama videoludico come si comporta.
Quindi la 1080 sostituisce la TitanX ... o la 980Ti?
Perché nel primo caso ... ne è solo la "naturale" evoluzione ... nel secondo non vorrei neanche pensare a quale Titan basata su questa architettura sfornerebbero ... una bestia!!!
Adesso attendiamo la contromossa di AMD.
Prevedo nel mercatino un boom di vendita di VGA GTX970/980 a breve ... :D
TigerTank
07-05-2016, 08:21
Sì però specificate meglio la questione del 2X prestazionale altrimenti il tutto si trasforma in disinformazione pro-parte...
Se non ho capito male riguarda l'ambito VR mentre nel gaming normale imho si avrà il solito 20-25% in più rispetto a gtx980Ti e TitanX. :D
peronedj
07-05-2016, 08:24
Sì però specificate meglio la questione del 2X prestazionale altrimenti il tutto si trasforma in disinformazione pro-parte...
Se non ho capito male riguarda l'ambito VR mentre nel gaming normale imho si avrà il solito 20-25% in più rispetto a gtx980Ti e TitanX. :D
Hanno detto che normalmente va più veloce di 2 980 in sli, mentre in ambito VR va poco oltre il doppio di una titan
monster.fx
07-05-2016, 08:28
Però sono numeri campati in aria senza nessun riferimento.
Pure AMD potrebbe dire che Polaris va' il triplo di Hawaii ... ma bisogna vedere su quali basi sono fondati questi dati.
Anche io penso che andrà un 20/25% in più dell'attuale generazione ... traducendosi in un buon framerate in 4K in singola scheda ... meglio di quanto faccia ora TitanX che arriva a 30/35fps medi nei titoli con impostazioni spinte.
Non ho mai capito e mai capiro perche lanciano queste schede video senza una Killer Application esclusiva.
Cioe, alla fine usero' i soliti giochi in dettaglio ultra a 120 frame al secondo, li mandero' a 4k se ho la TV 4k,ok, va benissimo, bellissimo e stupendo..
Caz ma fatemi un gioco esclusivo bomba atomica!!
Una volta esistevano le TechDemo ... ricordo i bei tempi di Matrox e Nvidia ... e solo chi possedeva le ultime tecnologie poteva farle girare.
TigerTank
07-05-2016, 08:43
Se le prestazioni saranno confermate da prove indipendenti sono abbastanza in linea con le aspettative.
Nvidia ha scelto di uscire subito con questa fascia e montare le gddrx5, AMD uscirà a fine anno con Vega e HBM2 su questa fascia, vedremo chi ha fatto la scelta giusta.
Il tasto dolente più che altro è che con un prezzo di $599 avremo un salto prestazionale nella norma...ma con dei prezzi per le 1080 equivalenti a quelli delle Ti maxwell.
Convertiti e + IVA sono 640€ per una 1080 reference.
AMD uscirà a fine anno con Vega e HBM2 su questa fascia, vedremo chi ha fatto la scelta giusta.
Assolutamente no, VEGA uscira' il prossimo anno, diciamo estate 2017.
Alla seconda metà dell'anno avremo larga disponibilita' di Polaris, che temo possano ancora usare HBM1 e soffrire del limite dei 4GB.
TigerTank
07-05-2016, 08:46
Assolutamente no, VEGA uscira' il prossimo anno, diciamo estate 2017.
Alla seconda metà dell'anno avremo larga disponibilita' di Polaris, che temo possano ancora usare HBM1 e soffrire del limite dei 4GB.
Se non sbaglio anche amd ricorrerà a ddr5 e ddr5x per le nuove Polaris e probabilmente userà le hbm2 sulle Vega in parallelo ad nvidia con le gp100 del 2017.
Se non sbaglio anche amd ricorrerà a ddr5 e ddr5x per le nuove Polaris
Non sono a conoscenza di notizie ufficiali in questa direzione,
temo siano solo rumor, o meglio, temo sia solo quello che gli utenti amd si augurano... :O
Ma te sei ancora in giro a scrivere cretinate?
Direi che si commenta da sola :O
Io invece, come ho gia' scritto, ho previsto per quest'anno il MASSIMO DISTACCO tra NVIDIA e AMD.
Potrai verificare con comodo che avrò ragione,
anche se non lo ammetterai mai.
condivido i numeri campati per aria...
i grafici mostrati non avevano senso in quanto su due ordinate solo 1 presentava un valore utile l'altra non si sa cosa significasse...
voglio i test ed i benchmark...fino a quel momento non mi fido...
TigerTank
07-05-2016, 08:56
Non sono a conoscenza di notizie ufficiali in questa direzione,
temo siano solo rumor, o meglio, temo sia solo quello che gli utenti amd si augurano... :O
Sarebbe la scelta logica....con le HBM è stato evidente il flop per cui non penso che amd si voglia ripetere. Riprendere le HBM, peggio ancora sei in formato 4GB sarebbe un suicidio.
Si però polaris dovrebbe essere di fascia più bassa rispetto alla 1080, salvo veri miracoli dell'architettura polaris nelle sua forma migliore dovrebbe essere una via di mezzo tra la 1070 e la 1080.
Ricordiamo che Polaris è una nuova architettura.
Sospetto abbiano detto che non sarà di fascia altissima appunto per il limite dei 4Gb...
TigerTank
07-05-2016, 09:12
Si però polaris dovrebbe essere di fascia più bassa rispetto alla 1080, salvo veri miracoli dell'architettura polaris nelle sua forma migliore dovrebbe essere una via di mezzo tra la 1070 e la 1080.
Vediamo un pò...io spero sempre in prodotti validi da entrambe le parti e relativa concorrenza ;)
blackshard
07-05-2016, 10:10
Sarebbe la scelta logica....con le HBM è stato evidente il flop per cui non penso che amd si voglia ripetere. Riprendere le HBM, peggio ancora sei in formato 4GB sarebbe un suicidio.
Considerare le HBM un flop, beh... :eek:
Consumi ridicoli rispetto alle GDDR5, bandwidth enorme, densità elevatissima... l'unico "problema" sono i 4 Gb di ram, che sarà risolto nella prossima generazione.
Polaris non monterà le HBM2, probabilmente perché non sono ancora pronte, e infatti la stessa cosa fa' nvidia.
Polaris 10 2560 SP avra', a giugno, le GDDR5x a clock 1750-2000 (ma non e' detto che non arrivi anche a 2200-2400, limite tecnologico di oggi con tali memorie), e comunque una banda tra' i 320 e i 384Gb;
a settembre/ottobre si vedranno polaris con HBM2 (tutte le polaris hanno sia controller GDRR5 e 5x che HBM1 e 2 (4096 linee), come anche GP104, che verra' presentato a dicembre-gennaio nella cadenza 1080Ti dai fallati di GP100 su circa 2860-3072 cuda).
a gennaio-febbraio ci sara' Vega 10 (con i suoi 600mm^2) con HBM2 e GDDR5x, e sara' da confrontare con GP100 full e non con 1080Ti.. con 1080Ti si confrontera' Vega con GDDR5x (per Vega con HBM2 si puo' stimare una banda da ben oltre 640Gb, forse a 768Gb, con GDDR5x sui 512-640Gb)...
quando tutte le caselle iniziali saranno piene, si potra' pesare una stima piu' precisa.
Vega 10 avra' 4096 SP, cosa che ad oggi, sulla carta, neppure GP100 full puo' vantare... e GP100 full e' una scheda da 5 testoni...
Ad oggi non c'e' nulla di piu' di quello che si stimava un mese fa', perche' i paper lunch saziano poco: si devono avere benchmark sul reale, nemmeno sulle suite solite (come 3dmax, che da' un po' di tempo non fornisce nessuna reale indicazione prestazionale).
tutti i dati prestazionali snocciolati sta' notte non hanno riferimento, e senza un polo preciso non serve a nulla...
sono letteralmente rimasto di sasso quando hanno citato l'overclock: di solito si parla di possibilita' di amplificare le prestazioni solo dopo un paio di settimane dal lancio sul mercato (non paper)...
non e' un buon presupposto che un nuovo prodotto venga presentato in quest'ottica.
una cosa e' buona quando lo e' sempre, di default, non quando scometti...
oltretutto si parla di 7.9B di transistor, quando su polaris "grande" se ne citano circa 8.9B... quel miliardo in piu' e' la piccola differenza: pascal GP104 non ha bus per HBM ed e' carente in alcune transizioni, probabilmente per una minore cache totale...
le analisi dettagliate mostreranno il secondo punto (in computazione fisica sembra aver perso parecchi punti), il tempo invece confermera' il primo dubbio: polaris ce lo troveremo ancora nel 2017 pieno con HBM2, ma pascal GP104 sara' ancorato a GDDR5x... si vedra' chi e' stato piu' lungimirante...
sulla questione della limitazione di HBM.... non ci perdo nemmeno il tempo di discuterne...
Ho fatto bene a non prendere la 980, 8 Gb sono un'ottima notizia.
Pensate che queste schede migliorino la velocità di rendering di software come After Effects senza troppe pretese?
Sta scheda sembra davvero favolosa e soprattutto ad un prezzo accessibile. Peccato per chi ha preso le Titan o le Titan X.
Se non ho capito male HBM2 servirebbero solo per flussi dati a 1440p in 4K, se non ci fosse bisogno di tali prestazioni anche le GDDR5x sono più che sufficienti, pensate che comunque valga la pena aspettare le Pascal con HBM2?
zerothehero
07-05-2016, 11:29
Al momento sono schede che servono per far girare quantum break..per il resto chi non va oltre il full hd può rimanere sulle vecchie 980, per la mancanza di novità rilevanti lato grafico (giochi convertiti da console con hw preistorico).
gd350turbo
07-05-2016, 11:40
Si, se non avessero castrato i driver video, si andrebbe ancora alla grande...
Al momento sono schede che servono per far girare quantum break..per il resto chi non va oltre il full hd può rimanere sulle vecchie 980, per la mancanza di novità rilevanti lato grafico (giochi convertiti da console con hw preistorico).
ah, questo e' sacrosanto.
oggi pero' la questione e' in mano proprio ad AMD ed Nvidia:
se non abbassano i prezzi per tecnologia buona il mercato langue (proprio perche' con le vecchie gen e i giochi che ci sono, ci puoi stare tranquillamente).
per il mercato, se le richieste HD da parte dei giochi non si amplificano, non c'e' nessuna necessita' di adeguarsi, ma il fatto e' che un gioco realmente tecnologicamente avanzato costa tanto, e se non hai davanti una buona platea per venderlo... non ti ci metti nell'impresa.
quindi credo che una 1080, o una polaris 10, o comunque una scheda da 300-400 euro, per un indie platform sia realmente esagerata...
la palla ora e' stata data in mano a loro: dateci HW ECONOMICO ma tecnicamente efficiente, e poi si vedranno giochi adatti e il mercato riprendera' (cosi' traina il mercato delle CPU, ram e schermi...)...
non possono sperare di mantenersi con un andamento di questo genere.
rivolto allo staff:
sistemate come vi hanno già detto l'errore riguardo la 1080 e le memorie gddr5 + l'errore delle 1070 con gli 8.5TFlops (http://prnt.sc/b1ap83)
dai ragazzi cerchiamo di non fare questi errori! o almeno di correggere il tutto in fretta :D
"prestazioni superiori di 2 volte", quindi prestazioni triple?
Perché se le prestazioni sono superiori di una volta allora sono prestazioni doppie, per cui... ;)
Interessante Ansel, spero diventi una tecnologia ampiamente adottata perchè trovo sarebbe molto utile in diversi contesti, se utilizzata con diversi tipi di applicazioni 3D.
Nvidia ha scelto di uscire subito con questa fascia e montare le gddrx5, AMD uscirà a fine anno con Vega e HBM2 su questa fascia, vedremo chi ha fatto la scelta giusta.
A me sembra che Nvidia e AMD stiano adottando la stessa strategia.
Queste schede escono a breve, così come le Polaris, e montano GDDR5 e GDDR5X.
Ad inizio anno prossimo usciranno per entrambe i chip grossi, GP100 per Nvidia e Vega per AMD, entrambi con HBM2.
Non credo che le polaris andranno sostanzialmente meno di queste, si tratta in entrambi i casi dei chip di media taglia. Anche se dovessero andare meno nel testa a testa tra le top di gamma, staremo comunque su livelli simili a mio parere.
EDIT: rileggendo mi pare in effetti che questi chip siano piuttosto grossi. Ma non dovevano essere GP104? Sono dei GP100 questi?
In tal caso direi che si tratta di strategie differenti.
Assolutamente no, VEGA uscira' il prossimo anno, diciamo estate 2017.
Finora si è sempre parlato di primo trimestre 2017, per cui se fai una sparata del genere, almeno riporta le fonti. Sempre che esistano.
Ma poi... che ti rispondo a fare?
Se non ho capito male HBM2 servirebbero solo per flussi dati a 1440p in 4K, se non ci fosse bisogno di tali prestazioni anche le GDDR5x sono più che sufficienti, pensate che comunque valga la pena aspettare le Pascal con HBM2?
I vantaggi delle HBM vanno al di la delle prestazioni: hanno consumi inferiori, bandwidth elevata e controller semplici, che consentono di risparmiare molto silicio sul chip. Inoltre consentono di realizzare schede molto compatte.
Inutile dire che non appena la tecnologia diventerà mainstream le GDDR verranno sostituite, a meno che nel frattempo non arrivi qualcosa di meglio.
PS: vi prego, smettetela di chiamare il CEO Nvidia con il nomignolo, ma come vi è saltata in mente questa cosa terribile? =_='
...cut...
I vantaggi delle HBM vanno al di la delle prestazioni: hanno consumi inferiori, bandwidth elevata e controller semplici, che consentono di risparmiare molto silicio sul chip. Inoltre consentono di realizzare schede molto compatte.
Inutile dire che non appena la tecnologia diventerà mainstream le GDDR verranno sostituite, a meno che nel frattempo non arrivi qualcosa di meglio.
Molte grazie, quindi a questo punto non so che fare, non è che abbia un gran bisogno in realtà, però se fosse come dici i prezzi dei modelli con HBM2 salirebbero rispetto alle attuali.
Saranno inserite nel modelli Ti o già nei modelli attuali?
TigerTank
07-05-2016, 13:24
Considerare le HBM un flop, beh... :eek:
Consumi ridicoli rispetto alle GDDR5, bandwidth enorme, densità elevatissima... l'unico "problema" sono i 4 Gb di ram, che sarà risolto nella prossima generazione.
Polaris non monterà le HBM2, probabilmente perché non sono ancora pronte, e infatti la stessa cosa fa' nvidia.
Sono state un flop perchè hanno comportato un aumento di costo delle amd Fury senza comportare vantaggi rispetto alle controparti Nvidia con le ddr5.
E infatti ora useranno gddr5 e gddr5x per le pascal GP104/ Polaris e poi le più evolute HBM2 sulle Pascal GP100 e Vega. E in quantitativo minimo di 8GB perchè ormai 4GB sarebbero obsoleti se non sulle fasce inferiori ;)
Sbaglio o per la 1070 sono sbagliati i TFLOPS non sono 8,5 come scritto ma 6,5.
Apollo 2
07-05-2016, 14:33
nVidia tutta la vita AMD dopo la 9800pro e le varie x1900 ha fatto cacare
Ton90maz
07-05-2016, 14:39
nVidia tutta la vita AMD dopo la 9800pro e le varie x1900 ha fatto cacarehttps://i.ytimg.com/vi/D6TTNZ8jKgA/hqdefault.jpg
Chi vuol capire capisca, anzi no, capischi.
Ale55andr0
07-05-2016, 15:45
Ormai mi sembra chiaro che AMD punta a stare un gradino sotto come prestazioni, die leggermente più piccoli e più economici, se fa un buon prezzo ha una buona strategia.
Poi se vorrà mostrare il big bamboo per vedere chi lo ha più lungo sfodererà una dual vega a metà 2017.
punta o non riesce a fare altrimenti? :fagiano:
Occhio che Vega è semplicemente un refresh di Polaris con le HBM2.
Polaris avrà maggiori novità architetturali rispetto alla generazione precedente,
e potremo gustarcele a settembre.
The Witcher
07-05-2016, 16:51
sì ottimo, poi lato driver osceno (per me).
Aspetto con ansia amd, che non è perfetta, ma sta andando meglio di nvidia (sempre parlando lato driver e sempre parlando per il sottoscritto).
TigerTank
07-05-2016, 17:09
sì ottimo, poi lato driver osceno (per me).
Aspetto con ansia amd, che non è perfetta, ma sta andando meglio di nvidia (sempre parlando lato driver e sempre parlando per il sottoscritto).
Andando meglio? Le Fury hanno venduto molto meno, amd ha perso ulteriori quote di mercato e i drivers Crimson sono stati alquanto problematici...
Oltretutto ora se non ha nulla da opporre alla 1080 stiamo freschi.
Mi sembra chiaro che è una cosa voluta, se no non facevano chip più piccoli.
E secondo me ha senso, inutile sfidare Nvidia in modo diretto sulle prestazioni perchè Nvidia ha un seguito più vasto, può permettersi un chip più grosso e venderlo ad un prezzo più alto mentre AMD no, se facesse un chippone costerebbe troppo e lo comprerebbero in pochi.
Hanno fatto un chip più piccolo di GP104 tagliato per competere con la 1070 come prestazioni (spero un po' meglio della 1070) ma costando meno.
La 1080 andrà di più, ma pazienza il mercato grosso è sulla 1070.
Ovviamente tutto il ragionamento è basato su prestazioni presunte, staremo a vedere se regge quando vedremo quelle reali.
ROTFL. Stai sicuro che anche per Zen sarà una cosa voluta...
Ma per favore... vogliamo invece fare qualcosa affinché la concorrenza ritorni?
The Witcher
07-05-2016, 18:37
Andando meglio? Le Fury hanno venduto molto meno, amd ha perso ulteriori quote di mercato e i drivers Crimson sono stati alquanto problematici...
Oltretutto ora se non ha nulla da opporre alla 1080 stiamo freschi.
lato driver parlavo per esperienza personale. In ogni caso c'è stato pure un articolo qui su hw, l'ennesimo, su certi driver nvidia che davano problemi (a dimostrazione del fatto che nvidia può proporre quello che gli pare e fare quello che vuole lato driver. Le risorse le ha per fare di meglio).
Poi, se amd vende poco, io non posso farci niente. Evidentemente o le schede non sono all'altezza della concorrenza o sbaglia qualcosa a livello di marketing.
Portocala
07-05-2016, 21:00
Sul serio vi aspettate prestazioni raddoppiate nei giochi? Su gente, "il doppio" è solo nei bench di 3DMark
Occhio che Vega è semplicemente un refresh di Polaris con le HBM2.
Non è un refresh ma la "versione grossa", esattamente come GP100 è la "versione grossa" di GP104.
anche andasse "solo" il 30% in più della 980ti consumando quanto la 980.
Io aspetto luglio, per allora spero di trovare bench nVidia e AMD, 600€ per la 1080 o 490(?) potrei anche spenderli.
Non è un refresh ma la "versione grossa", esattamente come GP100 è la "versione grossa" di GP104.
No, è la versione UGUALE solo con HBM2.
E' tutto come al solito, ci sarà una 490X, e sarà basata su Polaris, e ci sarà una 590X, e sarà basata su Vega.
La "timidezza" mostrata da AMD su Polaris, e che ha causato a molti siti tanta confusione, è dovuta al fatto che la 490X avrà ancora il limite dei 4GB perché basata su HBM1.
Con la 590X di Vega questo limite sarà superato grazie ad HBM2.
Che delusione, non capisco tutto questo hype...
- prezzi esagerati nell'ordine dei 600-1000$
- 256-bit Memory Interface Width
- mancato supporto DX12 con Async Compute etc.
...praticamente è solo una 980 potenziata e resa più efficiente. Poveri Ricchi polli...
:asd:
:D :D :D :D
Prevedo nel mercatino un boom di vendita di VGA GTX970/980 a breve ... :D
:D :D :D :D
La 970 è una ridicola fregatura, su non fatevi fregare così... se proprio dovete: 980.
Stai dicendo scemenze grosse come una casa.
Polaris avrà un die di 230mm2 (120mm2 per quella più piccola) mentre Vega avrà dimensioni doppie o quasi.
Ma cosa cavolo vuoi saperne delle dimensioni dei DIE da siti che ancora mescolano Polaris e Vega? No, io ti dico che la 490X avrà DIE assolutamente simili a quelle della 590X.
Se hai un'informazione ufficiale DI AMD dimmela pure.
gd350turbo
08-05-2016, 10:18
Ma per favore... vogliamo invece fare qualcosa affinché la concorrenza ritorni?
Dovete fare una cosa sola :
COMPERARE AMD
Ora, subìto, adesso !
In questo modo AMD avrà le finanze per progettare e realizzare qualcosa di realmente competitivo..
Se tifate AMD ma in sign avete nvidia-intel, la concorrenza ve la sognate !
Al momento sono schede che servono per far girare quantum break..per il resto chi non va oltre il full hd può rimanere sulle vecchie 980, per la mancanza di novità rilevanti lato grafico (giochi convertiti da console con hw preistorico).
E chi non va oltre il 640x480 può rimanere con le GTX 470.
Che discorso... C'è la VR dietro l'angolo....
The Witcher
08-05-2016, 10:24
Dovete fare una cosa sola :
COMPERARE AMD
Ora, subìto, adesso !
In questo modo AMD avrà le finanze per progettare e realizzare qualcosa di realmente competitivo..
Se tifate AMD ma in sign avete nvidia-intel, la concorrenza ve la sognate !
infatti io supporterò amd :D (aggiornerò la firma appena posso dato che sono tornato alla vecchia 280x XD )
gd350turbo
08-05-2016, 10:27
infatti io supporterò amd :D (aggiornerò la firma appena posso dato che sono tornato alla vecchia 280x XD )
E per la CPU ?
Non vuoi aiutare AMD anche in quel campo ?
No, è la versione UGUALE solo con HBM2.
E' tutto come al solito, ci sarà una 490X, e sarà basata su Polaris, e ci sarà una 590X, e sarà basata su Vega.
La "timidezza" mostrata da AMD su Polaris, e che ha causato a molti siti tanta confusione, è dovuta al fatto che la 490X avrà ancora il limite dei 4GB perché basata su HBM1.
Con la 590X di Vega questo limite sarà superato grazie ad HBM2.
Suvvia... perchè dici boiate, figliuolo? :rolleyes:
Polaris 10 ha un die piuttosto piccolo (meno di 250 mm^2), mentre per Vega si parla di un chip molto più grosso (intorno ai 500 mm^2 probabilmente).
Riguardo alle memoria per il momento si parla di GDDR5(X?), tu sei l'unico che sta insistendo sulle HBM come se fossero una cosa accertata.
Per cui per cortesia smettila di trollare.
EDIT: preceduto
Che delusione, non capisco tutto questo hype...
- prezzi esagerati nell'ordine dei 600-1000$
- 256-bit Memory Interface Width
- mancato supporto DX12 con Async Compute etc.
Beh, il bus di memoria se adeguato non è un problema. Soprattutto perchè le GDDR5X possono sopperire alla presenza di un bus così stretto.
Sull'Async Compute leggevo che il supporto c'è, ma non è al livello di quello dell'architettura GNC di AMD (neanche di GNC 1.0), e di altre problematiche relative. Insomma, non hanno fatto grandi balzi in avanti rispetto a Maxwell 2.
E questa carenza da parte di Nvidia purtroppo temo influenzerà negativamente lo sviluppo dei motori grafici, che tenderanno non sfruttare adeguatamente questa caratteristica.
Beh, il bus di memoria se adeguato non è un problema. Soprattutto perchè le GDDR5X possono sopperire alla presenza di un bus così stretto.
LOL mi auguro tu non sia serio. Fatevi passare la sbornia e ragionate, su questa 980 rebrand efficientata e venduta a prezzi esorbitanti.
Suvvia... perchè dici boiate, figliuolo? :rolleyes:
Polaris 10 ha un die piuttosto piccolo (meno di 250 mm^2), mentre Vega sarà un chip molto più grosso (intorno ai 500 mm^2 probabilmente).
Riguardo alle memoria per il momento si parla di GDDR5(X?), tu sei l'unico che sta insistendo sulle HBM come se fossero una cosa accertata.
Per cui per cortesia smettila di trollare.
EDIT: precedutoì
Come ho gia' risposto, anche tu poi cercare le fonti AMD, non i rumor grazie,
che il DIE della 490X sarà piu' piccolo di quello della 590X.
Buona ricerca, ti consiglio di ragionare piu' con la tua testa.
Alla faccia... e sarei io che do per certe le cose?
hexaae, dispiace che tu non abbia il becco di un quattrino.
Su async compute aspetterei i dati prima di sentenziare.
Sull'Async Compute leggevo che il supporto c'è, ma non è al livello di quello dell'architettura GNC di AMD
La problematica che hai letto si riferisce alle alle gpu già in circolazione, dove amd ha implementato meglio questa tecnologia.
hexaae, dispiace che tu non abbia il becco di un quattrino.
Sì infatti, ho comprato di recente un ASUG G751JY e un G752VY... sono povero, ma con cervello ancora per vedere quello che è realmente quella scheda.
Contro il fanboysmo nessuno ce la fa, neanche Gundam. :nono: Pivelli...
Se non sai leggere... ho detto che aspetto i bench di ambo le parti.
Meglio fare come fai tu, sparare a zero su gpu che non si conoscono.
Non sembri per nulla un fan amd.
Ogni tanto fatti vedere anche nelle news delle CPU, li serve qualcuno come te.
Come ho gia' risposto, anche tu poi cercare le fonti AMD, non i rumor grazie,
che il DIE della 490X sarà piu' piccolo di quello della 590X.
Buona ricerca, ti consiglio di ragionare piu' con la tua testa.
Alla faccia... e sarei io che do per certe le cose?
E tu invece quali fonti puoi citare?
Le fonti ufficiali non esistono, perchè la scheda non è ancora stata presentata.
Esistono però delle voci affidabili su cui ci si può basare. E sono certamente meglio di queste del nulla su cui invece tu basi le tue teoria, spacciandola poi per certezza.
Comunque, giusto perchè ce l'ho sotto mano, wccftech riporta i dati dichiarati da un ingegnere AMD su VEGA. Non è un comunicato ufficiale ma certo è più affidabile delle tue fantasiose supposizioni.
Si parla di 4096 core GNC 4.0, contro i 2304 di Polaris 10. Ora... a meno che non siano riusciti a far stare quasi il doppio degli SP nello stesso spazio, direi che il chip si preannuncia ben più grosso.
Insomma, per capirci: click (http://cdn.wccftech.com/wp-content/uploads/2016/03/AMD-Vega-10-Polaris-10-Polaris-11-Feature.jpg).
Qui (http://wccftech.com/amd-vega-10-4096-stream-processors/) l'articolo.
Qui (http://wccftech.com/amd-polaris-11-gpu-specifications-leaked-compubench/) un articolo un po' più recente con il riassunto delle specifiche emerse dalle varie fonti non ufficiali.
LOL mi auguro tu non sia serio. Fatevi passare la sbornia e ragionate, su questa 980 rebrand efficientata e venduta a prezzi esorbitanti.
:confused:
Spiega pure, perchè non ti seguo.
La problematica che hai letto si riferisce alle alle gpu già in circolazione, dove amd ha implementato meglio questa tecnologia.
No, mi riferisco ai dettagli emersi su queste schede Pascal. Purtroppo non ci sono stati i miglioramenti che ci si aspettava rispetto a Maxwell 2.
The Witcher
08-05-2016, 10:49
E per la CPU ?
Non vuoi aiutare AMD anche in quel campo ?
non sono esperto di processori di amd :(
Mi hanno detto che per il gaming è meglio intel :(
Non so, ditemi voi.
gd350turbo
08-05-2016, 11:13
non sono esperto di processori di amd :(
Mi hanno detto che per il gaming è meglio intel :(
Non so, ditemi voi.
Ma cosa importa se Intel è meglio ?
Ma cosa importa se nVidia è meglio ?
Quello che importa è aiutare AMD !
Del resto è il modo di pensare comune, AMD è bella brava e buona, ma comperò nVidia iIntel perché vanno meglio
The Witcher
08-05-2016, 11:31
sì ho capito ma se una cpu Amd va peggio di una Intel è ovvio che scelgo Intel.
Se mi dici che c'è un processore AMD che va quanto un i7 xxx e per il gaming è perfetto mi ci getto immediatamente (anche perché, a dirla tutta, credo che i processori amd costino pure molto meno di quelli intel. Conviene anche dal punto di vista della spesa).
Io, al momento, posso supporterà amd lato scheda video.
Vediamo con zen. Mi iscriverò al thread e poi vedo un po come sarà questo processore.
Saluti!
Ale55andr0
08-05-2016, 11:40
E per la CPU ?
Non vuoi aiutare AMD anche in quel campo ?
lol, ma lo scrivi da un 3770k e da una 780? :asd: così come amd non è una onlus non lo siamo anche noi, compriamo cio che ci conviene e che è adeguato alle nostre esigenze, rosso, verde, amd o intel che sia :)
a meno che tu stia facendo sarcasmo e non ho colto :D
Ale55andr0
08-05-2016, 11:46
LOL mi auguro tu non sia serio. Fatevi passare la sbornia e ragionate, su questa 980 rebrand efficientata e venduta a prezzi esorbitanti.
guarda che sul fatto che le gddr5x compensino il bus ha straragione eh, e poi sempre in casa nvidia è stato mostrato come strafiotti banda passante e bus e normi non servano, serve il modo in cui si sfrutta la memoria e l'efficienza del memory controller. Una gddr5x a 6ghz ha 448gb/s di banda, direi che bastano tranquillamente a supportare persino una top di gamma VERA, le hbm 2 per ora no nhanno mostrato nulla (fury x vs 980ti..) se non di costare niutilmente per ottenere nulla di più. Quando diverranno lo standard e incideranno meno sui costi allora se ne riparla. Per il resto le top, anche in previsione di modelli futuri sono e restano quelle, ovvio che vengano prezzate a prezzi esorbitanti, è sempre stato così'. La 7970 in uscita costava 500 euro pieni eh...e parliamo della reference con quel cesso di dissi a bara, infatti io allora la presi usata perchè non potevo permettermela
Ale55andr0
08-05-2016, 11:48
Ma cosa importa se Intel è meglio ?
Ma cosa importa se nVidia è meglio ?
Quello che importa è aiutare AMD !
Del resto è il modo di pensare comune, AMD è bella brava e buona, ma comperò nVidia iIntel perché vanno meglio
a ecco, mi hai risposto :asd:
Allora non comprate più TV Samsung perché sono mediocri ed è tutto marketingD
vabè quello è verisismo :asd:
gd350turbo
08-05-2016, 13:29
lol, ma lo scrivi da un 3770k e da una 780? :asd: così come amd non è una onlus non lo siamo anche noi, compriamo cio che ci conviene e che è adeguato alle nostre esigenze, rosso, verde, amd o intel che sia :)
a meno che tu stia facendo sarcasmo e non ho colto :D
ho voluto dimostrare, se ce ne fosse bisogno, che si è tutti bravi a dire:
Ah povera AMD, speriamo che ce la faccia...
Eh ci vorrebbe un po di concorrenza...
E altre amenità del genere, poi come hai detto tu ognuno si compera quello che gli fa più comodo, fregandosene di tutto il resto, ovvero come non acquistando i prodotti di una marca, come questa possa trovare i fondi per sfornare prodotti competitivi ovvero in una parola, coerenza questa sconosciuta...
ho voluto dimostrare, se ce ne fosse bisogno, che si è tutti bravi a dire:
Ah povera AMD, speriamo che ce la faccia...
Eh ci vorrebbe un po di concorrenza...
E altre amenità del genere, poi come hai detto tu ognuno si compera quello che gli fa più comodo, fregandosene di tutto il resto, ovvero come non acquistando i prodotti di una marca, come questa possa trovare i fondi per sfornare prodotti competitivi ovvero in una parola, coerenza questa sconosciuta...
Ma infatti il discorso è l'opposto.
Per favorire la concorrenza è il caso di dire BASTA,
e augurarsi che AMD alzi bandiera bianca.
Finchè AMD non alza bandiera bianca, l'antitrust non può intervenire.
Con le CPU, non essendoci un terzo competitor oltre Intel e AMD, Intel ha rallentato per aspettarla.
Con le GPU il terzo competitor oltre NVIDIA e AMD esiste, e si chiama Intel. Chiaramente NVIDIA non puo' rallentare per aspettare AMD, perché Intel non scherza.
cdimauro
08-05-2016, 14:29
ho voluto dimostrare, se ce ne fosse bisogno, che si è tutti bravi a dire:
Ah povera AMD, speriamo che ce la faccia...
Eh ci vorrebbe un po di concorrenza...
E altre amenità del genere, poi come hai detto tu ognuno si compera quello che gli fa più comodo, fregandosene di tutto il resto, ovvero come non acquistando i prodotti di una marca, come questa possa trovare i fondi per sfornare prodotti competitivi ovvero in una parola, coerenza questa sconosciuta...
Dove starebbe la mancanza di coerenza? Le due cose non sono mutuamente esclusive: sperare in maggior concorrenza, ma continuare a comprare ciò che serve / fa più comodo.
Sono le aziende che devono proporre prodotti competitivi e, dunque, appetibili.
Ma infatti il discorso è l'opposto.
Per favorire la concorrenza è il caso di dire BASTA,
e augurarsi che AMD alzi bandiera bianca.
Finchè AMD non alza bandiera bianca, l'antitrust non può intervenire.
Anche se lo facesse, non vedo perché dovrebbe intervenire. AMD può sempre essere acquisita da qualcuno, alla fine.
Con le CPU, non essendoci un terzo competitor oltre Intel e AMD, Intel ha rallentato per aspettarla.
Ma anche no: Intel non ha affatto rallentato.
Con le GPU il terzo competitor oltre NVIDIA e AMD esiste, e si chiama Intel. Chiaramente NVIDIA non puo' rallentare per aspettare AMD, perché Intel non scherza.
Intel non ha mai prodotto schede video discrete.
Ma infatti il discorso è l'opposto.
Per favorire la concorrenza è il caso di dire BASTA,
e augurarsi che AMD alzi bandiera bianca.
Finchè AMD non alza bandiera bianca, l'antitrust non può intervenire.
Con le CPU, non essendoci un terzo competitor oltre Intel e AMD, Intel ha rallentato per aspettarla.
Con le GPU il terzo competitor oltre NVIDIA e AMD esiste, e si chiama Intel. Chiaramente NVIDIA non puo' rallentare per aspettare AMD, perché Intel non scherza.
non sono ancora riuscito a inquadrarti,se sei turbato psicologicamente,fans ultra',astio nei confronti di amd per qualcosa di personale(se ne puo' parlare)
oppure sei pagato da una divisione marketing losca,per spalare letame contro i concorrenti in forum vasti di utenti giovani e ricettivi:nono:
monster.fx
08-05-2016, 17:10
La 970 è una ridicola fregatura, su non fatevi fregare così... se proprio dovete: 980.
In questo non posso che darti ragione.
Io personalmente ho preferito la R9 390(che poi ho trovato usata con 5 mesi di vita ad un buon prezzo), in vista delle prestazioni a metà strada tra 970 e 980 liscia, e i suoi 8Gb di VRam ... per ora non sfruttati ma che potrebbero prodursi in una longevità maggiore.
blackshard
08-05-2016, 18:13
Ma infatti il discorso è l'opposto.
Per favorire la concorrenza è il caso di dire BASTA,
e augurarsi che AMD alzi bandiera bianca.
Finchè AMD non alza bandiera bianca, l'antitrust non può intervenire.
Qui ci vorrebbe di nuovo il fotogramma di fantozzi di prima. Ma che !£$#& stai a dì?
Dovrebbe intervenire l'antitrust per fare cosa?
Con le CPU, non essendoci un terzo competitor oltre Intel e AMD, Intel ha rallentato per aspettarla.
Si, come no... e i minipony fanno gli arcobaleni...
Qui manca competizione, intel non ha bisogno di investire denaro e la situazione stagna, vedi gli ultimi 5 anni di cpu che fondamentalmente sono rimaste sempre sulle stesse performance. I chip ARM sono passati dal singolo core a 8 core, gli x86 non si sono mossi da dove erano.
Con le GPU il terzo competitor oltre NVIDIA e AMD esiste, e si chiama Intel. Chiaramente NVIDIA non puo' rallentare per aspettare AMD, perché Intel non scherza.
E quali schede video discrete venderebbe intel?
CrapaDiLegno
08-05-2016, 19:52
Ahaha, ragazzi.
Ne ho lette tante che non so se sto morendo dal ridere o dal piangere. Su un sito di appassionati di tecnologia non si possono leggere queste cose.
Quello che non sa come si calcola la banda e crede che per avere tanti bytes/s bisogna necessariamente avere bus grandi millemila bit (senza spare cosa significhi fisicamente quella soluzione).
Add: quelli che non hanno ancora capito, nonostante le prove reali esistenti, che 256 bit possono rendere meglio di 384 e 128 di 256 e 384 di HBM1 perchè la gestione corretta e ottimizzata della memoria vale più di una manciata di bit.
Quelli che credono che la parola HBM2 risolva tutti i problemi: ho una GPU del menga con le GDDR5(X), ci metto le HBM2, et voilà, la GPU diventa top gamma all'istante.
Quelli che credono che una GPU della fascia della GTX 1080 necessiti della HBM2 per funzionare decentemente.
Quelli che credono che un chip che va meno della 1080 con l'HBM2 funzioni meglio.
Quelli che non hanno capito che le HBM1 sono superate e non saranno mai più usate.
Quelli che parlano di chip piccoli fatti per migliorare il margine di guadagno ma poi dicono che verranno usati con le HBM2 (quindi non hanno capito i costi relativi all'impiego delle HBM in generale).
Quelli che credono che nei chippetti più piccoli delle piastrelle enthusiast vi siano ben 2 controller (GDDR5(X) e HBM2).
Quelli che non sanno come funzionano le GPU e credono che la potenza sia tutta nei FLOPS scritti sulla carta (Pascal = Maxwell perché i FLOPS per core sono = 2 per ciascuno.. ahahahahahaha... chissà cosa penseranno quando faranno gli stessi conti tra VEGA e Bonaire della mitologica architettura AMD.. istruzione FMA, questa sconosciuta).
Siete uno spasso.
Peccato siate su HW Upgrade e non Novella 2000.
Il che vi rende tristi.
Mi consolo con il fatto che molti di voi spendono in questo mercato permettendo ai prezzi di scendere per il fattore di scala.
Grazie. Continuate pure.
cdimauro
08-05-2016, 19:53
Si, come no... e i minipony fanno gli arcobaleni...
Qui manca competizione, intel non ha bisogno di investire denaro e la situazione stagna, vedi gli ultimi 5 anni di cpu che fondamentalmente sono rimaste sempre sulle stesse performance.
Ma anche no: CPU Performance: Five Generations of Intel CPUs Compared (http://www.anandtech.com/show/7003/the-haswell-review-intel-core-i74770k-i54560k-tested/6)
I chip ARM sono passati dal singolo core a 8 core, gli x86 non si sono mossi da dove erano.
Gli x86 hanno superato i 60 core (61, con Xeon Phi).
e i suoi 8Gb di VRam ... per ora non sfruttati ma che potrebbero prodursi in una longevità maggiore.
Può averne anche 32GB, ma se la gpu non ce la fa non risolvi nulla.
Se al MW ti spacciano una 940 con 8GB di memoria che fai, la prendi? ;)
Tuttavia penso che la 390 possa reggere senza problemi 3-4 anni in fhd ultra. Almeno spero.
Purtroppo non è facile tenere alto il livello tecnico della discussione,
quando fai notare che Intel è un serio competitor per le GPU,
e ti rispondono
"E quali schede video discrete venderebbe intel?" :cry:
cdimauro
08-05-2016, 21:08
Le GPU discrete ci saranno sempre, e Intel non è interessata a entrare in questo mercato (c'ha provato con Larrabee, e ha fallito).
Non vedo di cosa si dovrebbe discutere.
Poi le altre questioni tecniche le hai lasciate cadere del tutto.
CrapaDiLegno
08-05-2016, 21:31
Purtroppo non è facile tenere alto il livello tecnico della discussione,
quando fai notare che Intel è un serio competitor per le GPU,
e ti rispondono
"E quali schede video discrete venderebbe intel?" :cry:
Proprio i tuoi commenti sono quelli che più mi fanno ridere (o piangere a seconda di come mi ci approccio quando li leggo).
Con le GPU il terzo competitor oltre NVIDIA e AMD esiste, e si chiama Intel. Chiaramente NVIDIA non puo' rallentare per aspettare AMD, perché Intel non scherza.
Secondo il tuo discorso, nvidia sta correndo nel mondo delle GPU perché Intel non sta a guardare ma può diventare competitiva se nvidia si ferma per un attimo a tirare il fiato?
Cioè tu stai comparando una GPU integrata in un chip che per caso forse può consumare 20W con una che ne può consumare fino a 300 e che per giunta è realizzata con una architettura che le dà una pista e mezza a parità di consumi? E nei giochi non è comparabile per qualità di supporto e prestazioni ottenibili (quindi se vuoi superare la decenza nei giochi che non siano campo minato la discreta è d'obbligo).
Tu stai comparando le integrate Intel (con eDRAM o meno) con l'architettura Maxwell la cui realizzazione più scrausa le da 3 piste?
O stai parlando del mercato professionale delle Quadro?
Stai tentando un corso di Zelig subliminale a tutto il sito dove però neanche tu capisci le tue battute?
L'unico mercato dove Intel è diretta concorrente di nvidia è quello delle schede acceleratrici per server HPC (Tesla vs Xeon Phi). Per tutto il resto nvidia e Intel giocano in due campionati diversi per quanto riguarda i processori per uso prettamente grafico (rispettivamente serie A e serie C).
blackshard
08-05-2016, 21:33
Ma anche no: CPU Performance: Five Generations of Intel CPUs Compared (http://www.anandtech.com/show/7003/the-haswell-review-intel-core-i74770k-i54560k-tested/6)
Ma anche si. Dal link che tu posti io non vedo sostanziali incrementi in performance per gli i7 dalla serie 2 alla 4. E' stata raffinata l'architettura, ma non ci sono rivoluzioni come nel passaggio fra Core 2 e Nehalem.
Gli x86 hanno superato i 60 core (61, con Xeon Phi).
Nel mercato server/HPC; giacché si parlava di mercato desktop e della sua stagnazione, quello che si trova in giro sono sempre 4 core + HT da anni ormai.
Cioè tu stai comparando una GPU integrata in un chip che per caso forse può consumare 20W con una che ne può consumare fino a 300 e che per giunta è realizzata con una architettura che le dà una pista e mezza a parità di consumi?
Stendiamo un velo pietoso sulla prima parte della frase, che conferma la tua difficoltà a parlare d'informatica. :cry:
Riesci vagamente ad arrivare al concetto fondamentale di PERFORMANCE/WATT nella seconda parte, anche se espresso nel tuo limitato linguaggio.
Purtroppo dire che Nvidia e AMD siano avanti a Intel come Performance/Watt mi sembra del tutto da dimostrare.
Fa piacere che tu ti diverta nel forum, a me piacerebbe invece vedere dei contributi di maggiore qualità :(
CrapaDiLegno
08-05-2016, 22:12
Stendiamo un velo pietoso sulla prima parte della frase, che conferma la tua difficoltà a parlare d'informatica. :cry:
Riesci vagamente ad arrivare al concetto fondamentale di PERFORMANCE/WATT nella seconda parte, anche se espresso nel tuo limitato linguaggio.
Purtroppo dire che Nvidia e AMD siano avanti a Intel come Performance/Watt mi sembra del tutto da dimostrare.
Fa piacere che tu ti diverta nel forum, a me piacerebbe invece vedere dei contributi di maggiore qualità :(
Sì sì, continua pure a fare lo zimbello del forum, a me non interessa.
Sì sì, continua pure a fare lo zimbello del forum
:mbe:
cdimauro
09-05-2016, 05:57
Cioè tu stai comparando una GPU integrata in un chip che per caso forse può consumare 20W con una che ne può consumare fino a 300 e che per giunta è realizzata con una architettura che le dà una pista e mezza a parità di consumi? E nei giochi non è comparabile per qualità di supporto e prestazioni ottenibili (quindi se vuoi superare la decenza nei giochi che non siano campo minato la discreta è d'obbligo).
Tu stai comparando le integrate Intel (con eDRAM o meno) con l'architettura Maxwell la cui realizzazione più scrausa le da 3 piste?
O stai parlando del mercato professionale delle Quadro?
Stai tentando un corso di Zelig subliminale a tutto il sito dove però neanche tu capisci le tue battute?
L'unico mercato dove Intel è diretta concorrente di nvidia è quello delle schede acceleratrici per server HPC (Tesla vs Xeon Phi). Per tutto il resto nvidia e Intel giocano in due campionati diversi per quanto riguarda i processori per uso prettamente grafico (rispettivamente serie A e serie C).
Ma anche no: il mercato delle GPU è diviso in vari settori, ma ci sono parti concorrenti o relazionate.
Come avevo già precisato, Intel non compete in quello delle discrete, per cui non è un diretto concorrente di nVidia e AMD.
L'unico reale concorrente di Intel è, di fatto, AMD e non nVidia, visto che quest'ultima non ha (e non può avere) a disposizione soluzioni x86/x64 con GPU integrata.
Premesso questo, è anche vero che con le sue integrate ha relegato entrambi i produttori di GPU a una porzione MINORITARIA del mercato delle GPU (parlando della sua interezza, sia chiaro, e limitandoci al settore delle GPU a uso sistemi x86/x64).
Non è un caso che le GPU integrate di Intel siano andate via via ad avere prestazioni più elevate, e in generale più efficienti. Tanto da poter essere più che sufficienti anche per giocare con tanti giochi (ovviamente senza pretendere dettagli elevati et similia). Il tutto con consumi ridotti.
Per cui da questo punto di vista direi che ci sarebbe di che discutere sulla catalogazione in seria A e serie C che hai fatto prima.
Ma anche si. Dal link che tu posti io non vedo sostanziali incrementi in performance per gli i7 dalla serie 2 alla 4. E' stata raffinata l'architettura, ma non ci sono rivoluzioni come nel passaggio fra Core 2 e Nehalem.
Da Nehalem ad Haswell c'è un aumento del 44% di IPC, com'è stato riportato dall'articolo. Poi ci sono gli incrementi portati da Broadwell e infine da Skylake, per cui dovremmo essere riusciti a sfondare al soglia del 50%.
Sì, magari non ci sono differenze così marcate come il passaggio dai Core 2 (anche perché Nehalem ha posto le basi per una microarchitettura ben performante. Cosa che non si può certo ignorare), ma gli incrementi ci sono stati.
Cosa non meno importante, Intel ha pure introdotto le AVX e le AVX-2, che RADDOPPIANO le prestazioni nei calcoli SIMD (quelli di SSE et similia, per intenderci), ma serve tempo per essere sfruttate (e questo non è colpa di Intel, ma degli sviluppatori).
Situazione simile ci sarà con le AVX-512 che arriveranno il prossimo anno: raddoppieranno le prestazioni rispetto alle AVX/2.
Nel mercato server/HPC; giacché si parlava di mercato desktop e della sua stagnazione, quello che si trova in giro sono sempre 4 core + HT da anni ormai.
Perdonami, ma hai parlato di ARM a 8 core, e non mi pare che nel "mercato desktop" ce ne siano.
Per cui se mi parli ARM a 8 core non posso che pensare subito e solamente al mercato server, visto che c'è solo quello (in quello mobile Intel è appena uscita).
monster.fx
09-05-2016, 08:39
Ma anche no: CPU Performance: Five Generations of Intel CPUs Compared (http://www.anandtech.com/show/7003/the-haswell-review-intel-core-i74770k-i54560k-tested/6)
Gli x86 hanno superato i 60 core (61, con Xeon Phi).
Onestamente questo grosso salto prestazionale non lo vedo ... e io con il mio buon vecchio i7 2600@4400 (versione non K) vivo ancora bene .
Sicuramente con un 4790 o 6700 vivrei meglio(prestazionalmente parlando), ma vivrei peggio dal punto di vista del portafogli :D .
Quel 10% in più, ma anche 15%, di prestazioni si concretizza in 10/15 fps quando va bene(su una base di 100fps).
Può averne anche 32GB, ma se la gpu non ce la fa non risolvi nulla.
Se al MW ti spacciano una 940 con 8GB di memoria che fai, la prendi? ;)
Tuttavia penso che la 390 possa reggere senza problemi 3-4 anni in fhd ultra. Almeno spero.
Guarda non stai parlando con un bimbomxxxa. Vedere una GTX960 da 4Gb quando è nata con 2Gb... o GT730 o altre VGA con n Gb di VRam... so che sono solo manovre puramente commerciali .
Vedi come una 980Ti con i suoi "soli" 4Gb sia più performante della R9 390.
Alla base deve esserci un'architettura che gestisca bene la mole di dati.
E' un pò come avere un bellissimo Celeron da 4Ghz ... contro un i3 da 3.2Ghz ... tutti i neofiti guardano i numeri, ma non sanno che l'ottimizzazione delle tecnologie vale più dei numeri.
Detto questo, spero anche io che la R9 390 abbia una buona longevità.
majinbu7
09-05-2016, 09:17
Può averne anche 32GB, ma se la gpu non ce la fa non risolvi nulla.
Se al MW ti spacciano una 940 con 8GB di memoria che fai, la prendi? ;)
Tuttavia penso che la 390 possa reggere senza problemi 3-4 anni in fhd ultra. Almeno spero.
La 390 in FullHD e settaggi Ultra già non ce la fa adesso a tenere i 60 fps in alcuni giochi, e tu speri che regga ancora 3/4 anni???
monster.fx
09-05-2016, 09:45
La 390 in FullHD e settaggi Ultra già non ce la fa adesso a tenere i 60 fps in alcuni giochi, e tu speri che regga ancora 3/4 anni???
Non ce la fa ... come non ce la fa la GTX970 e la GTX980 .
Sono passati i tempi in cui con 300€ facevi girare tutto al massimo a 60fps e anche più.
Ora tra conversioni da consolle fatte con i piedi, programmazione discutibile(molti giochi escono al day one con bug e prestazioni indecenti risolti solamente in modo marginale con svariate patch), ...
PaulGuru
09-05-2016, 09:50
https://media.giphy.com/media/H6CW8SL6vgVb2/giphy.gif
Non c'è altro da aggiugere !
Finalmente un gran boost prestazionale !!! E non è nemmeno la versione di punta !
il doppio di una TitanX a soli 599$ ? 4K e VR finalmente si avvicinano !!!
Soulbringer
09-05-2016, 09:54
Gente esaltata, gente delusa, fanboy eccitati come bambini...
Come al solito le percentuali volano come al mercato del pesce: "+200%", "il doppio!", "un 20/25% in più"...non si capisce una mazza.
E, come sempre, aspetto l'uscita e le recensioni ufficiali.
E, come sempre, aspetto l'uscita e le recensioni ufficiali.
La GTX 1080 è gia' nelle mani della redazione,
possiamo aspettarci la recensione il 17 maggio, quando scade l'NDA :rolleyes:
Soulbringer
09-05-2016, 10:05
Bene, allora settimana prossima avremo finalmente la risposta che cerchiamo.
La GTX 1080 è gia' nelle mani della redazione,
possiamo aspettarci la recensione il 17 maggio, quando scade l'NDA :rolleyes:Quindi stavolta l'han prodotta veramente, non come alla presentazione di Fermi... :asd:
lollol87
09-05-2016, 10:21
La GTX 1080 è gia' nelle mani della redazione,
possiamo aspettarci la recensione il 17 maggio, quando scade l'NDA :rolleyes:
nemmeno qualche indiscrezione ufficiosa?? :D :D
PaulGuru
09-05-2016, 11:08
Non va il doppio di una TitanX anche secondo le stime Nvidia va il 60% in più di una TitanX, poi bisogna vedere se vengono confermate dalle prove dei fatti.
Il doppio che dicono loro è solo in VR.
Queste stime io non le ho viste, anche perchè oltre a quelle frasi di pratico non è trapelato nulla ancora.
Il 60% comunque sia è tanto, se sarà vero anche in quella misura vuol dire che le 980 saranno ridicolmente obsolete.
Come vuol dire poi il doppio "solo in vr" ?
PaulGuru
09-05-2016, 11:14
http://s32.postimg.org/67ogaw285/Immagine.png
http://www.geforce.com/hardware/10series/geforce-gtx-1080
Anzi a vedere quello va circa il 70% forse 80% in più di una 980 liscia.
Da sito Nvidia eh, no rumors, leaked, fuffa, ecc.
ma cosa cambia in VR ?
cosè sono frames differenti ?
PaulGuru
09-05-2016, 11:45
165W appena di TDP ? :muro:
Cadiamo sempre sul ridicolo ogni volta.
Siamo in una situazione dove c'è urgente bisogno di potenza e questi elemosinano.
Stando alla lunghezza delle barre:
TheWitcher fhd
980: 43,8
980ti: 53,0
1080: 74,5
4K
980: 20,5
980ti: 25,9
1080: 34,84
per la 980ti e la 980 ho usato techpowerup, ultima recensione.
Ci può stare.
Titanox2
09-05-2016, 13:01
non vedo l'ora di spendere sti 600 euro per giocare il nulla
ma cosa cambia in VR ?
cosè sono frames differenti ?
ma che ingenuita',semplicemente si limiteranno a non rilasciare driver appropriati per la vecchia generazione,quindi dindi gia' in tasca,per invogliarti ad aggiornare,tanti altri dindi in arrivo(come tradizione nvidia)
la potenza reale della 1080 la si puo' estrapolare dai sp in piu',e il netto balzo di clock
risulta in ipc a parita' di sp e clock,quasi identico a maxwell
pascal alla fine non e' una nuova architettura,hanno sfruttato solo i 16nm
dai rumors invece pare che amd ha lavorato anche sull'architettura,i nuovi sp,dovrebbero avere un notevole miglioramento
non so ma si intravede una sorpresa,mi ricorda un certo rv...non ricordo ma era montata sulle hd48x0 che fece abbassare la cresta a nvidia
tanto primo o poi una pennichella sugli allori ci scappava:D
lo spero anche per i fans nvidia,meglio prezzi bassi per tutti no?;)
Portocala
09-05-2016, 13:19
Non mi è chiara una cosa:
Prima: usciva la reference a XXX euro e poi le aftermarket a +50/100 euro.
Adesso: reference F.E. a 600 e poi le aftermarket e prezzi più bassi? comè possibile se quelli devono aggiungere il loro guadagno? al massimo allo stesso prezzo ma addiritura inferiori?
PaulGuru
09-05-2016, 13:26
ma che ingenuita',semplicemente si limiteranno a non rilasciare driver appropriati per la vecchia generazione,quindi dindi gia' in tasca,per invogliarti ad aggiornare,tanti altri dindi in arrivo(come tradizione nvidia)
la potenza reale della 1080 la si puo' estrapolare dai sp in piu',e il netto balzo di clock
risulta in ipc a parita' di sp e clock,quasi identico a maxwell
pascal alla fine non e' una nuova architettura,hanno sfruttato solo i 16nmma quali drivers ?
Gli SP sono pari e il TDP è diminuito e probabilmente sono bandwitch limited.
TigerTank
09-05-2016, 13:41
http://s32.postimg.org/67ogaw285/Immagine.png
http://www.geforce.com/hardware/10series/geforce-gtx-1080
Anzi a vedere quello va circa il 70% forse 80% in più di una 980 liscia.
Da sito Nvidia eh, no rumors, leaked, fuffa, ecc.
La cosa divertente è che siamo passati dal leggere dichiarazioni assolute circa il doppio di gtx980Ti e TitanX al fatto che da questo grafico si possa vedere un incremento medio del 60-70% rispetto ad una gtx980 a default e presumibilmente in fullHD.
Quindi in teoria si assottiglia nelle risoluzioni superiori e si può "confermare" un 20-25% in più rispetto alle gtx980Ti default.
Per cui...stacco generazionale nella norma ma a costi superiori. La rivoluzione strabiliante sarà solo nella gestione VR.
IMHO ovviamente e felice di sbagliarmi quando usciranno le varie recensioni con le comparative.
Soulbringer
09-05-2016, 13:46
Come dicevo stamattina...percentuali da mercato del pesce.
Quando si passa dal 200% al 100% e poi, di nuovo, al 60/80% si stanno solo sparando numeri a caso...
monster.fx
09-05-2016, 13:56
La GTX 1080 è gia' nelle mani della redazione,
possiamo aspettarci la recensione il 17 maggio, quando scade l'NDA :rolleyes:
Lo spero ... e soprattutto spero in una recensione corposa ed esaudiente.
TigerTank
09-05-2016, 13:59
se lo dicono pure loro da una slide sul proprio sito ufficiale della 1080, che c'è da sperare? perché non fanno confronti con la 980ti?
...
il salto sarà quello, ~5% + o - nell'ordine del +30% generale dalla 980ti, il driver farà il resto...
Infatti per ora è tutto un blablabla di supposizioni ed ipotesi, stiamo chiocciando come le comari al mercato in attesa delle recensioni affidabili :sofico:
Soulbringer
09-05-2016, 14:01
dipende quali post leggi e di chi :asd:
con gli inscimmiati in circolazione i "X" si sprecano e si moltiplicano :sofico:
Non so, dimmi tu, il titolo di questo thread è "NVIDIA GEFORCE GTX 1080: QUALCHE DETTAGLIO IN PIÙ, PRESTAZIONI SUPERIORI DI 2 VOLTE RISPETTO A TITAN X"...
E adesso viene fuori che in realtà va il 60/80% in più di una 980 liscia. Se non è mercato del pesce questo, non so cosa lo sia :asd:
TigerTank
09-05-2016, 14:13
No, il punto è che in quel titolo hanno omesso la parola "VR", infatti nel grafico postato da Bivvoz vedi che comunque in quel contesto sarà una rivoluzione...ma appunto è anche un settore che sta evolvendo adesso.
CrapaDiLegno
09-05-2016, 14:21
la potenza reale della 1080 la si puo' estrapolare dai sp in piu',e il netto balzo di clock
risulta in ipc a parita' di sp e clock,quasi identico a maxwell
pascal alla fine non e' una nuova architettura,hanno sfruttato solo i 16nm
Come dimostrare di non capire nulla di GPU e TFLOPS e venire poi a spargere perle di saggezza riguardo alla cosa. Utente AMD nuovamente frustrato per gli enormi numeri sfoggiati da nvidia e tenuti segreti da AMD?
Ti svelo un segreto. Piccolo. Ma che probabilmente tutti gli altri sanno, o se non lo sanno, almeno se ne stanno zitti.
I GFLOPS dichiarati dalle case produttrici sono dei numeri teorici ricavati in maniera semplicissima: ovvero quante istruzioni FMA, che equivalgono a 2 istruzioni in virgola mobile eseguiti per ciclo di clock, si riescono ad eseguire moltiplicando il numero di core * frequenza * 2.
Rimarrai stupito (o deluso) nel sapere che anche l'architettura AMD mostrerà gli stessi identici numeri a parità di core e di clock. Vega, secondo questi calcoli, sarà efficiente esattamente quanto Bonaire (ve lo avevo suggerito anche nel commento di prima, ma si vede che non riuscite a capire neanche l'italiano base o non sapete/volete fare delle ricerche prima di sparare boiate).
Quindi AMD non mostrerà alcun numero migliore se ti basi su quanti TFLOPS raggiunge secondo il numero di core e frequenza usati nei suoi nuovvi chip.
Quello che cambia tra una architettura e l'altra è come è realizzato il core e la sua organizzazione in strutture più complesse (CU/SMX o come li ha chiamati nvidia questo giro) e quindi tutte le ottimizzazioni possibili tra dimensione e frequenza e istruzioni (diverse da FMA) che possono essere eseguite con maggiore efficienza (ovvero velocità).
Se applichi il tuo criterio di calcolo di "potenza" tra Kepler e Maxwell dedurresti che le architetture sono perfettamente uguali. Invece come è stato possibile vedere, non è così. Maxwell esegue codice GPGPU molto più velocemente di Kepler, pur avendo come limite massimo i numeri teorici delle istruzioni FMA che sono uguali o persino inferiori a quelli di Kepler.
Quello che hai affermato indica chiaramente che non sai di cosa stai parlando e sei venuto solo per spalare cacca su qualcosa che, diciamocelo francamente, ti turba e non poco. Con questi numeri e con i rumors che vogliono le GPU di AMD più picccole (e senza alcun accenno alle GDDR5X) hai mostrato la classica sindrome del fanboy (ancora) frustrato.
L'ottimizzazione fatta con Pascal si misurerà nei numeri che alla fine sfoggerà sul campo, non quelli sulla carta da cui non puoi dedurre niente se non che a parità di archiettura (come dici tu, Pascal = Maxwell shrinkato) le prestazioni saranno almeno quelle proporzionali all'aumento di core e frequenza (che essendo aumentati costituiscono comunque un miglioramento assoluto rispetto all'architettura precedente). Almeno. Perché o in nvidia sono dei cretini, oppure si spera abbiano lavorato e speso soldi per realizzare una architettura che in qualche modo va un pochino meglio della precedente a parità di risorse a disposizione, ovvero che la capacità di eseguire calcoli generici si avvicini di più al limite teorico (quello sulla carta risportato e che tu erroneamente credi dipenda dall'efficienza della architettura) rispetto alla generazione precedente.
Vedremo quello che riuscirà a fare AMD, che è partita già in svantaggio rispetto a Maxwell in termini di consumi/dimensioni e prestazioni. Vedremo se nvidia ha fatto il passo più corto facendosi raggiungere o se è migliorata di più distanziando ulteriormente la concorrente. Che è poi quello che conta.
Le dichiarazioni di AMD però non fanno sperare nel meglio, dato che sembra siano tornati alla strategia adottata dopo il flop dell'R600 ai chip piccoli, snelli ed efficienti (per poi finire a produrre piastrelle pure loro per riuscire a non farsi lasciare troppo indietro). Ma magari non è così e si mostreranno con un chip che è comparabile al GP104 in modo che nvidia non pensi anche questa generazione di lanciare schede con prezzi assurdi e mantenerli tali fino alla fine del ciclo di produzione delle stesse.
ma quali drivers ?
appunto:p
non rilasceranno mai driver ottimizzati per la vecchia generazione
il 200% e' riferito a un arma scarica,gli e' impedito a difendersi:(
majinbu7
09-05-2016, 14:32
La cosa triste è che AMD è in serio ritardo e perciò Nvidia sovraprezzerà le sue vga... :muro:
CrapaDiLegno
09-05-2016, 14:37
La cosa triste è che AMD è in serio ritardo e perciò Nvidia sovraprezzerà le sue vga...
Che è nella normalità delle cose. Non è che quando AMD è uscita con GCN con tre mesi di anticipo su nvidia le sue schede le abbia regalate, mi sembra.
Come nella normalità delle cose, i prezzi precipiteranno all'uscita dell'offerta della concorrenza se questa si mostra all'altezza della situazione.
... Stracut ...
Porcamiseria... ti sei fatto un pippotto mentale assurdo, accusando gli altri di essersela presa per non si sa cosa, quando è abbastanza evidente che l'unico ad avere toni alterati sei proprio tu.
Forse te la stai prendendo perchè qualcuno sta mettendo in dubbio la bontà della nuova architettura Nvidia? ;)
Suvvia ora diamoci una bella calmata, che non sono questi i toni di una civile discussione.
Theodorakis
09-05-2016, 14:59
In ritardo rispetto ad un paper launch, poi ... :sofico:
CrapaDiLegno
09-05-2016, 15:34
Porcamiseria... ti sei fatto un pippotto mentale assurdo, accusando gli altri di essersela presa per non si sa cosa, quando è abbastanza evidente che l'unico ad avere toni alterati sei proprio tu.
Forse te la stai prendendo perchè qualcuno sta mettendo in dubbio la bontà della nuova architettura Nvidia?
La bontà dell'architettura non la decido io con le mie parole. Lo decideranno i numeri quando usciranno i test.
Quello che mi da fastidio è vedere persone (e non è la prima, come già fatto notare nel primo commento) che vengono in una discussione a fare affermazioni senza sapere neanche di quel che parlano.
Avrei detto la stessa cosa anche se uno avesse detto la stessa sciocchezza riguardo all'architettura AMD. Una cretinata è e rimane tale e se detta in maniera convinta è solo perché si vuole dimostrare qualcosa (probabilmente a se stessi, altrimenti la frustrazione raggiunge limiti insopportabili).
Tra il non saper valutare le architetture (comparare i GFLOPS teorici è veramente da ignoranti al 100%) e la questione che vuole la gente continuamente parlare di HBM per massime prestazioni, che senza GDDRX5 la scheda è castrata, gente che non legge nemmeno la news in cui sono riportati tutti i numeri e se li fa dire dal vicino di banco etc... direi che è evidente che molti di voi fanboy verdi o rossi che siate, non sapete nemmeno quello di cui parlate. Ma vi piace darvi le pacche sulle spalle (tra compari) o mettervi le dita negli occhi (tra rivali) usando qualsiasi sciocco e inutile pretesto possiate usare
...
eh, ma AMD avrà l'HBM nvidia no, e ma nvidia ha la GDDR5X AMD no, e i TFLOPS, e i bit del bus, e i W e tutto quello che non capite cosa significhi per davvero, basta che un numero sia superiore a quello della concorrenza per essere in pace con se stessi e le proprie convinzioni.
ma perché dare ancora credito ad uno che si rivolge così agli altri utenti
Non sono io quello che fa caciara nel forum di un sito di tecnologia sparando boiate campate in aria solo per diminuire un po' la frustrazione di vedere l'azienda tanto odiata presentare prodotti in anticipo rispetto a quello che si sperava (per amore della propria azienda che sembrava in vantaggio temporalmente).
Siamo su un sito di tecnologia, si spera che gli appassionati parlino e critichino per cose tecniche e che conoscono ed evitino di riportare quello che gli ha riferito il proprio cuggino di cui poi hanno pure capito la metà del minimo basilare.
Per poi trovarsi tutti assieme appassionatamente uniti contro colui che gli fa notare che le discussioni da bambini ignoranti non sono appropriate.
Se hai qualcosa di più intelligente da dire che le solite sciocchezze da fanboy basate sul nulla cosmico, per me sarà un piacere ascoltarle. Altrimenti parla pure, ma non ti offendere quando vieni etichettato per quel che in realtà sei.
In serio ritardo?
Ma se probabilmente presentano polaris il 27, 20 giorni è un serio ritardo secondo te?
Ma la concorrente della GTX1080 sarà Vega...
Che è nella normalità delle cose. Non è che quando AMD è uscita con GCN con tre mesi di anticipo su nvidia le sue schede le abbia regalate, mi sembra.
Come nella normalità delle cose, i prezzi precipiteranno all'uscita dell'offerta della concorrenza se questa si mostra all'altezza della situazione.
Mah, io ricordo una HD5870 uscita mesi prima della GTX480 e, nonostante ciò, piazzata a prezzi di listino ottimi.
MarklendersXY
09-05-2016, 15:40
C'è un po troppa confusione sui numeri, l'unica cosa che si sa per ora è che costano di più, per i dati reali si aspettano le recensioni delle varie testate e magari qualche appassionato con il portafoglio ben disposto XD
PaulGuru
09-05-2016, 16:06
La cosa divertente è che siamo passati dal leggere dichiarazioni assolute circa il doppio di gtx980Ti e TitanX al fatto che da questo grafico si possa vedere un incremento medio del 60-70% rispetto ad una gtx980 a default e presumibilmente in fullHD.
Quindi in teoria si assottiglia nelle risoluzioni superiori e si può "confermare" un 20-25% in più rispetto alle gtx980Ti default.
Per cui...stacco generazionale nella norma ma a costi superiori. La rivoluzione strabiliante sarà solo nella gestione VR.
IMHO ovviamente e felice di sbagliarmi quando usciranno le varie recensioni con le comparative.All'aumentare della risoluzione ci sarà un collo di bottiglia della memoria, ma se in Full HD va in quel modo vuol dire che la reale potenza è quella.
Stiamo parlando comunque di una slide di una VGA con drivers a relase iniziale, non andrà il doppio ma forse con drivers maturi ci si avvicinerà.
Forse per andare il doppio rispetto alla 980Ti, bisognerà aspettare la rispettiva 1080Ti.
PaulGuru
09-05-2016, 16:07
appunto:p
non rilasceranno mai driver ottimizzati per la vecchia generazione
il 200% e' riferito a un arma scarica,gli e' impedito a difendersi:(
Drivers ottimizzati per cosa ? i frames del VR non sono differenti dagli altri.
Cosa c'è da ottimizzare ?
CrapaDiLegno
09-05-2016, 16:29
ma quale anticipo? 2 anni fa avete detto che le presentavano nel Q4 2015 a 20nm, e smentivamo, un anno fa nel Q1 2016 a 16nm e smentivamo di nuovo ed ora si scopre che le presentato assieme ad amd nel Q2 2016 con la "spenna polli edition" da 700 carte in più parlavate del chippone! si, quello che arriva forse a fine anno o assieme a Vega nel Q1 2017...
ma dai su, e poi i frustrati sono gli altri...
Già il fatto che dici "avete" "smentivamo" chiarifica subito che tipo di conversazione normalmente hai su questo sito e da che parte stai.
Detto questo, io non ho mai detto arrivano prima, arrivano a 20nm, arrivano nel Q1 o cose del genere. Io. Se poi ti rivolgi al gruppo tuo avversario a cui ti piace infilare le dita negli occhi (e si torna al punto di prima di un qualsiasi stupido appiglio come una data per scatenare lotta, come i tifosi allo stadio che si accoltellano), fai pure. Ma questo tipo di argomentazioni con me non vale. Puoi usarle contro chi non ha altro come argomento se non qualcosa che si è inventato a sua volta per mettersi la coscienza in pace (fino a ovvia smentita a cui però non si crede fino all'ultimo secondo).
L'anticipo sperato dai fanboy AMD (quindi te compreso) era derivato dal fatto che AMD avesse mostrato Polaris nel Dicembre del 2015 mentre nvidia non aveva ancora abbassato di un euro le sue proposte Maxwell dal giorno del lancio e senza aver mai detto nulla riguardo a Pascal se non in una lontana slide riguardante il deep learning. Poi nulla. I commenti sul vantaggio temporale di AMD si sono sprecati per diverso tempo. E invece come al solito, altri castelli di ghiaccio che si sono sciolti al sole in meno di un mese con 2 annunci inaspettati (e la messa a disposizione del prodotto sul mercato e per i test prima della rivale).
Se di frustrazione parli, guardati allo specchio. Io non ho alcuna aspettativa per questo tipo di nuove architetture, dato che molto probabilmente mi terrò quello che ho (ancora una scheda Kepler, sì, quella per cui non vengono più fatte ottimizzazioni secondo le solite leggende metropolitane che tanto vi piace creare) per lungo tempo, quindi che uno arrivi 2 mesi prima, dopo, faccia 10FPS in più, usi l'Async o il TCP, abbia memoria GDDR5 o HBM 3, consumi 10W in meno o stampi sulle scatole i numeri più alti me ne sbatto altamente. Quello che conta è che si massacrino per bene perché nel caso volessi cambiare non devo andare a donare un rene per comprarne una (verde o rossa che sia).
Ora frustrati di entrambe le parti, sedetevi e invece che inveire contro chi vi ha detto che come argomentazioni non valete nulla (ma avete riletto cosa avete scritto in questo thread? Davvero, neanche all'asilo!), prendete in mano le specifiche delle vostre schede preferite e odiate e studiate il perché e il percome mostrano quei numeri piuttosto che altri e cosa permette loro di fare quello che fanno in quel modo. E smettete di inventarvi motivi che non esistono per giustificare qualcosa che non è reale e a cui solo voi date importanza basilare (ah, ma se non c'è l'HBM non vale nemmeno la pena, senza neppure sapere cosa è l'HBM in realtà, ah, se non ci sono gli Async non vale nulla, senza sapere cosa fanno esattamente, quanto vantaggio portano e in quali situazioni, ah, se non ha un bus da millemila bit allora non è buona, ah, se non ha questa cosa che non so a cosa serve ma ha un bel nome che mio cugggino ripete continuamente e quindi deve essere importante allora non è una scheda da prendere in considerazione).
Spero che le prossime argomentazioni siano basate su qualcosa di reale, concreto e misurabile. Quello che dice vostro cuggino, lasciatelo dire a lui e al massimo tentate di capire autonomamente se è il caso di ripeterlo per non fare la figura dei bambocci che ripetono cose che non hanno compreso.
PaulGuru
09-05-2016, 16:40
La cosa triste è che AMD è in serio ritardo e perciò Nvidia sovraprezzerà le sue vga... :muro:
A me pare che la politica sia la stessa utilizzata con la GTX9xx
599$ per la 1080 liscio è lo stesso prezzo che lanciarono per la 980.
Va il 60-70% di una 980 e costa uguale .......
majinbu7
09-05-2016, 16:49
In serio ritardo?
Ma se probabilmente presentano polaris il 27, 20 giorni è un serio ritardo secondo te?
Si perchè dalle dichiarazioni di AMD, le vga che usciranno 480 e 470, non saranno per il mercato high end, e ho paura che le prestazioni della 480 non arriveranno nemmeno a quelle della 1070 ... da qui il prezzo dichiarato dal CEO di 300 dollari per la 480, sarà vega a creare un pò di competizione, ma arriverà troppo tardi....spero cmq di sbagliarmi, altrimenti nvidia ci fa neri coi prezzi:muro:
Portocala
09-05-2016, 16:56
Io noto solo una cosa prima ancora di vedere numeri reali: PULLULA di 970 e 980 nel Mercatino :asd:
970 a 230 euro, 980ti sotto i 500
bagnino89
09-05-2016, 16:57
Io noto solo una cosa prima ancora di vedere numeri reali: PULLULA di 970 e 980 nel Mercatino :asd:
970 a 230 euro, 980ti sotto i 500
Contenti loro...
Si perchè dalle dichiarazioni di AMD, le vga che usciranno 480 e 470, non saranno per il mercato high end, e ho paura che le prestazioni della 480 non arriveranno nemmeno a quelle della 1070 ... da qui il prezzo dichiarato dal CEO di 300 dollari per la 480, sarà vega a creare un pò di competizione, ma arriverà troppo tardi....spero cmq di sbagliarmi, altrimenti nvidia ci fa neri coi prezzi:muro:
Perché troppo tardi? Uscirà prima polaris, a mio avviso giustamente, nel segmento più importante, poi basta armarsi di un po' di pazienza ed aspettare Vega per una reale concorrenza e poter scegliere tra diverse proposte.
Mah, io ricordo una HD5870 uscita mesi prima della GTX480 e, nonostante ciò, piazzata a prezzi di listino ottimi.
I tempi sono cambiati, le fury non le hanno certo svendute.
Temo che AMD seguirà il listino nVidia.
Per quanto mi riguarda la 5870 era formidabile, la 480 un aborto.
So che nel sito ci sono estimatori della 480, non andiamo ot... tiratemele a voce.
Ma la concorrente della GTX1080 sarà Vega...
Vega dovrebbe essere la "concorrente" del GP100, non di questo chip.
Certo, se AMD con Polaris 10 sta puntando ad una fascia più bassa rispetto a questa 1080, allora probabilmente sarà una versione castrata di Vega a rivaleggiare con questa in prestazioni.
Ma parlando di chip, sia Vega che GP100 sono due "chipponi" in arrivo il prossimo anno.
Se hai qualcosa di più intelligente da dire che le solite sciocchezze da fanboy basate sul nulla cosmico, per me sarà un piacere ascoltarle. Altrimenti parla pure, ma non ti offendere quando vieni etichettato per quel che in realtà sei.
A chi staresti dando del fanboy, scusa?
Dovesti fare un po' di attenzione nel generalizzare le tue accuse, perchè più di altri hai dimostrato in altre occasioni di poter essere tacciato come tale. Sai molto bene di star parlando con la persona sbagliata.
Non sono io quello che fa caciara nel forum di un sito di tecnologia sparando boiate campate in aria ...
Sei tu quello che sta alzando la voce con toni ben al di la della discussione civile. Per cui, oltre a guardare i peccati degli altri, faresti bene a fare anche un po' di mea culpa.
Che certi elementi folli siano intervenuti in questo topic non ci piove, ma a differenza tua gli altri si sono limitati ad ignorarli o percularli come meritano, anziché sparare a zero su tutti ergendosi a dispensatore di verità (che vista l'opinabilità di certe tue uscite, è tutto dire).
Oltretutto hai dimostrato nelle tue lunghe dissertazioni di aver letto con poca attenzione l'intervento di diversi utenti che andavano contestualizzati e interpretati. Ma ormai era partita la raffica ad alzo zero...
Per cui rinnovo l'appello: abbassa i toni, perchè tu più di altri hai impedito una discussione civile.
Io non risponderò oltre su questo argomento.
I tempi sono cambiati, le fury non le hanno certo svendute.
Temo che AMD seguirà il listino nVidia.
Penso pure io, ma mi riferivo ad una precisa affermazione relativamente al fatto che anche AMD, quando uscita prima della concorrenza con una VGA Top, ne aveva approfittato alzando i prezzi, mentre proprio in occasione della HD5870, nonostante l'enorme vantaggio di tempo, AMD non solo non alzò i prezzi ma li tenne sotto la media. Penso fu l'unica volta che vidi prezzi così bassi per delle VGA Top leader assolute del mercato.
Vega dovrebbe essere la "concorrente" del GP100, non di questo chip.
Certo, se AMD con Polaris 10 sta puntando ad una fascia più bassa rispetto a questa 1080, allora probabilmente sarà una versione castrata di Vega a rivaleggiare con questa in prestazioni.
Ma parlando di chip, sia Vega che GP100 sono due "chipponi" in arrivo il prossimo anno.
MI riferivo alle dichiarazioni delle due case, mentre queste VGA Nvidia ambiscono alla fascia alta (e lo testimonierebbe anche il nome), Polaris sembra punti dichiaratamente alla fascia medio-alta.
CrapaDiLegno
09-05-2016, 21:01
per tanto dimmi in cosa è cambiata l'architettura di così eclatante come credi tu.
Innanzi tutto io non ho detto che vi è qualcosa di eclatante o che le affermazioni di invidia siano oro colato o che Pascal è tutto il meglio possibile in questo universo.
Io ho detto (se vuoi puoi andare a rileggere, sta ancora lì) che usare il valore dei GFLOPS per core + freq è una sciocchezza per valutare l'efficienza di una architettura perché.. rullo ti tamburi, il numero che risulta per quanto vogliate essere pignoli e precisi con i numeri è sempre... 2! Sia che parliate di Fermi, sia che parliate di Vega, sia che parliate del chip da 150mmq, sia di quello da 600mmq.
Qui la cosa è stata usata 2 volte. E da 2 fanboy AMD che hanno tentato così di minimizzare i numeri che nvidia ha voluto rendere pubblici. Riuscendo solo a dimostrare quanto invece siano ignoranti e incapaci di ragionare con la propria testa, riportando solo quello che hanno sentito da loro cuggggino "intelligente".
Quello che dici tu è diverso e può essere vero o falso, perché ci sono molti motivi per uscire dalla curva di migliore efficienza: uno su tutti il costo. Faccio un chip più piccolo ma lo overclocco rispetto al suo punto di migliore efficienza energetica per avere prestazioni maggiori con meno mmq. Inoltre stai dimenticando che si stanno usando 8GB di memoria, non più 4 (e la memoria grafica consuma).
E comunque quello che dici non c'entra nulla con quello riportato prima. Prima si è parlato di tutto e di più come fossimo su Donna Moderna o Cucinare facile: HBM su chip piccoli, doppio controller di memoria, chip che oggi usano GDDR5X e tra 6 mesi HBM per diventare top gamma... insomma, come andare in un forum di motori e dire che se invece del turbo mettete 4 criceti con relativa giostra la vostra auto può avere prestazioni migliori e minori consumi. Il livello di discussione per chi capisce dell'argomento è più o meno lo stesso.
Per capire quanto ora scala il PP (ricordiamo che è nelle sue prime fasi, non è ancora maturo come la teoria vorrebbe) vedremo cosa avrà ottenuto AMD. Se otterrà migliori risultati con meno W vuol dire che avrà sfruttato meglio il PP con una architettura migliore. Nota: non devi guardare quanto scalano rispetto all'architettura precedente, perché se quella vecchia era fatta male (e GCN pagava dazio in termini di efficienza vs Maxwell) e questa l'hanno finalmente sistemata, fare meglio vuol dire fare meglio in assoluto, non relativamente alla inefficienza ottenuta prima.
Quando avremo il confronto allora potremmo dire se Pascal è un Maxwell 3.0 o no indipendentemente dalle modifiche (sbandierate o meno) fatte da nvidia, se l'architettura fa peggio della concorrenza, è una architettura che è venuta male, sopratutto se partiva da una posizione di vantaggio.
Non sappiamo infatti esattamente quanto potenziale c'è nella nuova architettura che può essere sfruttato dai giochi/motori futuri (se fosse 4 volte più veloce nella geometria? Dico solo per far notare che non sappiamo nulla di concreto di quale possa essere il collo di bottiglia dei motori di oggi).
Fino ad allora quello che dite è solo "spalare merd@" senza nulla in mano. Perché date per scontato (da buoni fanboy) che dall'altra parte si sia fatto meglio. Ma non si sa nulla di quel che sono i risultati dell'altra parte. Quindi caricate le molle e sparate solo quando il bersaglio è nel mirino, non quando credete che lo sia (se per assurdo AMD fa peggio poi vi trovate nella scomoda situazione di giustificare le vostre stupidaggini arrampicandovi sui vetri, anche se ormai siete abili a farlo).
Che certi elementi folli siano intervenuti in questo topic non ci piove, ma a differenza tua gli altri si sono limitati ad ignorarli o percularli come meritano, anziché sparare a zero su tutti ergendosi a dispensatore di verità (che vista l'opinabilità di certe tue uscite, è tutto dire).
A me sembra che nessuno di quelli interventi abbia compreso di cosa si discuteva. Avete tutti riportato cose dette da altri, lette su altri lidi scritti da non-so-chi senza averli minimamente filtrati o elaborati. Se sul sito taldeitali c'è scritto che la GDDR5X è il futuro e queste schede non ce l'hanno, ah, nuove schede = cacca. Senza contare quelli che si sono inventati la teoria del doppio controller GDDR5(X) + HBM, come se la scelta tra i due tipi di memoria fosse uguale a scegliere se montare le GDDR5 piuttosto che le GDDR5X (che sono compatibili, mentre le HBM sono tutta un'altra storia che dopo un anno gli "espertoni" non hanno ancora capito... ah, però se non c'è l'HBM la scheda fa sicuramente schifo).
Il mio sfogo è per far finire questo delirio di disinformazione che sembra non abbia più un freno da diverso tempo. Perché si creano altri "elementi folli" che andranno in giro a dire che loro cuggino ha detto che ha letto da qualche parte scritto da chi-non-so che se versi del sangue sul GP100 puoi andare oltre i 3GHz.
Ultimamente le discussioni hanno lasciato la traccia tecnica per finire in deliri di fantasie e sogni e desideri che non si erano mai visti prima. Fanboy che litigano sul nulla perché hanno sognato che l'Async è la panacea di tutti i mali (poi se gli chiedi cosa è un thread async e come migliora la computazione non ne hanno la minima idea, ma loro cuggino ha detto che sono il futuro e quindi bisogna averli), che le GDDR5X insieme alle DX12 permettono di raddoppiare gli FPS e le HBM di quadruplicarli (quindi HBM rigorosamente v1 montate sulle mainstream quest'anno!), che le DX12 raddoppiano la memoria disponibile delle soluzioni SLI/CF (sì, sì, l'ha detto mio cuggginooooo che l'haletto su Topolino!!!!), che i bus più piccoli di 384bit sono il male (frequenze, fattori di compressione.. che minghia sono? A che servono?? I biiiiit, noi volgiamo i bit, perché sono segnati sulla carta e ci fanno il numero grosso più grosso), che 3.5GB per il fullHD rendono una scheda una fregatura (portando test assurdi che neanche una scheda Mandrake), mentre 4GB per il 4K è sufficiente, che gli effetti opzionali aggiunti sono il male perché rallentano le schede scrause ma anche quelle top gamma (ah, se avessero pensato così anche quando hanno realizzato Crysis, già).
Nessuno che parla di numeri veri, solo quelli sulla carta, quelli sognati, quelli sperati, quelli inventati, quelli impossibili, quelli che se sei 2 frame sotto sei una cacca, quelli che se non sei al top dei top con tutto attivo e acceso, anche il forno di casa (perché la loro VGA è fresca!), il tutto con AA8x a 4K, non si ritengono soddisfatti, quelli che inventano trend senza alcuna prova o verifica...
Sarà anche per questo che quelli che un tempo qui commentavano duramente ma avevano le nozioni per delle discussioni decenti (e per decenti non significa belle parole, ma con argomenti validi, tecnici e supportati da prove e verifiche, non dal loro cuggino) ormai non postano più da tempo.
Loro probabilmente hanno perso la pazienza affossati dai bbmk che ogni giorno arrivano a frotte con i loro castelli di carta. L'età media di chi posta è chiaramente scesa. E di pari passo la qualità delle argomentazioni.
Ora andate in un forum di motori a sparare minkiate dello stesso livello che avete sparato qui e vediamo se vi portano più rispetto di quanto vi è concesso qui (dove purtroppo tollerati fin troppo fate gruppo e vi sostenete a vicenda nei vostri deliri).
cdimauro
09-05-2016, 22:22
Come dimostrare di non capire nulla di GPU e TFLOPS e venire poi a spargere perle di saggezza riguardo alla cosa. Utente AMD nuovamente frustrato per gli enormi numeri sfoggiati da nvidia e tenuti segreti da AMD?
Ti svelo un segreto. Piccolo. Ma che probabilmente tutti gli altri sanno, o se non lo sanno, almeno se ne stanno zitti.
I GFLOPS dichiarati dalle case produttrici sono dei numeri teorici ricavati in maniera semplicissima: ovvero quante istruzioni FMA, che equivalgono a 2 istruzioni in virgola mobile eseguiti per ciclo di clock, si riescono ad eseguire moltiplicando il numero di core * frequenza * 2.
Visto che parli di spargere perle di saggezza, allora è bene precisare che FMA non equivale a eseguire 2 istruzioni in virgola mobile, ma due operazioni.
Quello che cambia tra una architettura e l'altra è come è realizzato il core e la sua organizzazione in strutture più complesse (CU/SMX o come li ha chiamati nvidia questo giro) e quindi tutte le ottimizzazioni possibili tra dimensione e frequenza e istruzioni (diverse da FMA) che possono essere eseguite con maggiore efficienza (ovvero velocità).
Efficienza può anche significare consumi, oppure numero di transistor utilizzati.
Inoltre le GPU non hanno soltanto istruzioni di tipo FMA, ma anche tante altre. E non possono eseguire soltanto istruzioni FMA, anche se si fa il possibile perché sono quelle che tengono più impegnate le unità di calcolo in virgola mobile.
Adesso passiamo alle parti più interessanti.
La bontà dell'architettura non la decido io con le mie parole. Lo decideranno i numeri quando usciranno i test.
Quello che mi da fastidio è vedere persone (e non è la prima, come già fatto notare nel primo commento) che vengono in una discussione a fare affermazioni senza sapere neanche di quel che parlano.
Avrei detto la stessa cosa anche se uno avesse detto la stessa sciocchezza riguardo all'architettura AMD. Una cretinata è e rimane tale e se detta in maniera convinta è solo perché si vuole dimostrare qualcosa (probabilmente a se stessi, altrimenti la frustrazione raggiunge limiti insopportabili).
Tra il non saper valutare le architetture (comparare i GFLOPS teorici è veramente da ignoranti al 100%) e la questione che vuole la gente continuamente parlare di HBM per massime prestazioni, che senza GDDRX5 la scheda è castrata, gente che non legge nemmeno la news in cui sono riportati tutti i numeri e se li fa dire dal vicino di banco etc... direi che è evidente che molti di voi fanboy verdi o rossi che siate, non sapete nemmeno quello di cui parlate. Ma vi piace darvi le pacche sulle spalle (tra compari) o mettervi le dita negli occhi (tra rivali) usando qualsiasi sciocco e inutile pretesto possiate usare
...
eh, ma AMD avrà l'HBM nvidia no, e ma nvidia ha la GDDR5X AMD no, e i TFLOPS, e i bit del bus, e i W e tutto quello che non capite cosa significhi per davvero, basta che un numero sia superiore a quello della concorrenza per essere in pace con se stessi e le proprie convinzioni.
Non sono io quello che fa caciara nel forum di un sito di tecnologia sparando boiate campate in aria solo per diminuire un po' la frustrazione di vedere l'azienda tanto odiata presentare prodotti in anticipo rispetto a quello che si sperava (per amore della propria azienda che sembrava in vantaggio temporalmente).
Siamo su un sito di tecnologia, si spera che gli appassionati parlino e critichino per cose tecniche e che conoscono ed evitino di riportare quello che gli ha riferito il proprio cuggino di cui poi hanno pure capito la metà del minimo basilare.
Per poi trovarsi tutti assieme appassionatamente uniti contro colui che gli fa notare che le discussioni da bambini ignoranti non sono appropriate.
Se hai qualcosa di più intelligente da dire che le solite sciocchezze da fanboy basate sul nulla cosmico, per me sarà un piacere ascoltarle. Altrimenti parla pure, ma non ti offendere quando vieni etichettato per quel che in realtà sei.
Se poi ti rivolgi al gruppo tuo avversario a cui ti piace infilare le dita negli occhi (e si torna al punto di prima di un qualsiasi stupido appiglio come una data per scatenare lotta, come i tifosi allo stadio che si accoltellano), fai pure. Ma questo tipo di argomentazioni con me non vale. Puoi usarle contro chi non ha altro come argomento se non qualcosa che si è inventato a sua volta per mettersi la coscienza in pace (fino a ovvia smentita a cui però non si crede fino all'ultimo secondo).
Ora frustrati di entrambe le parti, sedetevi e invece che inveire contro chi vi ha detto che come argomentazioni non valete nulla (ma avete riletto cosa avete scritto in questo thread? Davvero, neanche all'asilo!), prendete in mano le specifiche delle vostre schede preferite e odiate e studiate il perché e il percome mostrano quei numeri piuttosto che altri e cosa permette loro di fare quello che fanno in quel modo. E smettete di inventarvi motivi che non esistono per giustificare qualcosa che non è reale e a cui solo voi date importanza basilare (ah, ma se non c'è l'HBM non vale nemmeno la pena, senza neppure sapere cosa è l'HBM in realtà, ah, se non ci sono gli Async non vale nulla, senza sapere cosa fanno esattamente, quanto vantaggio portano e in quali situazioni, ah, se non ha un bus da millemila bit allora non è buona, ah, se non ha questa cosa che non so a cosa serve ma ha un bel nome che mio cugggino ripete continuamente e quindi deve essere importante allora non è una scheda da prendere in considerazione).
Spero che le prossime argomentazioni siano basate su qualcosa di reale, concreto e misurabile. Quello che dice vostro cuggino, lasciatelo dire a lui e al massimo tentate di capire autonomamente se è il caso di ripeterlo per non fare la figura dei bambocci che ripetono cose che non hanno compreso.
Qui la cosa è stata usata 2 volte. E da 2 fanboy AMD che hanno tentato così di minimizzare i numeri che nvidia ha voluto rendere pubblici. Riuscendo solo a dimostrare quanto invece siano ignoranti e incapaci di ragionare con la propria testa, riportando solo quello che hanno sentito da loro cuggggino "intelligente".
E comunque quello che dici non c'entra nulla con quello riportato prima. Prima si è parlato di tutto e di più come fossimo su Donna Moderna o Cucinare facile: HBM su chip piccoli, doppio controller di memoria, chip che oggi usano GDDR5X e tra 6 mesi HBM per diventare top gamma... insomma, come andare in un forum di motori e dire che se invece del turbo mettete 4 criceti con relativa giostra la vostra auto può avere prestazioni migliori e minori consumi. Il livello di discussione per chi capisce dell'argomento è più o meno lo stesso.
Fino ad allora quello che dite è solo "spalare merd@" senza nulla in mano. Perché date per scontato (da buoni fanboy) che dall'altra parte si sia fatto meglio. Ma non si sa nulla di quel che sono i risultati dell'altra parte. Quindi caricate le molle e sparate solo quando il bersaglio è nel mirino, non quando credete che lo sia (se per assurdo AMD fa peggio poi vi trovate nella scomoda situazione di giustificare le vostre stupidaggini arrampicandovi sui vetri, anche se ormai siete abili a farlo).
A me sembra che nessuno di quelli interventi abbia compreso di cosa si discuteva. Avete tutti riportato cose dette da altri, lette su altri lidi scritti da non-so-chi senza averli minimamente filtrati o elaborati. Se sul sito taldeitali c'è scritto che la GDDR5X è il futuro e queste schede non ce l'hanno, ah, nuove schede = cacca. Senza contare quelli che si sono inventati la teoria del doppio controller GDDR5(X) + HBM, come se la scelta tra i due tipi di memoria fosse uguale a scegliere se montare le GDDR5 piuttosto che le GDDR5X (che sono compatibili, mentre le HBM sono tutta un'altra storia che dopo un anno gli "espertoni" non hanno ancora capito... ah, però se non c'è l'HBM la scheda fa sicuramente schifo).
Il mio sfogo è per far finire questo delirio di disinformazione che sembra non abbia più un freno da diverso tempo. Perché si creano altri "elementi folli" che andranno in giro a dire che loro cuggino ha detto che ha letto da qualche parte scritto da chi-non-so che se versi del sangue sul GP100 puoi andare oltre i 3GHz.
Ultimamente le discussioni hanno lasciato la traccia tecnica per finire in deliri di fantasie e sogni e desideri che non si erano mai visti prima. Fanboy che litigano sul nulla perché hanno sognato che l'Async è la panacea di tutti i mali (poi se gli chiedi cosa è un thread async e come migliora la computazione non ne hanno la minima idea, ma loro cuggino ha detto che sono il futuro e quindi bisogna averli), che le GDDR5X insieme alle DX12 permettono di raddoppiare gli FPS e le HBM di quadruplicarli (quindi HBM rigorosamente v1 montate sulle mainstream quest'anno!), che le DX12 raddoppiano la memoria disponibile delle soluzioni SLI/CF (sì, sì, l'ha detto mio cuggginooooo che l'haletto su Topolino!!!!), che i bus più piccoli di 384bit sono il male (frequenze, fattori di compressione.. che minghia sono? A che servono?? I biiiiit, noi volgiamo i bit, perché sono segnati sulla carta e ci fanno il numero grosso più grosso), che 3.5GB per il fullHD rendono una scheda una fregatura (portando test assurdi che neanche una scheda Mandrake), mentre 4GB per il 4K è sufficiente, che gli effetti opzionali aggiunti sono il male perché rallentano le schede scrause ma anche quelle top gamma (ah, se avessero pensato così anche quando hanno realizzato Crysis, già).
Nessuno che parla di numeri veri, solo quelli sulla carta, quelli sognati, quelli sperati, quelli inventati, quelli impossibili, quelli che se sei 2 frame sotto sei una cacca, quelli che se non sei al top dei top con tutto attivo e acceso, anche il forno di casa (perché la loro VGA è fresca!), il tutto con AA8x a 4K, non si ritengono soddisfatti, quelli che inventano trend senza alcuna prova o verifica...
Sarà anche per questo che quelli che un tempo qui commentavano duramente ma avevano le nozioni per delle discussioni decenti (e per decenti non significa belle parole, ma con argomenti validi, tecnici e supportati da prove e verifiche, non dal loro cuggino) ormai non postano più da tempo.
Loro probabilmente hanno perso la pazienza affossati dai bbmk che ogni giorno arrivano a frotte con i loro castelli di carta. L'età media di chi posta è chiaramente scesa. E di pari passo la qualità delle argomentazioni.
Ora andate in un forum di motori a sparare minkiate dello stesso livello che avete sparato qui e vediamo se vi portano più rispetto di quanto vi è concesso qui (dove purtroppo tollerati fin troppo fate gruppo e vi sostenete a vicenda nei vostri deliri).
Ci vuole proprio una gran faccia tosta a riportare queste lamentale e questi sfoghi quando sei proprio TU che ti comporti ESATTAMENTE nel modo che hai stigmatizzato quando parti per la tua guerra santa per spalare letame contro la tua odiata Intel, sparando balle colossali, inventandoti dati che non esistono, ma soprattutto elargendo le tue preziosissime perle sulle architetture dei processori.
Non sai cosa sia la decenza e, soprattutto, la dignità.
Per il resto ha ragione calabar: sei partito in quarta in maniera brutale e sprezzante contro quelli che ritieni tuoi nemici perché hanno "toccato" la tua amata marca del cuore, quando nessuno s'era mai spinto nemmeno lontanamente ai tuoi livelli.
Spero che almeno abbia delle azioni nVidia o te ne venga in tasca qualcosa, perché altrimenti è veramente difficile giustificare un simile comportamento.
blackshard
09-05-2016, 22:34
Da Nehalem ad Haswell c'è un aumento del 44% di IPC, com'è stato riportato dall'articolo. Poi ci sono gli incrementi portati da Broadwell e infine da Skylake, per cui dovremmo essere riusciti a sfondare al soglia del 50%.
Sì, magari non ci sono differenze così marcate come il passaggio dai Core 2 (anche perché Nehalem ha posto le basi per una microarchitettura ben performante. Cosa che non si può certo ignorare), ma gli incrementi ci sono stati.
Cosa non meno importante, Intel ha pure introdotto le AVX e le AVX-2, che RADDOPPIANO le prestazioni nei calcoli SIMD (quelli di SSE et similia, per intenderci), ma serve tempo per essere sfruttate (e questo non è colpa di Intel, ma degli sviluppatori).
Situazione simile ci sarà con le AVX-512 che arriveranno il prossimo anno: raddoppieranno le prestazioni rispetto alle AVX/2.
Infatti indicavo da Sandy Bridge in poi, a partire da 5 anni fa, da quando più o meno AMD ha smesso di essere competitiva nel segmento high-end. Comunque sono sottigliezze, e non tengo in considerazione i nuovi set di istruzioni perché non li ritengo abbastanza "general purpose". Un esempio a cui faccio riferimento è skylake: ottimizzazione per i consumi, grafica più performante, ma sostanzialmente le performance per clock della cpu sono rimaste simili alla precedente generazione.
Perdonami, ma hai parlato di ARM a 8 core, e non mi pare che nel "mercato desktop" ce ne siano.
Per cui se mi parli ARM a 8 core non posso che pensare subito e solamente al mercato server, visto che c'è solo quello (in quello mobile Intel è appena uscita).
Pardon, volevo dire "mercato consumer". Che poi ARM è un altro mondo e, per il momento, non c'è vera competizione.
cdimauro
09-05-2016, 22:54
Infatti indicavo da Sandy Bridge in poi, a partire da 5 anni fa, da quando più o meno AMD ha smesso di essere competitiva nel segmento high-end. Comunque sono sottigliezze, e non tengo in considerazione i nuovi set di istruzioni perché non li ritengo abbastanza "general purpose". Un esempio a cui faccio riferimento è skylake: ottimizzazione per i consumi, grafica più performante, ma sostanzialmente le performance per clock della cpu sono rimaste simili alla precedente generazione.
Prendiamo proprio Skylake, e l'analisi del solito AnandTech, ma incentrata sul solo IPC (http://www.anandtech.com/show/9483/intel-skylake-review-6700k-6600k-ddr4-ddr3-ipc-6th-generation/9): i risultati mi sembrano eloquenti sia rispetto al predecessore, sia paragonato a Sandy Bridge. Anzi, in quest'ultimo caso si arriva addirittura a quasi il 70% di guadagno nel benchmark Dolphin.
Ma anche gli altri benchmark mostrano risultati interessanti, soprattutto se confrontati con Sandy Bridge.
Riguardo ai nuovi set di istruzioni, non sono general purpose, ma servono per il calcolo massicciamente parallelo, che non è comune quanto quello "scalare", ma lo è abbastanza da giustificare l'introduzione di unità SIMD. Che non solo hanno proprio TUTTI i processori, ma sono addirittura le unità di calcolo che ricevono maggiori attenzioni (introduzione di nuove istruzioni).
Ovviamente poi devono essere sfruttate.
Pardon, volevo dire "mercato consumer". Che poi ARM è un altro mondo e, per il momento, non c'è vera competizione.
E' anche un altro mercato, ma proprio lì c'è una feroce competizione.
Si perchè dalle dichiarazioni di AMD, le vga che usciranno 480 e 470, non saranno per il mercato high end, e ho paura che le prestazioni della 480 non arriveranno nemmeno a quelle della 1070 ... da qui il prezzo dichiarato dal CEO di 300 dollari per la 480, sarà vega a creare un pò di competizione, ma arriverà troppo tardi....Beh secondo me AMD non fa male a concentrarsi su quella fascia.
La la "vera" concorrenza e i "veri" incassi li si fanno su quella fascia lì secondo me: prestazioni buone, a un prezzo non esorbitante.
Le schede tipo 980 Ti e Fury X (come i Core i7 di fascia über, del resto) sono per pochi.
blackshard
10-05-2016, 12:57
Prendiamo proprio Skylake, e l'analisi del solito AnandTech, ma incentrata sul solo IPC (http://www.anandtech.com/show/9483/intel-skylake-review-6700k-6600k-ddr4-ddr3-ipc-6th-generation/9): i risultati mi sembrano eloquenti sia rispetto al predecessore, sia paragonato a Sandy Bridge. Anzi, in quest'ultimo caso si arriva addirittura a quasi il 70% di guadagno nel benchmark Dolphin.
Ma anche gli altri benchmark mostrano risultati interessanti, soprattutto se confrontati con Sandy Bridge.
A dispetto del benchmark di Dolphin, ci sono benchmark dove le cose sono rimaste immutate, tipo winrar o 3d particle movement. Il perché ci sia stato un boost non saprei spiegarlo, ma può benissimo essere un caso particolare dove vengono utilizzati nuovi set di istruzioni.
Sempre rimanendo su skylake, ci sono anche casi dove l'IPC è diminuito rispetto alla generazione precedente, vedi 7-zip. Nell'articolo, in merito al grafico "Gains over Sandy Bridge", si legge: "...From a pure upgrade perspective, the IPC gain here for Skylake does not look great."
Riguardo ai nuovi set di istruzioni, non sono general purpose, ma servono per il calcolo massicciamente parallelo, che non è comune quanto quello "scalare", ma lo è abbastanza da giustificare l'introduzione di unità SIMD. Che non solo hanno proprio TUTTI i processori, ma sono addirittura le unità di calcolo che ricevono maggiori attenzioni (introduzione di nuove istruzioni).
Ovviamente poi devono essere sfruttate.
Eh, lì casca l'asino!
cdimauro
11-05-2016, 05:30
A dispetto del benchmark di Dolphin, ci sono benchmark dove le cose sono rimaste immutate, tipo winrar o 3d particle movement. Il perché ci sia stato un boost non saprei spiegarlo, ma può benissimo essere un caso particolare dove vengono utilizzati nuovi set di istruzioni.
No, non c'è nessun nuovo set di istruzioni utilizzato. "Semplicemente" (!) con Skylake Intel ha introdotto una nuova microarchitettura, che è diversa dalle precedenti, per cui ha un comportamento diverso.
Sempre rimanendo su skylake, ci sono anche casi dove l'IPC è diminuito rispetto alla generazione precedente, vedi 7-zip. Nell'articolo, in merito al grafico "Gains over Sandy Bridge", si legge: "...From a pure upgrade perspective, the IPC gain here for Skylake does not look great."
In alcuni casi l'IPC può diminuire proprio per quanto detto sopra.
Skylake non è basata sulle precedenti architetture, che sono state affinate / potenziate: è diversa, e di conseguenza non può comportarsi sempre allo stesso modo o sempre meglio.
In media ha un IPC superiore, ma ci sono casi, come quelli citati, in cui è inferiore ai precedenti processori.
Eh, lì casca l'asino!
Ma anche no. Se vuoi accelerare una certa tipologia di codice devi necessariamente passare da soluzioni ad hoc / specifiche / dedicate.
Esempio pratico: la crittazione AES. Puoi tirare fuori la più bella ed efficiente architettura ("general purpose" / sugli interi) di questo mondo, ma non potrai mai nemmeno avvicinarti a delle istruzioni dedicate allo scopo.
Per questo motivo sostanzialmente tutte le architetture hanno introdotto istruzioni allo scopo, sulle loro unità SIMD (che si prestano meglio per questi scopi).
Per AVX, AVX-2, e le prossime AVX-512 vale esattamente la stessa cosa. Ma poi serve il supporto degli sviluppatori, per l'appunto.
blackshard
11-05-2016, 09:47
No, non c'è nessun nuovo set di istruzioni utilizzato. "Semplicemente" (!) con Skylake Intel ha introdotto una nuova microarchitettura, che è diversa dalle precedenti, per cui ha un comportamento diverso.
In alcuni casi l'IPC può diminuire proprio per quanto detto sopra.
Skylake non è basata sulle precedenti architetture, che sono state affinate / potenziate: è diversa, e di conseguenza non può comportarsi sempre allo stesso modo o sempre meglio.
In media ha un IPC superiore, ma ci sono casi, come quelli citati, in cui è inferiore ai precedenti processori.
Si, ma sempre dall'articolo si fa' notare che il "salto" prestazionale si ha con Haswell, e non con Skylake.
Negli altri benchmark salti prestazionali non ce ne sono, è un dato di fatto.
Ma anche no. Se vuoi accelerare una certa tipologia di codice devi necessariamente passare da soluzioni ad hoc / specifiche / dedicate.
Esempio pratico: la crittazione AES. Puoi tirare fuori la più bella ed efficiente architettura ("general purpose" / sugli interi) di questo mondo, ma non potrai mai nemmeno avvicinarti a delle istruzioni dedicate allo scopo.
Per questo motivo sostanzialmente tutte le architetture hanno introdotto istruzioni allo scopo, sulle loro unità SIMD (che si prestano meglio per questi scopi).
Per AVX, AVX-2, e le prossime AVX-512 vale esattamente la stessa cosa. Ma poi serve il supporto degli sviluppatori, per l'appunto.
Senza il supporto software ad-hoc non te ne fai niente di istruzioni ad-hoc, questo è il punto e per questo non considero le SIMD come istruzioni general purpose. Ovviamente fare una cosa in hardware sarà verosimilmente più veloce ed efficiente che farla via software, d'altro canto progettare un pezzo di hardware ha costi di qualche ordine di grandezza superiori a quelli di progettare un software che fa' le stesse cose. Ma fin qui non c'è niente di nuovo.
che 3.5GB per il fullHD rendono una scheda una fregatura (portando test assurdi che neanche una scheda Mandrake), mentre 4GB per il 4K è sufficienteTe lo dico io, che l'ho vista in funzione, che la 970 in FullHD se la cava bene (sicuramente meglio della mia R9 270X da 2 GB), ma se sei un minimo obiettivo lo ammetti anche tu che Nvidia con quella scheda ha fatto la porcata.
Restando in tema automobili visto che lo hai citato tu: se vai dal benzinaio e fai 40 litri di benzina (e lui ti dice "sì sì ti faccio 40 litri tutti di benzina, tranquillo") vuoi effettivamente 40 litri di benzina oppure ti accontenti di 35 litri di benzina e 5 di qualcosa d'altro che assomiglia a benzina ma che una volta arrivato nel motore fa in modo che l'auto vada molto più lentamente di quel che ti aspetti (magari proprio nel bel mezzo di un sorpasso)?
Non la vuoi definire fregatura? Definiscila almeno "porcata".
Se ci aggiungi la presentazione di Fermi (http://semiaccurate.com/2009/10/01/nvidia-fakes-fermi-boards-gtc/) (sì, quella l'ho citata io) che per certi versi è stata comica, capisci poi perché la gente comincia a perculare Nvidia quando si tratta di presentazioni e proclami.
Un po' come quelli che accusano AMD di essere buona solo con PowerPoint (ma in quel caso si percula AMD, quindi non ci si scandalizza).
marchigiano
11-05-2016, 13:06
https://www.youtube.com/watch?v=Ijx-1wz2FSA
marchigiano
11-05-2016, 13:16
ma come le 25€ non sono vere? :mc:
mi hanno fregato allora... :asd:
Jones D. Daemon
11-05-2016, 13:30
https://www.youtube.com/watch?v=Ijx-1wz2FSA
Video palesemten falso. Sul profilo facebook di HWU c'è un video di "presentazione" della 1080 arrivata in redazione, e dicono chiaramente che nvidia stessa non ha ancora rilasciato i driver per la 1080 nemmeno alle testate giornalistiche che dovranno recensirle a giorni. I benchmark in giro ora sono fuffa completa, bisogna aspettare l'arrivo dei driver e la scadenza dell'embargo sulle review.
ma come le 25€ non sono vere? :mc:
mi hanno fregato allora... :asd:Ah davvero non sono vere?
E io che ho scambiato la mia preziosissima banconota da 480 mila lire con una da 25 euro credendo di aver fatto l'affare...
http://vignette3.wikia.nocookie.net/nonciclopedia/images/2/23/480000_Lire.jpg
monster.fx
11-05-2016, 13:56
A dispetto del benchmark di Dolphin, ci sono benchmark dove le cose sono rimaste immutate, tipo winrar o 3d particle movement. Il perché ci sia stato un boost non saprei spiegarlo, ma può benissimo essere un caso particolare dove vengono utilizzati nuovi set di istruzioni.
Sempre rimanendo su skylake, ci sono anche casi dove l'IPC è diminuito rispetto alla generazione precedente, vedi 7-zip. Nell'articolo, in merito al grafico "Gains over Sandy Bridge", si legge: "...From a pure upgrade perspective, the IPC gain here for Skylake does not look great."
Infatti tralasciando bench specifici dove la tecnologia Skylake segna un plus in più ... nel gaming i risultati sono questi :
http://www.anandtech.com/show/9483/intel-skylake-review-6700k-6600k-ddr4-ddr3-ipc-6th-generation/22
I giochi , purtroppo, non seguono l'andamento informatico ... essendo anche dei meri porting.
Quindi con i5 4690K sto tranquillo anche per questa gen di gpu.
CrapaDiLegno
11-05-2016, 15:32
Visto che parli di spargere perle di saggezza, allora è bene precisare che FMA non equivale a eseguire 2 istruzioni in virgola mobile, ma due operazioni.
[...]
Efficienza può anche significare consumi, oppure numero di transistor utilizzati.
Inoltre le GPU non hanno soltanto istruzioni di tipo FMA, ma anche tante altre. E non possono eseguire soltanto istruzioni FMA, anche se si fa il possibile perché sono quelle che tengono più impegnate le unità di calcolo in virgola mobile.
Ma, guarda le discussioni con te cominciano sempre dal tuo nulla cosmico che porti.
Qui hai voluto fare il precisino facendo le pulci tra istruzione e operazione, senza ovviamente riportare quale sia la differenza dato che in questo caso non esiste. Però, sì, hai ragione, il termine operazione è più adeguato.
Efficienza ho specificato che è il rapporto tra il valore teorico massimo di istruzioni eseguibile e quelle che effettivamente vengono eseguite (le FMA), per cui la questione consumi te la sei ciucciata dal pollice come solitamente fai quando non hai nulla a cui appigliarti e capisci sempre fischi per fiaschi.
Se avessi letto meglio magari ci saresti arrivato.
L'ho detto io che ci sono altre istruzioni oltre gli FMA e che queste istruzioni vengono eseguite con una EFFICIENZA inferiore alle FMA, e tu vieni a ribadire la cosa come se non fosse stata già detta. Potevi risparmiarti quel paragrafo che il contenuto della discussione non sarebbe diminuito.
Dimmi, ma l'italiano base lo capisci o vieni qui a sparare le tue solite critiche basate sul nulla giusto per voler criticarmi? Sai a me non importa quello che dici, hai già dimostrato in passato che cerchi di portare le discussioni dove vuoi tu capendo quello che vuoi tu e spesso non riuscendo a capire le cause-effetti delle cose e facendo il precisino sulle cose secondarie e ininfluenti al fine della discussione.
Tutto il resto che hai scritto non ha la minima importanza, tue solite opinione personali basate sul nulla che esprimi solo per mettere in cattiva luce chi nel passato ha dimostrato di aver avuto ragione su molti argomenti.
Ciaoooooooo!!
tuttodigitale
11-05-2016, 18:57
Ricordiamo che Polaris è una nuova architettura.
Sospetto abbiano detto che non sarà di fascia altissima appunto per il limite dei 4Gb...
in realtà neppure la gp104, è una fascia altissima.
Si perchè dalle dichiarazioni di AMD, le vga che usciranno 480 e 470, non saranno per il mercato high end
sul sito ufficiale di AMD, nella sezione riservata a Polaris, c'è scritto " il meglio del gaming in un singolo chip". Da questo ne deduco che il modello di punta della famiglia andrà (quasi) certamente più della Fury X.
No, è la versione UGUALE solo con HBM2.
E' tutto come al solito, ci sarà una 490X, e sarà basata su Polaris, e ci sarà una 590X, e sarà basata su Vega.
La "timidezza" mostrata da AMD su Polaris, e che ha causato a molti siti tanta confusione, è dovuta al fatto che la 490X avrà ancora il limite dei 4GB perché basata su HBM1.
Con la 590X di Vega questo limite sarà superato grazie ad HBM2.
tu credi che AMD faccia un nuovo tape out in meno di 6 mesi, per un chip della stessa fascia. Al più AMD. ma anche nvidia, quando usciranno con il loro chippone, faranno largo uso del rebranding.
Kepler-GCN docet
Comunque è ufficiale che non utilizzeranno le HBM, ma le ddr5
Ma cosa cavolo vuoi saperne delle dimensioni dei DIE da siti che ancora mescolano Polaris e Vega? No, io ti dico che la 490X avrà DIE assolutamente simili a quelle della 590X.
Se hai un'informazione ufficiale DI AMD dimmela pure.
Ma se il chip Polaris avrà circa 8 miliardi di transistor contro gli oltre 18 di VEGA.
Nulla di ufficiale, ma l'uccellino, che aveva fatto uscire la dimensione del die, precisa al mm (da documenti AMD) sembra che ci abbia preso..
La cosa triste è che AMD è in serio ritardo e perciò Nvidia sovraprezzerà le sue vga... :muro:
il ritardo non esiste, imho
L'unica è che Polaris sia troppo poco potente? Ma ne dubito. Leggi sotto.
cioè tutti sti soldi per un Maxwell clockato a bestia su un nuovo processo produttivo?
sui soldi, magari nvidia l'ha sparata grossa, come il 10x di pascal su maxwell.
ma quest'ultima è OGGETTIVAMENTE obsoleta, che Pascal possa effettivamente andare nei giochi DX 12 l' 80% più di una 980 è nel'ordine delle cose, quando oggi una Fury X va il 60% in più...
in spiccioli è un "misero" 12% su una fury X.
Prima che qualcuno, mi dia dell'esagerato, il limitato supporto allo shading asincrono è cosa risaputa. addirittura utilizzando questa feature vengono penalizzate le prestazioni.... e questo è il motivo per il quale non vedremo il supporto lato driver nei giochi dx12. Credo di aver detto tutto.
aspetta, io vedo che la fury X va +13% in fhd e +20% in 4K
edit: avevo scritto uno sfondone :D
tuttodigitale
11-05-2016, 20:29
edit: avevo scritto uno sfondone :D
i miei dati si riferiscono a test fatti in dx12, che usano le pecularietà di GCN, assenti in Kepler/Maxwell, dove la fury x fa +25% sulla 980ti
e +57% sulla 980.
ora che ci penso il test è stato fatto a 4k, risoluzione notoriamente favorevole alle architetture AMD (è dalla HD5000, che le architetture AMD perdono meno all'aumentare della risoluzione).
La differenza quindi dovrebbe essere maggiore in FHD, nell'ordine del 20-25%, ma potrebbe persino ridursi in 4k (bandwidth limited?) e scendere a meno del 10%.
Supposizioni basate sul marketing di nvidia e quello che abbiamo a disposizione. Sinceramente a me appaiono valori realistici ed in un mondo che da sempre c'è chi la spara più grossa, è un pò preoccupante.
Manca poco :cool:
EDIT
ho trovato un articolo di Tom's in cui la fury x fa appena il 10% in più della 980Ti, ma in compenso la 390x è a dir poco convincente e offre le prestazioni di quest'ultima.
http://media.bestofmicro.com/D/G/561652/gallery/AsyncCompute_On_Off_w_600.png
PS tutto questo casino dei numeri, era solo per dire che nvidia passerà alla preemption a grana fine solo con Pascal, che pertanto non è in alcun modo, un semplice Maxwell overcloccato. (notazione personale: Maxwell era poco più che un kepler ottimizzato, chiusa parentesi)
EDIT2
No, non c'è nessun nuovo set di istruzioni utilizzato. "Semplicemente" (!) con Skylake Intel ha introdotto una nuova microarchitettura, che è diversa dalle precedenti, per cui ha un comportamento diverso.
è meglio sottolinearlo. Ma giusto per dover di cronaca, c'è chi ha ipotizzato (gente molto più preparata di me) alla luce della riduzione delle latenze nell'esecuzione di alcune istruzioni che sia aumentata la complessità della pipeline...
CrapaDiLegno
11-05-2016, 23:35
http://media.bestofmicro.com/D/G/561652/gallery/AsyncCompute_On_Off_w_600.png
PS tutto questo casino dei numeri, era solo per dire che nvidia passerà alla preemption a grana fine solo con Pascal, che pertanto non è in alcun modo, un semplice Maxwell overcloccato. (notazione personale: Maxwell era poco più che un kepler ottimizzato, chiusa parentesi)
L'esecuzione di thread " a grana fine" è un conto, l'esecuzione async è un altro, la preemption è un altro ancora.
Quindi non sappiamo ancora a che livello l'architettura Pascal è in grado di eseguire i suoi thread.
Faccio solo notare, dallo stesso link che hai inviato tu, che in un gioco che fa ampiamente uso della funzionalità Async ottimizzata per l'architettura AMD le differenze di prestazioni tra averla attiva e dell'ordine del 10%.
Quindi sì, va bene, l'Async aiuta (e bisogna comunque vedere se l'architettura nvidia ne trarrebbe vantaggio essendo una sorta di HT, dove se non hai stalli o ne hai pochi di guadagno ne hai poco), ma non è questa cosa insormontabile che rende una architettura inarrivabile. Non hai l'Async? Metti il 10% di shaders in più e sei pari (anzi meglio, perché non devi usare l'Async necessariamente per avere il 10% di prestazioni in più). Se il gioco oltre all'async usa i voxel per fare global illumination, oppure calca un po' sulla geometria (dove storicamente AMD pecca) è possible che le prestazioni medie si pareggino.
Certo, se si va a vedere un bench che è stato creato per avvantaggiare una architettura piuttosto che un'altra (e questo lo è) è ovvio che i numeri si spostino da una parte piuttosto che dall'altra. Di esempi simili li abbiamo anche in DX11, dove alcuni giochi girano meglio su architettura AMD e altri su architettura nvidia. Anche in DX11 ci sono esempi che mostrano la Fury andare meglio della GTX980Ti o la 390X andare meglio della GTX980 senza andare a scomodare l'Async o altre funzioni "aliene".
Faccio anche notare come i risultati dei test siano completamente diversi dai primi postati in cui lo scalpore era quanto bene facessero le DX12 rispetto alle DX11 con le schede AMD che quasi raddoppiavano i propri frame per secondo. Qui si vede che il vantaggio è quasi irrisorio e mostra come tutto sia in continuo mutamento (e maturazione, tranne il fatto che con questo test in DX12 nvidia continua a perdere prestazioni invece che guadagnarle).
in typical gaming la fury x consuma il 60% in più della 980.
246W vs 156W
la 390x, se non ricordo male, non si discostava di molto dal consumo della 290x.
Si parla sempre di 250-280W
AMD a questo giro ha tutte le carte per recuperare mercato, manca solo un minimo d'efficienza. Io che gioco in fhd delle performance 4k...
http://www.imagebam.com/image/807076483034764
cdimauro
12-05-2016, 06:09
Ma, guarda le discussioni con te cominciano sempre dal tuo nulla cosmico che porti.
Tranquillo che, come al solito, basterà poco a dimostrare come stiano realmente le cose. Vedi sotto.
Qui hai voluto fare il precisino facendo le pulci tra istruzione e operazione, senza ovviamente riportare quale sia la differenza dato che in questo caso non esiste. Però, sì, hai ragione, il termine operazione è più adeguato.
Sei proprio "sfortunato": proprio le FMA sono istruzioni che NON sono assolutamente equivalenti a un paio di altre, visto che hanno delle caratteristiche molto particolari.
Sono così particolari che emularne il funzionamento richiede tutt'altro che un paio di istruzioni.
Ecco perché avevo specificato che è meglio parlare di operazioni e non di istruzioni: perché (internamente) l'FMA effettua due operazioni, il cui risultato non è in alcun modo emulabile da una coppia di istruzioni.
Questo perché, tanto per cambiare, continui a non avere la minima idea delle cose di cui parli. Chiunque conosca il funzionamento delle FMA può tranquillamente smentire quest'assurdità che hai detto.
Però, visto che secondo te in questo caso non esiste la differenza fra le due cose, sono curioso di leggere in base a cosa lo affermi.
Dopo sta tranquillo che non avrò alcun problema a far vedere come stanno realmente le cose, anche se dubito che arriverà mai qualcosa da parte tua: al solito coglierei l'occasione per scappare dal thread, come fai sistematicamente quando ti trovi messo con le spalle al muro.
Efficienza ho specificato che è il rapporto tra il valore teorico massimo di istruzioni eseguibile e quelle che effettivamente vengono eseguite (le FMA),
Che non vuol dire proprio niente, perché ho già scritto che le FMA NON sono le uniche istruzioni che vengono eseguite.
Ma poi hai dei dati ufficiali in proposito? Portali pure.
per cui la questione consumi te la sei ciucciata dal pollice come solitamente fai quando non hai nulla a cui appigliarti e capisci sempre fischi per fiaschi.
Se avessi letto meglio magari ci saresti arrivato.
Quella era semplicemente una precisazione, visto che l'introduzione di caratteristiche come FMA non riguarda soltanto le prestazioni.
Però, visto che ti fa piacere, rimaniamo pure su quest'argomento, e vedi sotto.
L'ho detto io che ci sono altre istruzioni oltre gli FMA e che queste istruzioni vengono eseguite con una EFFICIENZA inferiore alle FMA, e tu vieni a ribadire la cosa come se non fosse stata già detta. Potevi risparmiarti quel paragrafo che il contenuto della discussione non sarebbe diminuito.
Veramente le FMA soffrono di altre problematiche e sono meno efficienti rispetto ad altre istruzioni. Sì, hai letto proprio bene: hanno prestazioni inferiori, anche se non di molto.
Infatti sono state introdotte perché hanno una caratteristica peculiare, e molto interessante, che non è emulabile dalle altre istruzioni (a meno di un decadimento prestazionale di qualche ordine di grandezza, se va bene), ed è ciò di cui ho parlato sopra.
Sono cose che uno che si spaccia come esperto conoscitore di GPU dovrebbe sapere. Come dovrebbe sapere anche a quali altre istruzioni mi riferisco in questo contesto.
Per cui sarà interessante vedere se sarai in grado di capire a cosa mi riferisco: perché sono meno efficienti (ci sono precise questioni tecniche, ovviamente), e le altre istruzioni.
Ma non farmi invecchiare ad aspettare una tua risposta. :asd:
Dimmi, ma l'italiano base lo capisci o vieni qui a sparare le tue solite critiche basate sul nulla giusto per voler criticarmi?
L'italiano non c'entra: il problema è, come sempre, rappresentato dai contenuti.
Sai a me non importa quello che dici, hai già dimostrato in passato che cerchi di portare le discussioni dove vuoi tu capendo quello che vuoi tu e spesso non riuscendo a capire le cause-effetti delle cose e facendo il precisino sulle cose secondarie e ininfluenti al fine della discussione.
Tutto il resto che hai scritto non ha la minima importanza, tue solite opinione personali basate sul nulla che esprimi solo per mettere in cattiva luce chi nel passato ha dimostrato di aver avuto ragione su molti argomenti.
Ciaoooooooo!!
E, come al solito, chiudi con tante chiacchiere cercando di uscirtene come la vittima dell'orco brutto e cattivo.
Puoi blaterare quanto vuoi, ma la realtà è che ne spari talmente tante di balle, e talmente grosse, che quando ti vengono sbattuti in faccia i FATTI non ti rimane altro che sparire.
Come hai fatto anche con l'ultima (di una lunga serie) discussione che abbiamo intavolato, e che peraltro aspetta ancora le tue risposte (in particolare ciò che mi avresti affibbiato).
Purtroppo fai parte della schiera di sapientoni plasmati da internet, che millantano conoscenze che si sgretolano subito non appena mettono un piede fuori dalle vuote parole, quando cominciano a entrare su questioni tecniche.
Come dimostra appunto quello che hai detto sulle FMA, di cui non hai la minima idea di come funzionano, di come sono implementate in hardware, e di quale problematiche si portano dietro.
tuttodigitale
12-05-2016, 14:09
ma non è questa cosa insormontabile che rende una architettura inarrivabile. Non hai l'Async? Metti il 10% di shaders in più e sei pari
la r9 390x, fa segnare un +22%...differenza notevole direi...
il 10% per la fury x, può essere dovuto al fill-rate limited (rimane una soluzione sbilanciata) o addirittura al throttling per il maggior impiego delle ALU.
L'esecuzione di thread " a grana fine" è un conto, l'esecuzione async è un altro, la preemption è un altro ancora.
l'esecuzione asincrona è facilitata dalla fine-grained preemption...le 2 cose sono collegate tra loro, visto che l'esecuzione asincrona, introduce latenze, la cui differenza con la soluzione AMD diventa ma mano sempre più elevate ad aumentare del carico.
Certo, se discutiamo anche sul fatto che la la preemption a livello di draw, è obsoleta per una architettura, orientata al compute, del 2016-2017, ma che attraverso le sue evoluzioni ci accompagnerà forse persino nel 2020...inutile anche parlarne.
Se poi tu credi alla storia che Pascal sia solo un die shrink di Maxwell, e che GCN non abbia niente per cui valga la pena di implementare, chi sono io per farti cambiare idea? :D
A parte queste piccole contestazioni, i tuoi post li quoto parola per parola.:eek:
cdimauro
12-05-2016, 20:15
Si, ma sempre dall'articolo si fa' notare che il "salto" prestazionale si ha con Haswell, e non con Skylake.
Il maggior salto, sì.
Negli altri benchmark salti prestazionali non ce ne sono, è un dato di fatto.
Nella prima pagina di cui ho riportato il link ce ne sono altri in cui Skylake ha prestazioni superiori ai predecessori.
Senza il supporto software ad-hoc non te ne fai niente di istruzioni ad-hoc, questo è il punto e per questo non considero le SIMD come istruzioni general purpose.
Ci sono anche diverse istruzioni "general purpose" che sono state aggiunte nel corso degli anni. Fra le più recenti, ad esempio, ci sono quelle per il calcolo del CRC32 e per l'implementazione di aritmetica a precisione multipla.
L'unica differenza fra istruzioni "general purpose" e SIMD è che ne vengono aggiunte di più per queste ultime.
Ovviamente fare una cosa in hardware sarà verosimilmente più veloce ed efficiente che farla via software, d'altro canto progettare un pezzo di hardware ha costi di qualche ordine di grandezza superiori a quelli di progettare un software che fa' le stesse cose. Ma fin qui non c'è niente di nuovo.
Come sempre, è una questione di costi / benefici. Ma vale in generale.
è meglio sottolinearlo. Ma giusto per dover di cronaca, c'è chi ha ipotizzato (gente molto più preparata di me) alla luce della riduzione delle latenze nell'esecuzione di alcune istruzioni che sia aumentata la complessità della pipeline...
Può essere. Sicuramente sono cambiati i decoder, come abbiamo discusso tempo fa.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.