View Full Version : NVIDIA GeForce GTX 1080 Founders Edition: la nuova top di gamma
Redazione di Hardware Upg
17-05-2016, 14:58
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/4643/nvidia-geforce-gtx-1080-founders-edition-la-nuova-top-di-gamma_index.html
Presto in vendita la nuova scheda video NVIDIA per i videogiocatori più esigenti, basata su architettura Pascal. Potenza di calcolo elevatissima che si abbina a un funzionamento silenzioso e con consumo contenuto, merito sia del chip GP104 sia del design della scheda curato da NVIDIA
Click sul link per visualizzare l'articolo.
e bench di giochi in DX12 ?!
:mbe:
Portocala
17-05-2016, 15:10
Prendo i popcorn e mi metto a leggere :D
Il 25% in piu' della 980Ti, niente male.
E' da tanto che non si assistiva a un salto del genere :cool:
Va un 60-70% più di una 980 e un 30% più di una 980Ti.
Magari non un upgrade necessario per chi ha TitanX o 980Ti, ma per tutti gli altri c'è un guadagno enorme.
@la redazione: noto che continuate a scrivere Titan Z invece di Titan X in ogni articolo, c'è un motivo per questa dislessia aggravata?
marchigiano
17-05-2016, 15:20
onestamente pensavo di vedere maggiori stacchi in uhd tra 4gb e 8gb... spesso sono pari addirittura :eek:
spettacolari i consumi, anche in idle, sarebbe interessante vedere la differenza tra questa 1080 e una integrata intel :eek:
gd350turbo
17-05-2016, 15:22
codifica 4K@60 10b HEVC
Mi interessa parecchio questo valore!
monster.fx
17-05-2016, 15:25
e bench di giochi in DX12 ?!
:mbe:
Qualche titolo c'è.
Vista in termini assoluti... Come concorrente della GTX980 è mostruoso il divario.
Per come si pone la recensione però, che in termini di prezzo la vede associata più ad una GTX980ti va esattamente quel 15% in più come il prezzo.
Se verrà sfornata una GTX1080ti allora vedo più logico il confronto con una 980ti.
Il fatto che in overclock nn abbia questo boost tale da giustificare lo stesso ... Fa pensare.
marchigiano
17-05-2016, 15:28
Mi interessa parecchio questo valore!
visto che hai esperienza nel campo: secondo te avrà il solito calo qualitativo rispetto alla codifica x86?
Se verrà sfornata una GTX1080ti allora vedo più logico il confronto con una 980ti.
la 1080ti avrà il chippone superiore come lo è stato per la 980ti? :eek:
Il fatto che in overclock nn abbia questo boost tale da giustificare lo stesso ... Fa pensare.
magari interviene il crc... mi è capitato spesso sulle cpu e gpu
Goofy Goober
17-05-2016, 15:36
Però scrivetelo a caratteri cubitali che la Founders è messa peggio della Titan a livello di significato dell'esistenza su questo pianeta.
Spider-Mans
17-05-2016, 15:37
Una belva notevole
Witcher3 1440p maxed ...fa 20 frame medi in pi della 980ti...... ciao 980ti ..le fury anche piu sotto :asd:
Distacchi netti
PaulGuru
17-05-2016, 15:41
mi aspettavo di meglio
però non male
come pensavo dopo aver visto che utilizzavano memorie ddr5x al posto delle hbm 1 o 2 : il vantaggio di nvidia è ancora ampio per utilizzarle mentre amd è stata costretta ad usarle già in questa generazione
celsius100
17-05-2016, 15:45
mi aspettavo di meglio
però non male
si anche io pensavo fosse l'ideale x il 4K senza problemi invece in alcuni casi e ancora al limite
x star tranquilli coi giochi fuutri mi sa che servirà ancora uno sli/cross di schede di fascia alta
anche xke cmq le top top di gamma arriveranno solo fra un bel pò di tempo
CrapaDiLegno
17-05-2016, 15:54
mi aspettavo di meglio
Be' con alcune voci che la volevano meno potente della 980Ti direi che il distacco è più che notevole, al pari di quanto fatto tra Fermi e Kepler.
Ciò che non mi tornano sono certi risultati della Fury-X. In DX12 va così male? Ma non era la carta segreta di AMD quella di sfruttare meglio le DX12?
E perché manca per esempio la 390X? Anche i possessori di schede AMD di fascia alta potrebbero essere interessati a fare l'upgrade o comunque di conoscere come sono messi con test fatti con gli ultimi driver per entrambe le case.
Comunque, bella besia. Peccato per il prezzo. Forse per la metà ci avrei fatto un pensierino.
mi aspettavo di meglio
però non male
Meglio? va un 60% e passa più della scheda che rimpiazza
brancamenta
17-05-2016, 16:02
una scheda per il 4k non c'è che dire, peccato rimarrò fermo al 1080p della mia tv per tanti altri anni ancora!
Soulbringer
17-05-2016, 16:13
Difficile valutare...certo, l'incremento prestazionale c'è e in alcuni casi è anche notevole.
Bisogna però considerare la posizione di partenza: chi arriva da una titan o una 980ti secondo me non ha troppi incentivi all'upgrade, a parte ovviamente il celolunghismo.
E' una scheda da 1440p, e io, che vorrei fare il salto di risoluzione, mi trovo però bloccato ancora una volta dai prezzi assurdi che fa NVIDIA.
700€ per la GPU + un buon 650€ per un monitor da 27" 144hz con gsync...mi sa che rinvierò ancora :asd:
KaiserMarco
17-05-2016, 16:20
Avevo intenzione di prendere il Dell u3415w, risoluzione 3440x1440. Che dite, con questa dovrei farcela a giocare a tutti i giochi attuali maxati e a 60fps? in realtà volevo prendere la 1070, ma nvidia sembra quasi nasconderla...
aled1974
17-05-2016, 16:22
@ Redazione
è previsto anche qualche test di gpgpu computing?
grazie
ciao ciao
Ah ma non avevo visto i consumi!
25% in piu' di prestazioni, consumando il 25% in meno!
66% in piu' di PERFORMANCE/WATT!
E' una scheda *** S P A V E N T O S A *** !!! :cool:
Un altro trionfo di NVIDIA.
Si vedono i risultati di tutti quei Mhz del nuovo processo produttivo, penso che in overclock si vedranno risultati ancora migliori con dissipatori e soprattutto sezioni d'alimentazione un po' più corposi.
Ho appena visto le specifiche della GTX 1070: anche questa, davvero niente male.
tuttodigitale
17-05-2016, 16:31
delusione totale. Non perchè il chip non sia buono, ma cavolo 700 euro per un +30% su una fury x/980 ti, non è lo stravolgimento prestazioni per costo che ti aspetti da un die shrink.
Se la HD7970 era sovraprezzata al lancio, questa lo è senz'altro (molto) di più.
Anche in OC, almeno per quello che scrive la redazione, non pare essere questo mostro.
come pensavo dopo aver visto che utilizzavano memorie ddr5x al posto delle hbm 1 o 2 : il vantaggio di nvidia è ancora ampio per utilizzarle mentre amd è stata costretta ad usarle già in questa generazione
Fiji non rappresenta le capacità dell'architettura GCN....con l'uitlizzo dell'elaborazione asincrona, le gpuHawaii chiudono praticamente il gap con le soluzione Fiji, le cui 4096 sp, sono inoperose a causa del fill-rate limited, causate dalle ROPs.. l'asynchronous shading non fa altro che mettere in maggior risalto, lo squilibrio.
Anzi il fatto che Hawaii, una GPU da 430mmq vada quanto quella maxwell da 600mmq, la dice un pò lunga su quali possono essere i vantaggi, quando GCN viene sfruttato al massimo. (vantaggi ottenibili grazie allo sviluppo di Vulkan da parte di AMD :read: )
PS quindi in pascal sono passati ad una prelazione a grana fine. L'avevo detto che Maxwell era "antiquanto" :D
celsius100
17-05-2016, 16:34
Avevo intenzione di prendere il Dell u3415w, risoluzione 3440x1440. Che dite, con questa dovrei farcela a giocare a tutti i giochi attuali maxati e a 60fps? in realtà volevo prendere la 1070, ma nvidia sembra quasi nasconderla...
e una tattica di marketing
prima presentano le reference, che sono inferiori alle custom a cui siamo abituati normalmente, e le prezzano alte, poi fanno uscire le custom e le custom estreme, le prime sono piu convenienti e migliori delle reference, le secondo x gli smanettoni
cosi hanno preso 3 fascie di perosne
dopodichè puntano a quelli ceh valutano le schede in qualità-prezzo, quindi fanno uscire le 1070 sempre con quello stesso schema
insomma e un modo x raccattare piu vendite possibili distribuendole
cmq se sei un gamer io punterei ad un monitor con free/g-sync
e poi aspetterei la 1070, le prossime radeon, ed infine si valuta se sono effettivamente melgio le nuove o se le "vecchie" top di gamma possono dire ancora la loro (magari con un ribasso di prezzo ovviamente)
delusione totale.
+66% di performance/watt è troppo poco?
ROTFL :sofico:
tuttodigitale
17-05-2016, 16:36
Si vedono i risultati di tutti quei Mhz del nuovo processo produttivo, penso che in overclock si vedranno risultati ancora migliori con dissipatori e soprattutto sezioni d'alimentazione un po' più corposi.
Ho appena visto le specifiche della GTX 1070: anche questa, davvero niente male.
la redazione, purtroppo, non scrive a quanto giri Pascal....potrebbe essere anche 1900 MHz...
lo scaling delle gpu in OC, dai tempi di kepler, è sempre stato pessimo. In questa review scrivono:
L'incremento delle prestazioni che abbiamo registrato a queste impostazioni alla risoluzione di 3840x2160 è stato complessivamente contenuto; (+11% ram +18% gpu...)...è la dinamica di funzionamento della GPU GP104 che non permette di ottenere incrementi dei frames che sarebbero giustificati alla luce dell'overclock nominale. La scheda, infatti, spinge sempre la GPU ad operare alla massima frequenza di clock possibile e questo molto spesso equivale ad avere frequenza di clock che è superiore a quella di boost clock indicata da NVIDIA nelle specifiche.
Tradotto gp104 girava ad una frequenza superiore ai 1733MHz di turbo boost...i 2050MHz, potrebbe essere un OC effettivo inferiore al 10%.
tuttodigitale
17-05-2016, 16:39
+66% di performance/watt è troppo poco?
ROTFL :sofico:
il silicio sulla carta, permette un -55%: ovvero + 120%...si è troppo poco, tanto più che AMD pubblicizza un +150%. D'altra parte hanno tirato per le corde le capacità dei finfet.
sweetlou
17-05-2016, 16:41
Bella scheda molto performante (d'altronde è passato quasi un anno dal lancio della 980ti) ,silenziosa ,poco energivora ; unico neo il prezzo al lancio.
Con la "variante" Ti dovremmo avere la prima scheda singola in grado gestire fluidamente l'UHD.
il silicio sulla carta, permette un -55%
Ah si' agli AMDBOYS piace parlare del silicio,
peccato che il legame tra miniaturizzazione e consumi a parità di transistor sia tutto fuorche' banale,
come gia' si è visto con le CPU Intel.
Ma bisogna usare la propria testa per capirlo :)
PaulGuru
17-05-2016, 16:49
49fps a TW3 in 4K con AA abilitato :eek: :eek: :eek: ( secondo guru3d )
Con le prossime versioni Ti quindi potrebbe addirittura essere possibile tenere i 60fps costanti in 4K :eek:
BIGGlive360
17-05-2016, 16:50
ok quindi questa scheda è "troppo" per chi usa i 1080.
allora per giocare a 1080, 60fps e dettagli ultra ai giochi attuali e prossimi che scheda si dovrebbe prendere?
eventualmente una 1070/60/... per risparmiare € e cmq tenere i vantaggi dei 16nm in termini di consumi, ecc.? o è ancora troppo e bastano schede di generazione precedente?
tuttodigitale
17-05-2016, 16:51
Ma bisogna usare la propria testa per capirlo :)
Parliamo di efficienza di architettura?
Potenza shading + 46,5%
fps + 25-30%
maxwell è più efficiente del 15% di Pascal (ma ogni singola ALU potrebbe richiedere meno transistor, ma ad un primo acchito non mi pare nulla di miracoloso).
Ah si' agli AMDBOYS piace parlare del silicio,
raja koduri ha detto che i finfet permettono di abbattere i consumi del 50% a parità di clock e architettura. Lo stesso dicasi per nvidia.
Hanno preferito usare le straordinarie qualità dei finfet, per salire di frequenza.
Notare come lascino la possibilità ad AMD
di una scheda che vada il 10% in meno della 1080,
consumando come una 980TI.
E gli AMDBOYS direbbero che si tratta di un buon risultato
e che la concorrenza esiste :stordita:
:sofico:
CarmackDocet
17-05-2016, 16:53
hai ragione... a parità di n° di transistor, che però in questo caso sono aumentati del 38%!!!
la redazione, purtroppo, non scrive a quanto giri Pascal....potrebbe essere anche 1900 MHz...
lo scaling delle gpu in OC, dai tempi di kepler, è sempre stato pessimo. In questa review scrivono:
L'incremento delle prestazioni che abbiamo registrato a queste impostazioni alla risoluzione di 3840x2160 è stato complessivamente contenuto; (+11% ram +18% gpu...)...è la dinamica di funzionamento della GPU GP104 che non permette di ottenere incrementi dei frames che sarebbero giustificati alla luce dell'overclock nominale. La scheda, infatti, spinge sempre la GPU ad operare alla massima frequenza di clock possibile e questo molto spesso equivale ad avere frequenza di clock che è superiore a quella di boost clock indicata da NVIDIA nelle specifiche.
Tradotto gp104 girava ad una frequenza superiore ai 1733MHz di turbo boost...i 2050MHz, potrebbe essere un OC effettivo inferiore al 10%.
La GTX 1080 gira mediamente a 1.8 GHz in boost, vedi techpowerup:
https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/clock_vs_voltage.jpg
laddove una GTX 980 Ti va' così:
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_980_Ti/images/clock_vs_voltage.jpg
Già solo questo incide parecchio sulle prestazioni, anche se il tutto si traduce all'incirca ad un 25% di prestazioni in più.
Alla pagina dell'overclock scrivono:
https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080/30.html
Maximum overclock of our sample is +453 MHz to the GPU's base clock, which increases max Boost from 1898 MHz to 2114 MHz (11% overclock), and 1450 MHz on the memory (16% overclock).
"Very good results, but the GTX 1080 seems to be limited by the board power limit and temperatures going above 83°C, which both will result in lower clocks from NVIDIA Boost. Still, the real-life performance gains are there and are significant, see below."
il silicio sulla carta, permette un -55%: ovvero + 120%...si è troppo poco, tanto più che AMD pubblicizza un +150%. D'altra parte hanno tirato per le corde le capacità dei finfet.
AMD è brava con le slides, ricordiamo ancora le FuryX che dovevano asfaltare la TitanX...
Quando AMD tirerà fuori qualcosa di concreto si vedrà, spero non serva aspettare Vega per avere un po' un concorrenza, Nvidia i prezzi li sta facendo a modo... a modo di monopolio.
majinbu7
17-05-2016, 17:02
Scheda sicuramente eccezionale...ma a quel prezzo se la possono tenere ...cioè fatemi capire quando esce il vero chippone e cioè la 1080 TI a quanto ce la rifilano 1000 e passa cocuzze???? :fagiano:
Ma sbrigati AMD a tirar fuori qualcosa di buono, altrimenti qui per prendersi l'ultima vga tocca aprire un mutuo in banca :asd:
Soulbringer
17-05-2016, 17:05
Preso dalla review di Guru3D:
"Thing is that Nvidia keeps driving the prices upwards. Typically the high-end class product hovers at the 500 USD marker. Nvidia, when they released it, drove the GTX 980 to 549 USD. The GTX 1080 now starts at 599 USD with the reference Founders Edition at a massive 699 USD. For the Founders Edition, that's pretty bad pricing if you ask me."
Il prezzo è ultra-pompato, soprattutto perché AMD non ha ancora presentato qualcosa di alternativo.
Aspetterò le schede rosse :)
majinbu7
17-05-2016, 17:16
e niente, c'è chi deve per forza trovare un modo per giustificare sti 800€ :D
+60~70% di perf assolute, +50~60% di perf/watt sulla con un die che è il 27% più piccolo il tutto riferito alla 980 aka GM204 (che ricordiamolo non è la vera top di gamma ed uscita nel 2014) contando che si passa dai 28nm planari, che sono in giro dal 2012, ai 16nm FF+ che permettono uno scaling prossimo ai 2x, più cambio architettura e c'è chi parla di come qualcosa che non si è mai visto...
se lo faceva amd era un mezzo flop :asd: quando invece è ciò che è stato annunciato alla stampa giorni fa, +70% dalla 980 in 180watt.
ma cos'ha lagggente che non va :stordita:
Ma chi è che starebbe giustificando il prezzo??? anzi leggo di tanta gente che è contenta si delle prestazioni ma si lamenta del prezzo...io ci avrei fatto anche un pensiero, ma a non più di 500€ street price...e invece si avrà se tutto va bene un 600 € street price :muro:
tuttodigitale
17-05-2016, 17:16
hai ragione... a parità di n° di transistor, che però in questo caso sono aumentati del 38%!!!
no, non voglio avere ragione :fuck:
a parte gli scherzi, avere prestazioni per transistor inferiori con codice legacy, è la normalità delle cose quando vengono implementate caratteristiche utili al compute, e non certo un brutto lavoro fatto da nvidia (idea che non mi ha neppure sfiorato).
oltre a questo (maggior numero di feature) un semplice maggior partizionamento delle pipeline, per sfruttare il basso consumo dinamico offerto dai finfet (ultile per le alte frequenze di clock), può richiedere un numero aumentato del numero di transistor
detto questo il 60-70% di prestazioni, è nell'ordine delle cose. E' possibile fare di meglio, tanto più se si parte in una posizione di leggero svantaggio. Tanto bisogna aspettare comunque altri 10 giorni, prima di poter acquistare questa scheda (quello odierno è un paper launch). E dovrebbe essere abbastanza chiaro a chi sarà indirizzato Polaris (anche se alla luce delle gddr5, non mi aspetto nulla di incredibile, stesso dicasi per la 1070)
e niente, c'è chi deve per forza trovare un modo per giustificare sti 800€ :D :
800 euro sono pazzi (già 700 mi parevano troppi, questa scheda non sconvolge il rapporto prezzo prestazioni, probabilmente la 1070, prterà a fronte di un prezzo di acquisto superiore, solo una riduzione dei consumi)...
con questi prezzi, non mi stupirei se AMD avesse davvero intenzione di uscire con Vega...:cool: (magari quello "piccolo" di cui abbiamo avuto notizie, da confermare, in questi giorni)
La GTX 1080 gira mediamente a 1.8 GHz in boost,
Giusto i primi minuti (ottima per i bench :p) , poi si assesta sotto gli 1.7 per via delle temperature. (vedi tom's)
Ton90maz
17-05-2016, 17:50
Ah ma non avevo visto i consumi!
25% in piu' di prestazioni, consumando il 25% in meno!
66% in piu' di PERFORMANCE/WATT!
E' una scheda *** S P A V E N T O S A *** !!! :cool:
Un altro trionfo di NVIDIA.Ma davvero frega a qualcuno del rapporto consumo/potenza quando nei casi vedo singole schede abbinate ad alimentatori assurdi? Ok, bene, l'efficienza è aumentata, quindi mi aspetto ALLO STESSO PREZZO della scheda che nella gen precedente consumava tot, una nuova scheda che consuma uguale e va il 66% in più, non me ne faccio nulla di un cesso che consuma meno ma ha un rapporto prezzo/prestazioni quasi uguale a quello di schede del mesozoico.
tuttodigitale
17-05-2016, 17:51
Giusto i primi minuti, poi si assesta sotto gli 1.7 per via delle temperature. (vedi tom's)
ogni scheda ha vita a sé...quella di techpowerup, sembrerebbe girare anche 1890MHz
https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/clock_analysis2.jpg
https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/temp.png
se questo sono le premess, l'overclocking sembrerebbe inutile, a meno di non aumentare la rumorosità.
Oppure ho sbagliato ad interpretare i dati?
EDIT
https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/perf_oc.png
c'è questo test, +12% (2114 MHz GPU +11% e 1450MHz memoria, +18%),
ma l'autore scrive: Very good results, but the GTX 1080 seems to be limited by the board power limit and temperatures going above 83°C, which both will result in lower clocks from NVIDIA Boost. Still, the real-life performance gains are there and are significant, see below.
ogni scheda ha vita a sé...quella di techpowerup, sembrerebbe girare anche 1890MHz
se questo sono le premess, l'overclocking sembrerebbe inutile, a meno di non aumentare la rumorosità.
Oppure ho sbagliato ad interpretare i dati?
Il problema è il tempo/temperature ed ovviamente il carico (bench).
Il leakage va fuori controllo con quelle frequenze/temperature ed azzoppa il TDP. Serve il liquido...
http://www.tomshw.it/data/thumbs/5/6/4/2/03-temperatures-4da54471252ef9cdfa9d0262478eb56d0.jpg
http://www.tomshw.it/data/thumbs/5/6/4/2/01-clock-rate-2d85be7d68368d29fa19f362b5878139f.jpg
o
c'è questo test, +12% (2114 MHz GPU +11% e 1450MHz memoria, +18%),
ma l'autore scrive: Very good results, but the GTX 1080 seems to be limited by the board power limit and temperatures going above 83°C, which both will result in lower clocks from NVIDIA Boost. Still, the real-life performance gains are there and are significant, see below.
E' ciò che avevo riportato prima, al quale aggiungo questo:
http://videocardz.com/60151/nvidia-geforce-gtx-1080-tested-with-aftermarket-cooler
test con un buon dissipatore aftermarket (Arctic Accelero Xtreme IV)
"As you know reference model is only equipped with one 8pin power connector. In fact even overclocking tools are limited to 120% TDP, which basically means GPU won’t use more than 215W (8pin power connector and PCI-Express interface can only deliver 225W of power).
Test performed by PCHG brought simple conclusion, it is not temperature that is keeping GP104 from achieving higher clocks, but board power limit, which can’t be increased unless more power connectors are added. So i’m guessing we need to wait 10 more days to see what custom cards can deliver in this matter."
Ecco perchè mi aspetto miglioramenti sotto questo aspetto, con sezioni d'alimentazione e dissipatori custom.
Dragon2002
17-05-2016, 18:11
Ma la più normale 1070 non si trovano recensioni in giro?
ROBHANAMICI
17-05-2016, 18:16
ma ste 1070 perchè non le recensiscono, è un progetto top secret? Ormai quelli di nvidia si sono fissati con le 1080 per via della nuova tecnologia gddr5x a e ovviamente molto interessati a quello che entrerà nelle loro tasche!!!
ironman72
17-05-2016, 18:17
Ma la più normale 1070 non si trovano recensioni in giro?
E' stato detto che se ne parla prossimo mese della 1070 non e' ancora uscita!!!!!!
CarmackDocet
17-05-2016, 18:31
a spanne dovrebbe andare come una 980 liscia e consumare meno, IMHO.
Ed il prezzo, considerando che hanno detto per la Founders circa 520 €... una custom la si dovrebbe trovare anche sotto i 400 €... street price.
Voi che vi aspettate a riguardo?
zerothehero
17-05-2016, 18:33
Secondo me hanno fatto il minimo indispensabile visto i 16 nm.
Per andare a 4k in assoluta sicurezza ci vuole altro.
zerothehero
17-05-2016, 18:35
Mi interessa parecchio questo valore!
Che vedremo finalmente anche tra gli IGP integrati con il successore di skylake. :fagiano:
tuttodigitale
17-05-2016, 18:42
E' ciò che avevo riportato prima, al quale aggiungo questo:
http://videocardz.com/60151/nvidia-geforce-gtx-1080-tested-with-aftermarket-cooler
purtroppo, non riuscivo a visualizzare le pagine. Chiedo scusa, per aver fatto da pappagallo. :doh:
E' stato detto che se ne parla prossimo mese della 1070 non e' ancora uscita!!!!!!
Neppure la 1080, se è per questo (quello odierno è un paper launch): la 1080 uscirà tra 10 giorni
ma ste 1070 perchè non le recensiscono, è un progetto top secret? Ormai quelli di nvidia si sono fissati con le 1080 per via della nuova tecnologia gddr5x a e ovviamente molto interessati a quello che entrerà nelle loro tasche!!!
credo che le recensioni ci saranno quando ci sarà la disponibilità nei negozi: 10 giugno.
nvidia ha rilasciato informazioni sulla potenza: 6,5 TFlops, "solo" il 72% della GTX 1080..unito al minor bandwidth (pari al 70%), pare che le prestazioni saranno leggermente più basse (10%) di quelle della 980 Ti , che va secondo i test di hwupgrade mediamente il 79% di una gtx 1080.
Spero di sbagliarmi.
CrapaDiLegno
17-05-2016, 18:49
Eeeehhh. poi i fanboy sono gli altri...
Parliamo di efficienza di architettura?
Potenza shading + 46,5%
fps + 25-30%
maxwell è più efficiente del 15% di Pascal (ma ogni singola ALU potrebbe richiedere meno transistor, ma ad un primo acchito non mi pare nulla di miracoloso).
Hai volutamente confuso il numero maggiore di shader rispetto al GM104 usando invece la differenza di prestazioni rispetto alla 980Ti?
E poi, lo sai che gli shader non sono l'unica cosa che fa andare veloce una scheda. Quindi fai il rapporto sul totale dell'architettura, non solo su quello che ti fa comodo.
Il chip è più piccolo del GM104, consuma uguale e rende fino al 70% in più. Punto.
Vediamo cosa è in grdo di fare AMD, tenedo conto che parte da una situazione ben peggiore per dimensione e consumi rispetto a Maxwell e quindi ha più facilità di rimediare alle schifezze fatte in precedenza rispetto al buon lavoro che nvidia aveva sfornato con Maxwell.
P.S: il nuovo PP può fare -55% di consumi mantenendo le stesse prestazioni. Confido che una scheda che va quanto la 980 vada a consumare la metà. Che vuol dire essere perfettamente in linea (considerando che il consumo della RAM non è scalata e le inefficienze di alimentazione rimangono).
tuttodigitale
17-05-2016, 18:49
Il problema è il tempo/temperature ed ovviamente il carico (bench).
Il leakage va fuori controllo con quelle frequenze/temperature ed azzoppa il TDP. Serve il liquido...
senza scomodare il liquido, basterebbe un dissipatore ad aria degno del prezzo di questa soluzione. Ci sono soluzioni che raffreddano brillantemente, anche i bollenti spiriti di hawaii, che ha una densità del calore molto più alta di questo chip....
davvero è meglio aspettare le (più economiche? :asd:) custom...
PaulGuru
17-05-2016, 18:52
In realtà non è molto.
Si passa da 28nm a 16nm... non è poco il salto di PP.
Prestazionalmente è adeguato il salto ma non particolarmente esaltante.
Cosa vi credevate che quasi dimezzando il PP le schede andavano solo il 20-30% in più?
Ma non vi ricordate quando si cambiavano i processi produttivi che salti c'erano?
C'è da dire che più il PP è fine e meno vantaggi ci sono.
Staremo comunque a vedere che tira fuori AMD per capire chi ha sfruttato meglio il salto.
70% meglio di una 980 liscia e drivers acerbi, con drivers più maturi vedrai che andrà quasi il doppio. ( come aveva detto Nvidia. )
No, anche io mi aspettavo di meglio ma c'è da dire che han ridotto il consumo questi quì.
PaulGuru
17-05-2016, 18:56
Scheda sicuramente eccezionale...ma a quel prezzo se la possono tenere ...cioè fatemi capire quando esce il vero chippone e cioè la 1080 TI a quanto ce la rifilano 1000 e passa cocuzze???? :fagiano:
Ma sbrigati AMD a tirar fuori qualcosa di buono, altrimenti qui per prendersi l'ultima vga tocca aprire un mutuo in banca :asd:
e niente, c'è chi deve per forza trovare un modo per giustificare sti 800€ :D
+60~70% di perf assolute, +50~60% di perf/watt sulla con un die che è il 27% più piccolo il tutto riferito alla 980 aka GM204 (che ricordiamolo non è la vera top di gamma ed uscita nel 2014) contando che si passa dai 28nm planari, che sono in giro dal 2012, ai 16nm FF+ che permettono uno scaling prossimo ai 2x, più cambio architettura e c'è chi parla di come qualcosa che non si è mai visto...
se lo faceva amd era un mezzo flop :asd: quando invece è ciò che è stato annunciato alla stampa giorni fa, +70% dalla 980 in 180watt.
ma cos'ha lagggente che non va :stordita:
Ma chi è che starebbe giustificando il prezzo??? anzi leggo di tanta gente che è contenta si delle prestazioni ma si lamenta del prezzo...io ci avrei fatto anche un pensiero, ma a non più di 500€ street price...e invece si avrà se tutto va bene un 600 € street price :muro:
La scheda è rilasciata a 599$ come prezzo ufficiale.
Se adesso costa di più sarà solo per altri motivi, ma tornerà alla normalità.
Concorrenza ? Se da AMD non si lavora ..... non puoi pretendere nulla da Nvidia.
tuttodigitale
17-05-2016, 18:56
70% meglio di una 980 liscia e drivers acerbi, con drivers più maturi vedrai che andrà quasi il doppio. ( come aveva detto Nvidia. )
No, anche io mi aspettavo di meglio ma c'è da dire che han ridotto il consumo questi quì.
probabilmente in dx12, ci va già
tuttodigitale
17-05-2016, 18:57
La scheda è rilasciata a 499$ come prezzo ufficiale.
Se adesso costa di più sarà solo per altri motivi, ma tornerà alla normalità.
no il prezzo ufficiale è di 599/699 dollari.
PaulGuru
17-05-2016, 18:58
no il prezzo ufficiale è di 599/699 dollari.
Allora è quasi in linea.
Questa recensita è la versione più costosa, dovrebbe stare sui 700€, se si trova a poco più è l'effetto novità.
Basta aspettare un mesetto.
MiKeLezZ
17-05-2016, 19:00
Chi non é stupito da questa vga immagino sia rientrato ora da una settimanetta ad Amsterdam... Costa 650 euro invece che 1100, va di più e ha più feature. Fa girare tutti i giochi in 4k che é una risoluzione demente visto è oltre quanto il nostro occhio riesce a vedere...
Non so, diciamo a Hun Sung, o come cavolo si chiama, che la prossima volta ci metta su anche un po' di pelo, così magari vi si convince...
ROBHANAMICI
17-05-2016, 19:06
Qualche dato preso da Guru3d sulle 1070 (che mi sa che era già uscito fuori qualche giorno fa).
The GeForce GTX 1070 has the same GP104 GPU housed on it's PCB as the 1080, however it'll be cut-down, it has 1920 shader processors, which means it is has 15 out of the 20 SMs active (streaming multi-processors).. The card will start at 379 USD with the founders edition being 449 USD.
GeForce GTX 1070
•16 nm GP104 silicon "GP104-200-A1" GPU
•1920 CUDA cores
•15 out of 20 streaming multiprocessors enabled
•120 TMUs
•64 ROPs
•256-bit GDDR5 memory, 8 GB standard memory amount
•Max GPU Boost frequency 1600 MHz
•6.75 TFLOP/s single-precision floating point performance
•150W TDP, single 8-pin PCIe power connector
•3x DisplayPort 1.4, 1x HDMI 2.0b
•2-way SLI with SLI HB bridge support
PaulGuru
17-05-2016, 19:11
Chi non é stupito da questa vga immagino sia rientrato ora da una settimanetta ad Amsterdam... Costa 650 euro invece che 1100, va di più e ha più feature. Fa girare tutti i giochi in 4k che é una risoluzione demente visto è oltre quanto il nostro occhio riesce a vedere...
Non so, diciamo a Hun Sung, o come cavolo si chiama, che la prossima volta ci metta su anche un po' di pelo, così magari vi si convince...
Ma anche no, la densità raggiungibile su alcune diagonali permettono ancora di notare l'aliasing.
Quindi a meno che tu stia parlando del 4K sui 23.6" ........ direi che il 4K non è ancora una risoluzione al di sotto della nostra percezione ( anzi nemmeno sui 23.6" lo è ).
E no i giochi non girano a 60fps in 4K con sta scheda, li raggiungeranno decentemente con le prossime Ti forse e non escluso che in quel caso i giochi avranno motori più pesanti e quindi non riusciranno ugualmente.
Detto questo chi vuole usare il VR è meglio che faccia almeno come minimo i 90fps a risoluzioni più alte del Full HD, cosa non facile.
OvErClOck82
17-05-2016, 19:13
Chi non é stupito da questa vga immagino sia rientrato ora da una settimanetta ad Amsterdam... Costa 650 euro invece che 1100, va di più e ha più feature. Fa girare tutti i giochi in 4k che é una risoluzione demente visto è oltre quanto il nostro occhio riesce a vedere...
Non so, diciamo a Hun Sung, o come cavolo si chiama, che la prossima volta ci metta su anche un po' di pelo, così magari vi si convince...
io viceversa non capisco cosa ci sia di così ncredibile :mbe:
costerà 750 minimo (699 dollari, ma senza tasse...), va di più e consuma meno perché c'è stato un discreto salto di PP... è un'evoluzione tecnologica perfettamente logica e uber-prezzata :asd:
tuttodigitale
17-05-2016, 19:48
...
Ancora tu, ma hai un'ossessione per me :O
Hai volutamente confuso il numero maggiore di shader rispetto al GM104 usando invece la differenza di prestazioni rispetto alla 980Ti?
non ho confuso un bel niente...l'efficienza di utilizzo delle ALU in maxwell è più elevato, come dimostra il rapporto fps/Tflops, maggiore.
P.S: il nuovo PP può fare -55% di consumi mantenendo le stesse prestazioni. Confido che una scheda che va quanto la 980 vada a consumare la metà. Che vuol dire essere perfettamente in linea (considerando che il consumo della RAM non è scalata e le inefficienze di alimentazione rimangono).
aspetta, se consuma il -55% a parità di prestazioni, vista lo scaling pressochè perfetto, questo significa che a parità di consumi si può costruire gpu che vanno più del doppio, ma certamente non come ha fatto nvidia, che ha cercato le prestazioni senza il relativo aumento del numero di transistor.
ha invece puntato sulla frequenze, per gentile concessione dei finfet. Solo per questo motivo, hanno ottenuto "solo" un +60-70% (o quanto è) di efficienza.
A proposito di scaling...il numero di transistor per mmq è aumentato solo del 70%...per contro per Polaris, si parla di 8+ miliardi di transistor (vs 7,2) in 232mmq (vs 314mmq).
sulla carta non ci sono differenze tra i 14nm LPP e i 16nm FF+...
Possibile che l'aumento di clock, sia la causa di un livello di integrazione non certo esaltante?
mi auto quoto
probabilmente in dx12, ci va già
http://images.anandtech.com/graphs/graph10326/81658.png
Goofy Goober
17-05-2016, 19:51
io viceversa non capisco cosa ci sia di così ncredibile :mbe:
costerà 750 minimo (699 dollari, ma senza tasse...), va di più e consuma meno perché c'è stato un discreto salto di PP... è un'evoluzione tecnologica perfettamente logica e uber-prezzata :asd:
quoto.
se fosse accaduto lo stesso sovraprezzamento dai tempi delle 8800 ad ogni uscita di nuova generazione, oggi la 1080 ce la troveremo a 3.000 euro minimo.
una volta lo stupore era solo se accadeva l'inverso, ossia quando ti ritrovavi con gpu che andavano uno sputo in più rispetto alle vecchie.
monster.fx
17-05-2016, 20:54
70% meglio di una 980 liscia e drivers acerbi, con drivers più maturi vedrai che andrà quasi il doppio. ( come aveva detto Nvidia. )
:D
No, anche io mi aspettavo di meglio ma c'è da dire che han ridotto il consumo questi quì.
X questo vendi la tua? :D :D
bene, così adesso mi prenderò le gtx 980ti a prezzi stracciati lasciando ai "fissati" ;) la nuova 1080 da giocare in 4k dopo essersi fatti spennare per l'ennesima volta e visto assottigliare il conto in banca mentre io mi divertiro a giacare con la ottima ma deprezzata "dalla novià" all'ottima risoluzione dal 2k...
marchigiano
17-05-2016, 22:14
dubito che la 980ti te la tireranno dietro...
MiKeLezZ
17-05-2016, 22:36
Ma anche no, la densità raggiungibile su alcune diagonali permettono ancora di notare l'aliasing.
Quindi a meno che tu stia parlando del 4K sui 23.6" ........ direi che il 4K non è ancora una risoluzione al di sotto della nostra percezione ( anzi nemmeno sui 23.6" lo è ).Ma neppure sul 32" a 60 cm (che ti bruci gli occhi a tenerlo così vicino) vedi i pixel, che dici...?
E' risaputo poi che nei giochi è sempre meglio aggiungere almeno 2X di AA in quanto smussa la discontinuità fra le texture e fra poligono e poligono... oggetti fittizi che nella realtà non esistono e quindi cascano più facilmente all'occhio (nella realtà non ci sono linee rette, nei giochi è pieno).
Paradossalmente godi di più a stare più basso di risoluzione ed usare AA e SuperResolution che non spararti l'inutile 4K.
E no i giochi non girano a 60fps in 4K con sta scheda, li raggiungeranno decentemente con le prossime Ti forse e non escluso che in quel caso i giochi avranno motori più pesanti e quindi non riusciranno ugualmente.Anche qua, che dici...? Basta togliere una tacchetta dalle ombre (che tanto nessuno le nota sopratutto se in movimento) e magari qualche altro effetto inutile ecco che i giochi anche i più pesanti volano... gioco ancora io con la 470 in FHD, figuriamoci questa.
Detto questo chi vuole usare il VR è meglio che faccia almeno come minimo i 90fps a risoluzioni più alte del Full HD, cosa non facile.I 1440p se li mangia... ma voi che ci fate con 'ste schede, ci giocate o vi sparate solo i benchmark?
non malaccio, le 1080ti saranno mie :sofico:
Danielenaso
17-05-2016, 23:46
Da possessore della 980Ti non mi convince. Ok per il 2K... che anche la 980Ti se lo mangia! Ma per il 4K, secondo me manca ancora qualcosa... sti maledetti 60FPs non li raggiunge sempre e bene! E stiamo parlando di titoli del 2015 raga! Guardate gli FPS medi/minimi con The Division (unico gioco uscito nel 2016)... 40/17... contro i 33/17 della 980Ti! Rise of Tomb Rider (secondo titolo più recente della lista) è stato testato solo in 2K e con Direct X12 la 1080 ha FPs medi/minimi 97/71 contro i 78/61 della 980Ti... non ci vedo sta gran differenza. E mi chiedo come si comporterà con i prossimi titoli in uscita?!?! Consigliata a chi possiede una 970/980... ma io mi tengo la mia 980Ti (tra l'altro acquistata ad un buon prezzo da un utente del forum) e aspetto la 1080Ti, perché li, secondo me, ci sarà la vera rivoluzione.
non me ne volete,ma calcolatrice alla mano 100(gtx980)piu' 25% di sp,piu' 43% di clock mi viene 78% abbondanti
ma dai test di hwupgrade si arriva a piu' 61%(1440p)e 73%(4k)
praticamente oggi e' stato testato e si sta elogiando l'arrivo(finalmente)dei 14nm ff per gentile concessione di tsmc e asml
perche difatti nvidia non ha presentato nulla,anzi e' ufficiale che pascal e' leggermente inferiore a maxwell:doh:
celsius100
18-05-2016, 00:02
Da possessore della 980Ti non mi convince. Ok per il 2K... che anche la 980Ti se lo mangia! Ma per il 4K, secondo me manca ancora qualcosa... sti maledetti 60FPs non li raggiunge sempre e bene! E stiamo parlando di titoli del 2015 raga! Guardate gli FPS medi/minimi con The Division (unico gioco uscito nel 2016)... 40/17... contro i 33/17 della 980Ti! Rise of Tomb Rider (secondo titolo più recente della lista) è stato testato solo in 2K e con Direct X12 la 1080 ha FPs medi/minimi 97/71 contro i 78/61 della 980Ti... non ci vedo sta gran differenza. E mi chiedo come si comporterà con i prossimi titoli in uscita?!?! Consigliata a chi possiede una 970/980... ma io mi tengo la mia 980Ti (tra l'altro acquistata ad un buon prezzo da un utente del forum) e aspetto la 1080Ti, perché li, secondo me, ci sarà la vera rivoluzione.
hai ragione infatti x il 4k puro io penserei ancora a fare sli/crossfire
però considera ceh le future top di gamma di questa generazione (1080ti, Fury II, titan) usciranno solo piu avanti
in effetti chi ha una shceda di fascia alta o o top della passata generazione nnc redo ceh sentirà necessita di fare aggiornamenti (a meno ceh nn cambi monitor, ma a quel punto meglio aspettare di valutare la 1070, le altre radeon di prossima uscita e anche di fare uno sli/cross prendendo a buon prezzo un usato)
ma non doveva essere 2 volte superiore di una titan x? invece solo il 20%
http://www.hwupgrade.it/news/skvideo/nvidia-geforce-gtx-1080-qualche-dettaglio-in-piu-prestazioni-superiori-di-2-volte-rispetto-a-titan-x_62537.html
guglielmo6987
18-05-2016, 10:04
personalmente sono abbastanza infastidito per il prezzo, aggiungendo l'Iva anche alla versione modificata dai partner, otteniamo un prezzo superiore a quello della 980ti all'uscita (io ho comprato la mia gigabyte g1 gaming a 700€), e di 100€ superiore rispetto alla 980 all'uscita. Cosa che vuol dire che chi vorrà comprare una 1080ti dovrà sborsare almeno 800/900€ (se amd non tira fuori qualcosa di veramente competitivo).
Non mi impressiona nemmeno questo miglioramento nei consumi, visto che in italia i prezzi per l'energia non sono ancora proibitivi come in alcuni stati americani, avrei preferito una scheda che consumasse come la mia ti ma che andasse ulteriormente di più.
Per quanto riguarda invece le nuove tecnologie presentate anche quelle a parte l'audio e la correzione della prospettiva non mi sembrano nulla di che...
PaulGuru
18-05-2016, 10:29
ma non doveva essere 2 volte superiore di una titan x? invece solo il 20%
http://www.hwupgrade.it/news/skvideo/nvidia-geforce-gtx-1080-qualche-dettaglio-in-piu-prestazioni-superiori-di-2-volte-rispetto-a-titan-x_62537.html
Il 30% e in DX11 e drivers acerbi.
Per il confronto con la nuova Titan X c'è da aspettare la nuova Titan
Va quasi il doppio rispetto alla controparte 980, lo stesso farà la prox Titan con l'attuale presumo.
Goofy Goober
18-05-2016, 10:29
ma non doveva essere 2 volte superiore di una titan x?
in VR.
majinbu7
18-05-2016, 10:30
a spanne dovrebbe andare come una 980 liscia e consumare meno, IMHO.
Ed il prezzo, considerando che hanno detto per la Founders circa 520 €... una custom la si dovrebbe trovare anche sotto i 400 €... street price.
Voi che vi aspettate a riguardo?
La 1070 andrà come una 980TI o forse un filo meno , non come la 980 normale ;)
Goofy Goober
18-05-2016, 10:36
La 1070 andrà come una 980TI o forse un filo meno , non come la 980 normale ;)
Penso lo stesso, la 1070 dovrebbe rendere su per giù come la 980Ti, appena uscita.
Passato un po' di tempo con driver migliorati e nuovi giochi non più ottimizzati per Maxwell, direi che supererà agevolmente le prestazioni della 980Ti/Titan X.
Un po' come è accaduto per la 970Gtx, che oggi va sempre molto meglio della 780Ti e Titan Kepler. Qui con Pascal il divario potrebbe esser anche un poco più marcato per via del cambio di PP.
Paolo Corsini
18-05-2016, 11:12
@la redazione: noto che continuate a scrivere Titan Z invece di Titan X in ogni articolo, c'è un motivo per questa dislessia aggravata?
Errore presente in due punti nell'articolo; scrivere tanto con tempi ridotti porta a questi refusi, che in rilettura non vengono visti. Grazie della segnalazione
Paolo Corsini
18-05-2016, 11:12
come pensavo dopo aver visto che utilizzavano memorie ddr5x al posto delle hbm 1 o 2 : il vantaggio di nvidia è ancora ampio per utilizzarle mentre amd è stata costretta ad usarle già in questa generazione
E' una questione di tempistiche: se vuoi HBM2 devi attendere fino a fine anno, ed è quello che avverrà con GP100. Se vuoi massima bandwidth ora GDDR5X, fatta eccezione per HBM prima generazione che usa solo AMD su Fury e che non verrà adottata per altre schede visto il limite dei 4 Gbytes di capacità complessiva.
La scelta della tecnologia di memoria non ha nulla a che vedere con un vantaggio di una o dell'altra, ma è scelta legata alle tempistiche attuali, all'architettura della GPU e del memory controller integrato oltre alla potenza della GPU che si abbina alla memoria.
Paolo Corsini
18-05-2016, 11:14
Sono arrivato a pagina 9, come mai dai grafici della rumorosita' e' sparita la Fury X, e' il dato che guardo di piu' :mbe:
Non ho misurato Fury X come rumorosità in quanto ha un kit a liquido; la ventola subisce a pieno carico durante il benchmark usato come riferimento un marginale aumento della velocità di rotazione.
Paolo Corsini
18-05-2016, 11:15
@ Redazione
è previsto anche qualche test di gpgpu computing?
grazie
ciao ciao
Si, ci sto lavorando
Paolo Corsini
18-05-2016, 11:16
Avevo intenzione di prendere il Dell u3415w, risoluzione 3440x1440. Che dite, con questa dovrei farcela a giocare a tutti i giochi attuali maxati e a 60fps? in realtà volevo prendere la 1070, ma nvidia sembra quasi nasconderla...
2560x1440: 3,7 Mpixel
3440x1440: 4,95 Mpixel
3840x2160: 8,3 Mpixel
Le prestazioni a 3.440x1440 puoi stimarle a metà tra quanto riportato nelle due risoluzioni utilizzate nei test, indicativamente più vicine a quelle di 2560x1440 che a 4k
aled1974
18-05-2016, 11:18
grazie, ho poi seguito la videorecensione in differita ieri sera dove appunto parlavi di Luxmark e test gpgpu a seguire nei prossimi giorni :mano:
ciao ciao
Intanto nell'unico gioco recensito in DX12 da Anandtech (Ashes of singularity) questa 1080 va solo marginalmente meglio di una Fury (50 vs 45 fps).
Attendiamo la risposta AMD e trarremo le conclusioni, ma stavolta con l'importanza driver ridotta di parecchio io penso che amd verra' fuori.
http://images.anandtech.com/graphs/graph10326/81658.png
PaulGuru
18-05-2016, 12:21
Intanto nell'unico gioco recensito in DX12 da Anandtech (Ashes of singularity) questa 1080 va solo marginalmente meglio di una Fury (50 vs 45 fps).
Attendiamo la risposta AMD e trarremo le conclusioni, ma stavolta con l'importanza driver ridotta di parecchio io penso che amd verra' fuori.
http://images.anandtech.com/graphs/graph10326/81658.png
Il confronto va fatto con le altre Nvidia.
Quello è un titolo che si vede va meglio con AMD in generale.
PaulGuru
18-05-2016, 12:26
Non ti ho mai sentito dire queste cose al contrario quando si bench tw3 o il recente doom però :Prrr:
Puoi scriverlo in italiano ? :)
Quando si sono introdotti i miglioramenti tecnologici di questa scheda (in particolare quelli relativi ad async compute e i miglioramenti specifici per la VR) si è fatto il paragone con la precedente architettura Maxwell, ma mi sarebbe piaciuto vedere un paragone anche con l'ultima declinazione di GNC, soprattutto per capire quanto Pascal abbia sopperito alle debolezza di Maxwell e quanto le novità introdotte siano novità assolute o lo siano solo tra le architettura nvidia.
Mi piacerebbe inoltre capire il supporto alle API di queste schede. Maxwell 2.0 supporta il Tier 2 di DX12 (relativo all'accesso alle risorse) e il feature level 12.1 (come paragone, GNC 1.2 supporta il Tier 3 e fl 12.0).
Queste schede come sono messe con il supporto DX12?
Dallo screenshot di GPUz pare sia confermato il fl 12.1, ma il supporto al tier 3 sarebbe molto gradito (così magari si inizia a sfruttare le DX12 come si deve ;) ).
Sarebbe possibile aggiungere queste informazioni all'articolo?
PaulGuru
18-05-2016, 12:29
È italiano, manca solo una A a benchA.
"bencha" ? :mbe:
E "il recente doom però" ?
Il fatto che molti titoli van meglio su Nvidia non vuol dire che non ve ne sia qualcuno che va meglio con AMD.
PaulGuru
18-05-2016, 12:35
Si dai è un neologismo, cerca "benchare" su google e ne trovi a bizzeffe. :)
si ok, comunque ho risposto lo stesso
PaulGuru
18-05-2016, 12:41
Si ma comunque hai ragione eh, hitman è pro amd e anche aots anzi questo non ho manco capito se ha un senso come bench o no.
P.S: tra l'altro c'è da capire se sono pro amd perchè sono dx12 o per altri motivi.
I giochi pro nvidia hanno parti a codice chiudo (gameworks) e amd fa fatica a ottimizzare i driver, ma non mi risulta che esista codice amd chiuso che causi lo stesso problema.
ma il gameworks si può disabilitare.
e nei bench in genere lo è già
a me pare deludente sta scheda, mi sarei aspettato molto di piu! a sto punto aspettiamo amd che cosa fara' uscire.
A me pare che tutto il marketing del piffero sull'asych e le Dx12 si stia rivelando per la fuffa che è, ossia dubito che questa roba faccia la differenza su sistemi potenti ma sono incline a credere che (come Mantle) serva soprattutto a sistemi deboli.
Ho visto tonnellate di bench in giro in cui Dx12 ha performance sistematicamente inferiori a Dx11. Ora le Dx12 sono in giro da un anno, dire che sono acerbe mi pare fuori luogo, vero che ci sono pochi giochi ma le performance sono mostruosamente deludenti per quelle che dovevano essere le librerie in grado di sprigionare più potenza.
Fa girare tutti i giochi in 4k che é una risoluzione demente visto è oltre quanto il nostro occhio riesce a vedere...
Quello che ho sempre pensato pure io. E' tutto marketing.
Il 4K.....tadadadaaaa....ma cos'è 'sto 4K ?
Quando l'hw sarà "pronto" per il 4K a 60fps granitici tuttomaxatoAAAFHBAO+eTuttosuVeryHigh, cioè almeno fra altre tre generazioni di schede video secondo me, si parlerà di 8k....e saremo punto e a capo :D
Così giusto se uno vuole invecchiare prima del tempo l'hw nuovo che si è appena comprato coi sudati risparmi...allora si mette a giocare in 4K.
Non sono così masochista, non cambia un piffero con l'esperienza di uso nei giochi. Se uno è proprio così allergico al dot pitch, allora basta indietreggiare di un pò, e avrete un antialiasing "naturale" :D
Poi se uno è abituato a giocare con gli occhi a 5 cm dal monitor e si lamenta di distinguere ogni singolo pixel, allora non ci sarà mai una risoluzione così nitida.
Goofy Goober
18-05-2016, 14:07
Quello che ho sempre pensato pure io. E' tutto marketing.
Il 4K.....tadadadaaaa....ma cos'è 'sto 4K ?
Quando l'hw sarà "pronto" per il 4K a 60fps granitici tuttomaxatoAAAFHBAO+eTuttosuVeryHigh, cioè almeno fra altre tre generazioni di schede video secondo me, si parlerà di 8k....e saremo punto e a capo :D
Così giusto se uno vuole invecchiare prima del tempo l'hw nuovo che si è appena comprato coi sudati risparmi...allora si mette a giocare in 4K.
Non sono così masochista, non cambia un piffero con l'esperienza di uso nei giochi. Se uno è proprio così allergico al dot pitch, allora basta indietreggiare di un pò, e avrete un antialiasing "naturale" :D
Poi se uno è abituato a giocare con gli occhi a 5 cm dal monitor e si lamenta di distinguere ogni singolo pixel, allora non ci sarà mai una risoluzione così nitida.
:ave: :ave: :ave:
PaulGuru
18-05-2016, 14:13
Quello che ho sempre pensato pure io. E' tutto marketing.
Il 4K.....tadadadaaaa....ma cos'è 'sto 4K ?
Quando l'hw sarà "pronto" per il 4K a 60fps granitici tuttomaxatoAAAFHBAO+eTuttosuVeryHigh, cioè almeno fra altre tre generazioni di schede video secondo me, si parlerà di 8k....e saremo punto e a capo :D
Così giusto se uno vuole invecchiare prima del tempo l'hw nuovo che si è appena comprato coi sudati risparmi...allora si mette a giocare in 4K.
Non sono così masochista, non cambia un piffero con l'esperienza di uso nei giochi. Se uno è proprio così allergico al dot pitch, allora basta indietreggiare di un pò, e avrete un antialiasing "naturale" :D
Poi se uno è abituato a giocare con gli occhi a 5 cm dal monitor e si lamenta di distinguere ogni singolo pixel, allora non ci sarà mai una risoluzione così nitida.
Magari perchè a seguito di modelli poligonari più complessi l'aliasing aumenta ?
5cm ? Tu col 1080p e 1440p non vedi aliasing quindi ? Bene
Anche sul finire degli anni 90 e inizio 2000 si pensava che il 1600x1200 ( ris raggiunga solo da specifici modelli di CRT ) fosse una risoluzione altissima. Giocaci tu adesso.
Non cambia un piffero ? Prendi titoli come TW3 e togli l'AA e poi vediamo.
monster.fx
18-05-2016, 15:02
Agli inizia degli anni 90 "alta risoluzione" voleva dire 800x600 :D
Alla fine degli anni '90(quanti ricordi ... Maldini,Donadoni,Baresi,Schillaci ... :D ) ... i CRT 17" arrancavano a 1024x768 a 60hz ... quando avevi un buon monitor arrivavi ai 75hz .
Goofy Goober
18-05-2016, 15:04
Alla fine degli anni '90(quanti ricordi ... Maldini,Donadoni,Baresi,Schillaci ... :D ) ... i CRT 17" arrancavano a 1024x768 a 60hz ... quando avevi un buon monitor arrivavi ai 75hz .
Bei tempi!
E poi arrivarono i primi Flatron che costavano una fucilata, ma finalmente piatti....
E oggi dal piatto torniamo al display curvato, che costa una fucilata....
Seems legit :fagiano:
Il confronto va fatto con le altre Nvidia.
Quello è un titolo che si vede va meglio con AMD in generale.
no assolutamente, il confronto va fatto su titoli DX12 non DX11, perche sono i titoli che questa scheda dovra' far girare da qui a 12/24 mesi, e Ashes e' uno dei pochi titoli che a ora possiamo confrontare.
E in DX 12, per quanto parziale la situazione, sappiamo che le AMD vanno molto piu forti delle nvidia, con questa nuova scheda da millemila euro che fa 5 fps in piu di una fury.
poi e' chiaro che le somme le tireremo quando ci saranno piu titoli. ma per me e' un campanello di allarme grossissimo.
CarmackDocet
18-05-2016, 15:33
I +5 fps sulle DX12 vanno un attimo contestualizzati.
Nel bench che ho visto stiamo parlando si di +5 fps ma da 44 a 49... che percentualmente è circa un +11%
ed il confronto è con una Fury X... che parlando di prezzo "official" non è molto distante dalla 1080.
Poi che per una scheda uscita adesso in DX12 ci si potesse aspettare di più, in linea di massima concordo.
Attendiamo driver più maturi
I +5 fps sulle DX12 vanno un attimo contestualizzati.
Nel bench che ho visto stiamo parlando si di +5 fps ma da 44 a 49... che percentualmente è circa un +11%
ed il confronto è con una Fury X... che parlando di prezzo "official" non è molto distante dalla 1080.
Poi che per una scheda uscita adesso in DX12 ci si potesse aspettare di più, in linea di massima concordo.
Attendiamo driver più maturi
si infatti attendiamo a valutare, ma +11% sulla fury considerando il cambio di processo produttivo e' a dir poco deludente.
In tomb raider DX12 però sembra andare bene.
Bisogna vedere fino a che livello usa le DX12, DX12 non è mica 1 cosa sono tante cose.
infatti Ashes e' il gioco che le utilizza di piu, e il risultato e' precoce ma indicativo.
ovviamente questa considerazione nella news e' stata ignorata.
CarmackDocet
18-05-2016, 16:08
Che in nVidia abbiano calcolato tutto?
Mi spiego. Come evidenziato da "tuttodigitale" Maxwell sotto certi aspetti è più performante di Pascal.
Perchè quindi non tenersi una modifica architetturale più efficiente per la prossima generazione quando (ovviamente) non si potrà contare su un'altra riduzione del processo produttivo?
Perchè fare di più quando con quello che hanno già fatto sapevano di stare sopra a tutti?
E sono anche convinto che sia nVidia che AMD volutamente non si sbattono più di tanto con l'ottimizzaione dei driver con le nuove schede, proprio per tenersi del margine... e anche per non "ammazzare" la generazione precedente ed avere modo di smaltire le scorte.
Chi non è più giovanissimo come me si ricorderà senz'altro di Serhij Bubka... il più grande saltatore con l'asta di tutti tempi.
Ad ogni competizione batteva il suo stesso record solo di 1 cm... è stato il n°1 per quasi 20 anni.
Dietro ogni grande azienda (AMD, nVidia, Intel) c'è sempre una strategia ben precisa.
Io almeno non credo che questi dati siano frutto del "caso"... e che in nVidia non abbiano valutato ogni possibile commento nell'uscire con queste performance.
Pensate a quanto ne stiamo parlando noi in questi giorni qui su su HWU... e quanto ne stanno parlando in tutto il mondo!
IMHO
:-)
PaulGuru
18-05-2016, 16:18
infatti Ashes e' il gioco che le utilizza di piu, e il risultato e' precoce ma indicativo.
ovviamente questa considerazione nella news e' stata ignorata.
E' il titolo in sè che fa selezione non le DX12.
Dovremmo vedere un confronto di questo stesso gioco sia in DX11 che in DX12.
CarmackDocet
18-05-2016, 16:21
Concordo,
nVidia ha azzardato e AMD deve dimostrare qualcosa, almeno nella fascia Top e non tanto per una questione di numeri (è nella fascia media che si gioca la vera partita) quanto come immagine.
Un plauso le va senz'altro per il coraggio di alcune soluzioni innovative adotate (vedi HBM) per le quali però ha anche pagato il prezzo (limite dei 4 GB).
Spero faccia bene... e che almeno nel mondo VGA rimanga un bel dualismo.
Nel mondo CPU c'ho perso le speranze... e tutti noi ci abbiamo perso in generale.
PaulGuru
18-05-2016, 16:29
Concordo,
nVidia ha azzardato e AMD deve dimostrare qualcosa, almeno nella fascia Top e non tanto per una questione di numeri (è nella fascia media che si gioca la vera partita) quanto come immagine.
Un plauso le va senz'altro per il coraggio di alcune soluzioni innovative adotate (vedi HBM) per le quali però ha anche pagato il prezzo (limite dei 4 GB).
Spero faccia bene... e che almeno nel mondo VGA rimanga un bel dualismo.
Nel mondo CPU c'ho perso le speranze... e tutti noi ci abbiamo perso in generale.
Nel mondo VGA di AMD c'è solo il nome, in realtà risorse e direzione sono sempre di ATI. Anche se cè stata l'acquisizione si vede che AMD non è riuscita ad arricchire l'esperienza e le capacità di ATI.
Mi aspettavo di più, specie lato consumi considerando parliamo dell'equivalente di due salti di pp.
Chi non é stupito da questa vga immagino sia rientrato ora da una settimanetta ad Amsterdam... Costa 650 euro invece che 1100, va di più e ha più feature. Fa girare tutti i giochi in 4k che é una risoluzione demente visto è oltre quanto il nostro occhio riesce a vedere...
Non so, diciamo a Hun Sung, o come cavolo si chiama, che la prossima volta ci metta su anche un po' di pelo, così magari vi si convince...
il prezzo è allineato con la 980ti difatti.
Ma considerando parliamo di una scheda con quasi il 40% di transistors in più io mi sarei aspettato molto ma molto di più.
Sono abbastanza deluso.
Se la 1070 sarà vicina in prestazioni e costerà sui 370 al lancio, okay, ma sennò per me scaffale a aspetto un altro anno.
Chi non è più giovanissimo come me si ricorderà senz'altro di Serhij Bubka... il più grande saltatore con l'asta di tutti tempi.
Ad ogni competizione batteva il suo stesso record solo di 1 cm... è stato il n°1 per quasi 20 anni.Bubka lo faceva perché in ogni gara lo pagavano fior di milioni ogni volta che batteva il record, non perché sapeva di poter far meglio alla successiva :D:D
500~520 la FE, l'ha detto corsini in un altra news oggi
Parlo di quella normale, non la FE e di prezzi al dettaglio, non ufficiali.
tuttodigitale
18-05-2016, 21:42
guarda è un parallelo semplicissimo con la 1080 e il prezzo reference non esiste, quello è il prezzo base per le reference marchiate, ma se già fai fatica a tenere basse le temp con il dissipatore FE pensa con quelli classici a turbina.
mi viene solo da pensare male per questo dissipatore (non perchè faccia schifo, ma perchè nvidia richiede un surplus di prezzo difficilmente giustificabile, oltre al fatto che dovrebbe essere per un certo periodo l'unica soluzione in commercio)....ci sono delle r9 390x custom con temperature di esercizio intorno ai 65°C....:rolleyes:
per una soluzione da 180W proposta a 789 euro (come riporta guru3d, per Francia e Germania) , mi sarei aspettato altrettanto.
....
Perchè quindi non tenersi una modifica architetturale più efficiente per la prossima generazione quando (ovviamente) non si potrà contare su un'altra riduzione del processo produttivo?
il tape out di una nuova architettura costa quattrini, e la stessa è destinata per il mercato professionale (ogni punto percentuale permette a nvidia di alzare l'asticella del prezzo)
più ragionevole, la pratica di non ottimizzare a dovere i driver, che fu fatta dalla stessa nvidia con la geforce3 (per chi se lo ricorda) , che subì un notevole aumento di prestazioni quando uscì la radeon 8500...
http://images.anandtech.com/graphs/graph10326/81658.png
considerando che questo è il primo test per l'asynchronus shading, i risultati sono deludenti, proprio in virtù dl fatto che le architetture AMD guadagnano anche il 20%. Ma potrebbe anche essere dovuto alla semplice bandwidth limited (siamo pur sempre a 4k)
MiKeLezZ
18-05-2016, 21:57
La 1080 va di più e costa meno della Fury.
Se la AMD ne fa 45 fps che è un valore vicino, stigrancavoli. Sono sempre 6 fps in meno e costa comunque uguale... oltre ovviamente a non avere le stesse feature e consumare di più.
Vi fate problemi veramente inesistenti e vi fate castelli in aria, roba da impallidire il barone munchausen.
Il futuro ha ancora da venire e se ne riparla. Ricordo che è da circa 11 anni che stiamo aspettando la famosa scheda ATI che superi le NVIDIA. Se dopo 11 anni siete veramente convinti che la volta buona sarà la prossima buon per voi. Fra un po' AMD è gambe all'aria e già fa proclami che vuole puntare alla fascia media............... la vedo sinceramente probabile come uno sbarco di alieni.
p.s. @CarmackDocet ovvio che han calcolato tutto e han progettato la VGA per farla andare il tanto che basta e non di più, si chiama avere un'azienda che funziona e che fa profitti. E' la stessa regola del saccottino che non lo riempiono per un cazzo di cioccolata, però è comunque più buono delle altre meredine quindi è ok.
MiKeLezZ
18-05-2016, 22:07
mi viene solo da pensare male per questo dissipatore (non perchè faccia schifo, ma perchè nvidia richiede un surplus di prezzo difficilmente giustificabile, oltre al fatto che dovrebbe essere per un certo periodo l'unica soluzione in commercio)....ci sono delle r9 390x custom con temperature di esercizio intorno ai 65°C....:rolleyes:
per una soluzione da 180W proposta a 789 euro (come riporta guru3d, per Francia e Germania) , mi sarei aspettato altrettanto.Se la Wolksvagen ti fa 15000 la Golf e Pino Geppetto te la fa 12000, comprala da Pino Geppetto
Se vuoi la Founder's paghi quello. Non sta scritto da nessuna parte che tale cifra debba esser giustificata.
Anche questo è banale marketing, si fa così per evitare di pestare i piedi nel segmento retail di vendita. E' ovvio che se NVIDIA si mette a competere di prezzo con le schede dei propri partner va a rubargli del margine di guadagno e queste dopo un po' gli possono anche fare il gesto dell'ombrello e dirgli di vendersele da se... Invece mettendole a prezzo maggiorato si fa felici sia chi vuole l'inutile loghino NVIDIA sia chi preferisce risparmiare due euro.
CarmackDocet
18-05-2016, 22:36
comunque ovvio che alla base di un'azienda ci sia il profitto.
Il mio riferimento a Bubka era proprio per quello... mi ricordo bene che guadagnava molto ad ogni nuovo record.
Finchè il prodotto che ti danno è comunque ottimo... ci sta tutto!
con uno stile di scheda cosi, c'è un stile di computer del genere, puo' accompagnare solo.
Uff, io vorrei sapere come va per CUDA, iRay e GPGPU in generale :(
Enriko81
19-05-2016, 07:51
800 euro e non fa nemmeno 60fps minimi ai titolo attuali a 4k. E poi anche la 1070 a 520euro di lancio non conviene. Colpa di amd ke non sforna alternative. Aspetterei il 2017 x upgrade monitor a 4k
con uno stile di scheda cosi, c'è un stile di computer del genere, puo' accompagnare solo.
eh? :wtf::wtf:
Goofy Goober
19-05-2016, 09:24
con uno stile di scheda cosi, c'è un stile di computer del genere, puo' accompagnare solo.
:asd: :asd: mi hai fatto morire :asd: :asd:
http://1.bp.blogspot.com/-rWJFfI84yec/UfAgPWhxigI/AAAAAAAAAJI/pVcdqVNY8gc/s1600/puo+accompagnare+solo+2.png
eh? :wtf::wtf:
https://www.youtube.com/watch?v=W9QIE1OytWg
:O
tuttodigitale
19-05-2016, 10:38
E' il titolo in sè che fa selezione non le DX12.
Dovremmo vedere un confronto di questo stesso gioco sia in DX11 che in DX12.
in quel specifico gioco, con le schede AMD la differenza tra l'uso dell'elaborazione asincrona, e quella tradizionale è sostanziale. Mi sarei aspettato un gap nell'ordine del 60-70% con la gtx980ti.
Ad essere onesti la stessa nvidia, per tramite slide, aveva scritto che il gap sarebbe passato dal 60 a 80% nei confronti della gtx980, passando dalle dx11 alle dx12, segno inequivocabile, che la stessa casa si aspetta un guadagno nettamente inferiore a quelle fatte registrare dall'architettura GCN.
Si vede che l'architettura Pascal non è costruita per avvattaggiarsi in maniera massiva, di tale feature, vuoi perchè l'architettura nvidia è intrisecamente più efficiente o che questa caratteristica è solo una bozza (resta da vedere il reale costo di un cambio di contesto). Fatto sta che Vulkan/DX12 sembrano al momento disegnate su misura su GCN.:cool:
tuttodigitale
19-05-2016, 11:16
La 1080 va di più e costa meno della Fury.
A me pare di aver capito che il prezzo di listino (fonte guru 3d) è di 789 euro per Francia e Germania.
La Fury (la differenza dalla x è giustificata solo dal dissipatore a liquido, sono tutte versioni OC overcloccate del 5%, vanno praticamente come la x) in questo momento costa pressoapoco quanto la 980 liscia (vedi trovaprezzi)
Se la Wolksvagen ti fa 15000 la Golf e Pino Geppetto te la fa 12000, comprala da Pino Geppetto
Se vuoi la Founder's paghi quello. Non sta scritto da nessuna parte che tale cifra debba esser giustificata.
ma sai c'è poco da raccomandare, quando puoi risparmiare 100 euro e avere un prodotto migliore tra poche settimane...
Invece, le recensioni sembrano per lo più partorite dal reparto marketing di nvidia.
guarda è un parallelo semplicissimo con la 1080 e il prezzo reference non esiste, quello è il prezzo base per le reference marchiate, ma se già fai fatica a tenere basse le temp con il dissipatore FE pensa con quelli classici a turbina.
per tanto sarà lanciata la FE a 450$*1.14~ e fa 513€, così come 700*1.14=800€ della 1080
Ripeto, per me la FE non è la reference ma il modello premium (circuiteria migliorata ecc).
Se la 1070 va come una 980ti sotto i 400 euro bene, sennò sta bene sullo scaffale.
Anche perchè stando a 1080p ancora non sono riuscito a trovare il gioco che mi forza a cambiare la mia vetusta 670 :dunno:
Bells bestiola non c'è che dire...
L'incremento rispetto anche ad una 980ti è notevole, ma a quanto leggo la 1080 non scala un gran chè in OC, a differenza della 980ti che a 1500mhz+ rulla davvero parecchio di più rispetto a default (con tw3 ad esempio passo dai 55/60fps rilevati dalla rece a 70/75+) percui il divario "sul campo" si assottiglia. :)
Lo so, tutte scuse per autoconvincermi a resistere almeno fino alla 1080ti... :mc: :asd:
Certo che se già la 1080 "liscia" costa come una 980TI, la TI cosa la spareranno a 1000€? Qui stiamo arrivando davvero a prezzi fuori dal mondo... :muro:
AMD dacci una botta a tirar fuori qualcosa di decente sennò qui ce lo prendiamo in :ciapet: tutti!!
Goofy Goober
19-05-2016, 11:58
Bells bestiola non c'è che dire...
L'incremento rispetto anche ad una 980ti è notevole, ma a quanto leggo la 1080 non scala un gran chè in OC, a differenza della 980ti che a 1500mhz+ rulla davvero parecchio di più rispetto a default (con tw3 ad esempio passo dai 55/60fps rilevati dalla rece a 70+) percui il divario "sul campo" si assottiglia. :)
Lo so, tutte scuse per autoconvincermi a resistere almeno fino alla 1080ti... :mc: :asd:
veramente scalano alla stessa maniera :stordita:
se guardi i bench con i test in OC, si vede che il distacco resta costante sotto overclock.
siamo al solito discorso dove si dice "la scheda vecchia in OC si avvicina molto alla scheda nuova a default, ma allora in OC la scheda nuova ripristina il distacco".
ma come al solito ci si dimentica che l'OC non è una certezza, ma una probabilità.
E inoltre questa gpu è appena comparsa al mondo, con driver beta.
Nel tempo il divario potrà solo aumentare come successo alle 980-970Gtx nei confronti delle 780-780Ti.
tuttodigitale
19-05-2016, 12:02
Certo che se già la 1080 "liscia" costa come una TI, la TI cosa la spareranno a 1000€? Qui stiamo arrivando davvero a prezzi fuori dal mondo... :muro:
sei troppo ottimista.
Se AMD non si da una mossa, piazzano una Titan, con chip gp100 in parte disabilitato a 1500euro, con la scusa della doppia precisione ad 1/2, ma con i soliti driver consumer :rolleyes:
La titan, in fin dei conti andava, spannometricamente, "solo" il 30% della gtx770, ma costava il doppio. La storia potrebbe ripetersi, se non esce VEGA per tempo.
veramente scalano alla stessa maniera :stordita:
se guardi i bench con i test in OC, si vede che il distacco resta costante sotto overclock.
siamo al solito discorso dove si dice "la scheda vecchia in OC si avvicina molto alla scheda nuova a default, ma allora in OC la scheda nuova ripristina il distacco".
ma come al solito ci si dimentica che l'OC non è una certezza, ma una probabilità.
E inoltre questa gpu è appena comparsa al mondo, con driver beta.
Nel tempo il divario potrà solo aumentare come successo alle 980-970Gtx nei confronti delle 780-780Ti.
Pussa via maledetto che mi rovini tutta la mia opera di autoconvincimeto!! :Prrr:
Dalla rece leggo "L'incremento delle prestazioni che abbiamo registrato a queste impostazioni alla risoluzione di 3840x2160 è stato complessivamente contenuto" ecc ecc ecc...
Ma è anche vero che queste sono pur sempre schede reference, con bios stock con PL castrato, driver e SW di OC ancora in alpha...
Sicuramente con le chede custom, dotate di raffreddamento migliore e i bios moddati che sbloccheranno il PL il discorso cambierà, e la scimmia sarà più dura da tenere a bada... :mad:
tuttodigitale
19-05-2016, 12:08
veramente scalano alla stessa maniera :stordita:
fin quanto è fresca....come dicono techpowerup, guru3d e toms, tanto più che la gpu tende a lavorare fuori specifica anche a default (1885MHz, per techpowerup), per il lasso di tempo in cui è fresca...
quindi l'oc sarebbe efficace solo nel breve lasso di tempo in cui viene eseguito il benchmark, a meno di alzare manualmente gli rpm della ventola..
Per l'OC il dissipatore nvidia non è sufficiente.
Sicuramente con le chede custom, dotate di raffreddamento migliore e i bios moddati che sbloccheranno il PL il discorso cambierà, e la scimmia sarà più dura da tenere a bada... :mad:
questo è poco, ma sicuro.
ripeto che è no :) , nvidia ha trovato un modo per venderti la reference con PCB base ad un prezzo più alto. sono semplicemente più furbi di amd.
guarda il pcb della 1080 FE, lo stanno massacrando tutti, 8pin che castra l'OC sopra i 2.1ghz, ventola che se sparata a velocità normale vedi gli 85° e ti taglia la potenza e non arrivi manco a 1.9, ecc...
è così e sarà così anche la 1070 FE, forse clockerà poco più alto della 1080 in OC per gli SP minori? boh, nel senso che avrà più margine per salire con l'8 pin anche se a def e boost clocka -100 e -50 mhz, però bisogna vedere se il TDP castra l'OC.
le custom non avranno questi problemi, ma come prezzo base saranno almeno quelli della FE.
ripeto, sbagli, e vedrai appena inizieranno ad uscire le custom a prezzo più basso della fe.
Neanche Nvidia tra l'altor sa giustificare l'assurdo prezzo della FE :asd:
Ma siete liberi di farvi fregare come vi pare eh :asd:
https://www.youtube.com/watch?v=bNCfn4y8dBw
fin quanto è fresca....come dicono techpowerup, guru3d e toms, tanto più che la gpu tende a lavorare fuori specifica anche a default (1885MHz, per techpowerup), per il lasso di tempo in cui è fresca...
quindi l'oc sarebbe efficace solo nel breve lasso di tempo in cui viene eseguito il benchmark, a meno di alzare manualmente gli rpm della ventola..
Per l'OC il dissipatore nvidia non è sufficiente.
questo è poco, ma sicuro.
Ma quanto rimarrà fresca una reference anche alzando la ventola a palla?
Mi era capitata una 960 (che di per se dovrebbe scaldare/consumare poco) con 82% di asic che saliva molto bene, reggeva 1550+ Mhz senza batter ciglio ma la temperatura saliva in fretta oltre gli 80'' anche con ventola al 100% (rumorosa come un jet), e ovviamente poi andava in throttling...
A differenza della Palit JS che invece non saliva mai sopra i 65' anche con ventola all'80' (restando molto silenziosa.)
PaulGuru
19-05-2016, 12:45
Quando escono le controparti AMD ?
tuttodigitale
19-05-2016, 13:26
Ma quanto rimarrà fresca una reference anche alzando la ventola a palla?
secondo toms, la gpu raggiunge con il dissi al 100%, i 69°C in una stanza con temperatura ambiente di 22°C.
La cosa strana che in 4k, nonostante la temperatura più che buona, non ci sarebbe traccia dell'OC: la mia parziale conclusione, è che oltre al limite termico, la scheda non permetta di superare un determinato limite di assorbimento. Una scusa in più per aspettare una custom (per chi sta cercando di autoconvincersi di aspettare).
PaulGuru
19-05-2016, 13:28
secondo toms, la gpu raggiunge con il dissi al 100%, i 69°C in una stanza con temperatura ambiente di 22°C.
La cosa strana che in 4k, nonostante la temperatura più che buona, non ci sarebbe traccia dell'OC: la mia parziale conclusione, è che oltre al limite termico, la scheda non permetta di superare un determinato limite di assorbimento. Una scusa in più per aspettare una custom (per chi sta cercando di autoconvincersi di aspettare).
:sofico: 22° :sofico:
questa sarebbe una temp di riferimento attendibile ?
Io ne faccio 36° nei giorni di Agosto, che faccia buone temp con 22° lascia il tempo che trovano.
tuttodigitale
19-05-2016, 13:30
sarei curioso di conoscere, anche in maniera approssimata, la durata di ogni singolo test, e il tempo di riposo per la gpu nel passaggio dall'uno all'altro:
http://www.tomshw.it/data/thumbs/5/6/4/2/01-clock-rate-2d85be7d68368d29fa19f362b5878139f.jpg
a giudicare da questo grafico, sembrerebbe fuorviante l'analisi delle prestazioni nei primi 4 minuti.
Purtroppo l'analisi delle prestazioni delle nuove gpu, con tutti questi magheggi, è diventata meno precisa, anche se lo stesso grafico, ci dice (ad occhio) che la gpu nei primi 4 minuti è mediamente più veloce solo del 6% rispetto ai minuti successivi (valore modesto, e impercettibile nell'uso pratico). Ma per la prossima volta, almeno per qualche gioco, vorrei vedere anche nelle vostre review, l'andamento della frequenza in funzione del tempo.
PS per chi se lo chiede, la prova in OC in oggetto è stata fatta in FHD (in 4k vale quello che ho scritto nel post precedente)
Ma si sa quando saranno in vendita le prime 1080/70 dai vari OEM?
Goofy Goober
19-05-2016, 14:33
in effetti ormai con un downclock così importante dove si passa da quasi 2100mhz a meno di 1700mhz, bisognerebbe sapere sempre in che tipo di scenario vengono fatti i test.
Goofy Goober
19-05-2016, 14:51
le reference che dici tu saranno le vga con il classico dissipatore
No.
Quel dissipatore in questa generazione di 1080-1070 non esisterà, è stato sostituito dal fratello "spigoloso".
Le reference "classiche" saranno queste:
http://www.info-mag.fr/wp-content/uploads/2016/05/galax-gtx-1080-custom-300x235.jpg
Le custom potranno avere vari tipi di dissipatori a partire di quelle con i dissipatori più basilari poco elaborati e con pcb reference, a quelle più complesse e "migliorate".
Goofy Goober
19-05-2016, 15:09
cambia la forma :D
l'unica cosa che frega in quei dissipatori è il tipo di blocco dissipante che c'è dentro, ed eventualmente la ventola blower se cambia di tipologia (cosa improbabile).
tutto il resto è secondario.
il "vecchio" dissipatore referece metallico di Nvidia nato con il primo modello di Titan, ormai credo non sarà più utilizzato, sostituito da quello "spigoloso" della Founder Edition, o per meglio dire Ladrons Edition.
MarklendersXY
19-05-2016, 15:14
La cosa migliore di questa 1080 è il calo della 980 ti (e magari anche la fury x)
La 1080 va di più e costa meno della Fury.
Se la AMD ne fa 45 fps che è un valore vicino, stigrancavoli. Sono sempre 6 fps in meno e costa comunque uguale... oltre ovviamente a non avere le stesse feature e consumare di più.
Vi fate problemi veramente inesistenti e vi fate castelli in aria, roba da impallidire il barone munchausen.
Il futuro ha ancora da venire e se ne riparla. Ricordo che è da circa 11 anni che stiamo aspettando la famosa scheda ATI che superi le NVIDIA. Se dopo 11 anni siete veramente convinti che la volta buona sarà la prossima buon per voi. Fra un po' AMD è gambe all'aria e già fa proclami che vuole puntare alla fascia media............... la vedo sinceramente probabile come uno sbarco di alieni.
p.s. @CarmackDocet ovvio che han calcolato tutto e han progettato la VGA per farla andare il tanto che basta e non di più, si chiama avere un'azienda che funziona e che fa profitti. E' la stessa regola del saccottino che non lo riempiono per un cazzo di cioccolata, però è comunque più buono delle altre meredine quindi è ok.
Ma quando mai?
io non so te le fury dove le compri :doh:
Messaggio da fanboy nvidia spinto.
Detto questo, Ashes of Singularity utilizza l'async compute, che sulle soluzioni nvidia storicamente non gira bene (e anche con questa poca roba, basti vedere i +5fps sulla fury), e che sara utilizzato potenzialmente su un sacco di giochi in DX12, quindi attendiamo le AMD e poi tiriamo le somme.
tuttodigitale
19-05-2016, 19:20
La cosa migliore di questa 1080 è il calo della 980 ti (e magari anche la fury x)
la 1080, per almeno un paio di mesi, farà partita a sé. Non mi meraviglierei se il prezzo on street, fosse superiore di 150-200 euro rispetto a quello attuale della gtx980 ti
la 1070, se le specifiche trapelate sono giuste, dovrebbe andare circa quanto una gtx980ti e a 450-520, mette fuori gioco le schede della generazioni precedente, e c'è davvero il rischio trovare qualche store che venda le vecchie ad un prezzo che renda sopportabile il fatto di comprare un prodotto "vecchio" :cool:
PaulGuru
19-05-2016, 19:25
Ma quando mai?
io non so te le fury dove le compri :doh:
Messaggio da fanboy nvidia spinto.
Detto questo, Ashes of Singularity utilizza l'async compute, che sulle soluzioni nvidia storicamente non gira bene (e anche con questa poca roba, basti vedere i +5fps sulla fury), e che sara utilizzato potenzialmente su un sacco di giochi in DX12, quindi attendiamo le AMD e poi tiriamo le somme.
Quando esce ATI ?
Atenanosaint
19-05-2016, 19:34
c'è anche da dire che finchè la quasi totalità dei giochi verrà ottimizzata con le schede nvidia, lasciando alle controparti amd ottimizzazioni al limite dell'ingiocabilità, purtroppo non ci sarà partita
tuttodigitale
19-05-2016, 19:46
Quando esce ATI ?
ci saranno nuove informazioni, al Computex (fine mese).
Per il momento, pare che Polaris sia destinato al mercato mainstream (si vocifera max 350 dollari) , per stessa ammission di AMD. considerando che è una soluzione VR, deve andare almeno quanto la r9 390.
Raja koduri un paio di mesi fa ha detto: We expect to see Polaris-based GPUs across the entire performance stack, e anche nel sito giganteggia, la scrtta "il meglio del gaming in un singolo chip" .... penso che andrà almeno quanto la fury. Poi il marketing spara boiate (bellissima la matematica del CEO by nvidia :D, quando lo stesso capo, è conscio di averla sparata grossa )
http://i.imgur.com/8tRZt1l.png
c'è anche da dire che finchè la quasi totalità dei giochi verrà ottimizzata con le schede nvidia, lasciando alle controparti amd ottimizzazioni al limite dell'ingiocabilità, purtroppo non ci sarà partita
OMG, con le DX12/Vulkan, direttamente derivate dal mercato console, e con HW AMD presente nelle stesse (comprese quelle future) se ci sarà qualcosa di non ottimizzato per le gpu AMD, è spiegabile solo con le mazzette.
PaulGuru
19-05-2016, 19:50
OMG, con le DX12/Vulkan, direttamente derivate dal mercato console, e con HW AMD presente nelle stesse (comprese quelle future) se ci sarà qualcosa di non ottimizzato per le gpu AMD, è spiegabile solo con le mazzette.
E' spiegabile col fatto che AMD esce sempre tardi con i drivers ottimizzati, segno che c'è gente che non lavora lì dentro.
Doom stava già disponibile in beta da un pezzo e questi solo ora han tirato fuori il driver adatto ? Nvidia già l'aveva reso disponibile prima dell'uscita.
E' spiegabile col fatto che AMD esce sempre tardi con i drivers ottimizzati, segno che c'è gente che non lavora lì dentro.
Doom stava già disponibile in beta da un pezzo e questi solo ora han tirato fuori il driver adatto ? Nvidia già l'aveva reso disponibile prima dell'uscita.
appunto, quindi e' una buona cosa che quando ci saranno giochi dx12 l'importanza driver calera', andando ad assottigliare il vantaggio di nvidia di questi anni lato software, a fronte di un hw amd, sulla carta, piu performante.
MarklendersXY
19-05-2016, 21:22
E' spiegabile col fatto che AMD esce sempre tardi con i drivers ottimizzati, segno che c'è gente che non lavora lì dentro.
Doom stava già disponibile in beta da un pezzo e questi solo ora han tirato fuori il driver adatto ? Nvidia già l'aveva reso disponibile prima dell'uscita.
Ma se sono usciti a 2 giorni di distanza....
MiKeLezZ
19-05-2016, 21:30
appunto, quindi e' una buona cosa che quando ci saranno giochi dx12 l'importanza driver calera', andando ad assottigliare il vantaggio di nvidia di questi anni lato software, a fronte di un hw amd, sulla carta, piu performante.ahahahahahahahahahahahah -> +oo
non so quante migliaia di volte l'ho già sentita e quante altre migliaia di volte tutti questi "nostradamus de noaltri" sono stati smentiti
è dalle xqualcosa di un decennio fa che si aspettano i nuovi mirabolandi driver che appianano il distacco sempre presente
dx12 non cambia una cippa
eldominicus89
19-05-2016, 21:33
ahahahahahahahahahahahah -> +oo
non so quante migliaia di volte l'ho già sentita e quante altre migliaia di volte tutti questi "nostradamus de noaltri" sono stati smentiti
è dalle xqualcosa di un decennio fa che si aspettano i nuovi mirabolandi driver che appianano il distacco sempre presente
dx12 non cambia una cippa
ultra quoto :sofico:
cdimauro
19-05-2016, 22:18
aspetta, se consuma il -55% a parità di prestazioni, vista lo scaling pressochè perfetto, questo significa che a parità di consumi si può costruire gpu che vanno più del doppio, ma certamente non come ha fatto nvidia, che ha cercato le prestazioni senza il relativo aumento del numero di transistor.
ha invece puntato sulla frequenze, per gentile concessione dei finfet. Solo per questo motivo, hanno ottenuto "solo" un +60-70% (o quanto è) di efficienza.
A proposito di scaling...il numero di transistor per mmq è aumentato solo del 70%...per contro per Polaris, si parla di 8+ miliardi di transistor (vs 7,2) in 232mmq (vs 314mmq).
sulla carta non ci sono differenze tra i 14nm LPP e i 16nm FF+...
Possibile che l'aumento di clock, sia la causa di un livello di integrazione non certo esaltante?
E' evidente che nVidia abbia puntato molto sull'aumento del clock, perché il nuovo processo produttivo consente di realizzare chip con meno della metà dello spazio, mentre il numero di shader rispetto alla precedente scheda che va a sostituire è di appena il 25%. Per cui l'aumento di prestazioni deriva concretamente dal block ben più elevato.
Altra cosa interessante è che le nuove memorie GDDR5X consentono un raddoppio della banda a parità di clock rispetto alle precedenti GDDR5, ma guardando al clock e alla relativa banda erogata, siamo ancora ben sotto al doppio teoricamente possibile.
Per cui è chiaro che nVidia non abbia sfruttato affatto ciò che il nuovo processo produttivo è in grado di offrire, fornendo una prima soluzione che è sostanzialmente un contentino per i clienti che sono affamati di prestazioni.
Ma i grossi cambiamenti, che trarranno vantaggio della ridotta dimensioni dei transistor, arriveranno in futuro. E idem per le nuove memorie, che hanno ancora parecchia banda da erogare.
nVidia s'è salvata delle cartucce per il futuro, insomma.
ahahahahahahahahahahahah -> +oo
non so quante migliaia di volte l'ho già sentita e quante altre migliaia di volte tutti questi "nostradamus de noaltri" sono stati smentiti
è dalle xqualcosa di un decennio fa che si aspettano i nuovi mirabolandi driver che appianano il distacco sempre presente
dx12 non cambia una cippa
Beata ignoranza
Ciao
PaulGuru
20-05-2016, 11:32
Ma se sono usciti a 2 giorni di distanza....Si quello di Doom.
Che fra l'altro è stato lanciato in beta da un pezzo.
appunto, quindi e' una buona cosa che quando ci saranno giochi dx12 l'importanza driver calera', andando ad assottigliare il vantaggio di nvidia di questi anni lato software, a fronte di un hw amd, sulla carta, piu performante.Questa l'ho già sentita.
Da parecchi anni per giunta, dove per altro siamo passati a 2 rivoluzioni nel know how AMD riguardo questo aspetto ma sempre con gli stessi risultati.
Sarebbe il caso di tenersi queste considerazioni finchè non accadono sul serio.
HW AMD superiore ? Questo è tutto da vedere.
Secondo me devono iniziare a cambiare strategie di marketing.
Dovrebbero iniziare a lanciare sul mercato queste schede video unitamente ad almeno un titolo esclusivo only PC con un impatto visivo da paura.
Ha poco senso testare una scheda del genere su un GTA V, per esempio, che e' un motore grafico nato su Ps3...
i 70 milioni e 3 anni di sviluppo per creare il gioco chi ce li mette?
ed il gioco dove lo pubblichi, su un client dedicato? altri soldi per crearlo quindi
per di più, visto che devono tirare acqua al proprio mulino devono fare in modo che funzioni solo su schede nvidia. come?
guardiamo in faccia la realtà, le esclusive sono un cancro. meno ce ne sono, meglio è per noi giocatori
Si quello di Doom.
Che fra l'altro è stato lanciato in beta da un pezzo.
Questa l'ho già sentita.
Da parecchi anni per giunta, dove per altro siamo passati a 2 rivoluzioni nel know how AMD riguardo questo aspetto ma sempre con gli stessi risultati.
Sarebbe il caso di tenersi queste considerazioni finchè non accadono sul serio.
HW AMD superiore ? Questo è tutto da vedere.
e che sto dicendo io da due pagine a questa parte?
che con dx12 i driver siano meno importanti e' un fatto, che questa cosa avvantaggi amd e la aiuti a ridurre il divario lo verificheremo quando escono le gpu, fine dei discorsi. a oggi tutto il resto sono speculazioni. con tutto il rispetto non sapevi nemmeno quando sarebbe uscita polaris, come ti puoi aspettare di sapere a cosa mi sto riferendo per le dx12? ci sono infinite discussioni e analisi su internet e forum, con google stai apposto.
io predico solo cautela a gridare il miracolo per la 1080 perche a me non sa per niente di miracolo.
PaulGuru
20-05-2016, 12:18
e che sto dicendo io da due pagine a questa parte?
che con dx12 i driver siano meno importanti e' un fatto, che questa cosa avvantaggi amd e la aiuti a ridurre il divario lo verificheremo quando escono le gpu, fine dei discorsi. a oggi tutto il resto sono speculazioni. con tutto il rispetto non sapevi nemmeno quando sarebbe uscita polaris, come ti puoi aspettare di sapere a cosa mi sto riferendo per le dx12? ci sono infinite discussioni e analisi su internet e forum, con google stai apposto.
io predico solo cautela a gridare il miracolo per la 1080 perche a me non sa per niente di miracolo.
Ma nessuno ha parlato di miracolo.
Ma un salto netto c'è stato, anche se la politica attuale purtroppo paga la distinzione fra G*104 e G*110 che però esce dopo.
Quando avremmo la 1080Ti con HBM potremmo tirare le somme nei confronti dei vecchi prodotti GM110.
Ma Attualmente questa 1080 dovrebbe essere confrontata con la 980 liscia, non và il doppio ma quasi, anzi potrebbe con i prossimi prodotti, quindi sto boost c'è stato anche se io in primis pretendevo di più visto che oggi esistono pretese maggiori ( 4K e VR ).
PaulGuru
20-05-2016, 12:36
In realta' esclusive PC ce ne sono centinaia, basta vedere su steam.
il problema e' che sono per lo piu MMO o strategici che girano anche su un portatile.
Non capiro mai come girano i soldi veramente nel mondo windows.
Ci sono miliardi di macchine, la Nvidia sono due anni che fa un fatturato da record, il 2016 lo ha chiuso in crescita.
Ma fare un gioco che sta al PC come un Uncharted 4 sta alla Play4 e' chiedere troppo?
Le vendite dei PC non corrispondono alle vendite reali, molti PC vengono assemblati dai proprietari e quelli non vengono considerati.
Tutti o quasi i componenti di una certa fascia finiscono lì.
Quindi la fetta di mercato PC appare sempre più ridotta di quello che è realmente e le statistiche di Steam non sono complete.
Realizzare un titolo dedicato implica costi di produzione che non forniranno un guadagno adeguato se non si raggiunge un certo num di vendite, realizzare invece un porting è molto semplice ( relativamente parlando ), veloce e economico.
in più se non ci sono limiti tecnici è meglio per uno sviluppatore rilasciare il proprio gioco ad un numero più alto possibile di piattaforme, per ampliare il bacino d'utenza e guadagnare il più possibile
e se lo sviluppatore non ha abbastanza soldi per occuparsi di più piattaforme allo stesso momento rilascia il suo gioco indie su PC e se ha successo in seguito lo pubblica anche su console, e vende pure lì nonostante i consolari fino al giorno prima lo schifassero perché il termine "indie" gli fa brutto, mai capito il perché
cmq per quanto mi riguarda titoli alla uncharted sono sopravvalutati. apprezzo i naughty dog ma per titoli sempliciotti del genere non ci spenderei più di 10€
PS: su pc non ci sono mica solo mmo, indie e strategici
PaulGuru
20-05-2016, 12:55
cmq per quanto mi riguarda titoli alla uncharted sono sopravvalutati. apprezzo i naughty dog ma per titoli sempliciotti del genere non ci spenderei più di 10€
PS: su pc non ci sono mica solo mmo, indie e strategici
Uncharted bello o non bello è solo un MP e non è nemmeno un RPG quindi la sua longevità per quanto lunga o corta nel suo genere, tempo una decina di ore ed è scaffale.
Il PC vanta molte esclusive, MMO, gestionali e simulatori e sparatutto anche se quelli di punta finiscono poi anche su console ( The Witcher, Crysis, Assetto Corsa ), anche se Xcom2 e UT sono ancora esclusive PC.
Ma ultimamente si sono aggiunte anche quelle MS, come Forza Motorsport e GoW che è vero che stanno anche su Xbox, però non ci sono su PlayStation.
Ed inoltre c'è una migliore giocabilità su PC su tutti i titoli che non siano platform.
Giocare un FPS o RTS con mouse e tastiera è un altra cosa.
Giocare ad un simulatore con i settaggi avanzati del volante, una postazione di guida e più monitor è un altra cosa.
Un simulatore di volo stessa cosa.
PaulGuru
20-05-2016, 15:21
Uncharted e' la dimostrazione che ci sono team con capacita' di programmazione mostruose.
E' un titolo che ha una regia da paura e scene di azione degne di un film alla Fast and Furious 7 e Mission Impossible.
Sarebbe interessante vedere lo stesso team al lavoro su un PC di fascia alta.
Le capacità di programmazione riguardano altri aspetti, riguardano motore grafico e gameplay, la trama, la narrazione è un altra cosa.
PaulGuru
20-05-2016, 15:55
Vabbe, mi rimane incomprensibile come non riescano a fare un titolone bomba dedicato ai PC di fascia alta.
E' vero che il mondo PC ha prezzi piu bassi sui giochi, quindi, non pagando royalities, i guadagni per che crea i videogame sono bassi.
Su console propbabilmente c'e' un guadagno maggiore.
Su PC credo che i maggiori introiti siano dovuti agli acquisti in game degli MMO & co.
ma a che pro fare un titolo del genere su pc ? dal punto di vista del produttore non si guadagnerà mai abbastanza
Uncharted e' la dimostrazione che ci sono team con capacita' di programmazione mostruose.
E' un titolo che ha una regia da paura e scene di azione degne di un film alla Fast and Furious 7 e Mission Impossible.
Sarebbe interessante vedere lo stesso team al lavoro su un PC di fascia alta.
l'hai fatto apposta a prendere come esempi 2 film mediocri/discreti oppure sono i primi che ti sono venuti in mente? xD
cmq ripeto, apprezzo sicuramente quello che i naughty dog riescono a tirar fuori dalle scatolette, ma per me un titolo straight forward che dura una manciata di ore come uncharted non può competere neanche lontanamente con titoli ben più corposi
a questo punto sul titolone bomba per pc di fascia alta fa un esempio pratico. che genere, sviluppato da chi, con quali soldi, su quale client, con quali specifiche minime e con quale bacino di utenza
se trovi una soluzione logica e remunerativa (bisogna sempre guadagnarci) i miei complimenti
PaulGuru
20-05-2016, 17:05
Non vorrei dire ma UT ( l'attuale ancora in alpha ) è esclusiva PC, è gratuito ed è gestito e sviluppato dalla comunity
Atenanosaint
20-05-2016, 19:24
E' spiegabile col fatto che AMD esce sempre tardi con i drivers ottimizzati, segno che c'è gente che non lavora lì dentro.
Doom stava già disponibile in beta da un pezzo e questi solo ora han tirato fuori il driver adatto ? Nvidia già l'aveva reso disponibile prima dell'uscita.
Questo, ma non solo. Credo che la parte del leone la facciano, come purtroppo già detto, gli accordi commerciali sottobanco tra produttrici hw e software House che di fatto "penalizzano" le versioni amd con una mancata ottimizzazione volta ad aumentare le quote di mercato nvidia
PaulGuru
20-05-2016, 19:33
Questo, ma non solo. Credo che la parte del leone la facciano, come purtroppo già detto, gli accordi commerciali sottobanco tra produttrici hw e software House che di fatto "penalizzano" le versioni amd con una mancata ottimizzazione volta ad aumentare le quote di mercato nvidia
Nvidia detiene il 70% circa del market share delle discrete, è normale che le SH possano dare priorità ad esse.
Tuttavia i ritardi con i drivers non può essere colpa di nessuno.
Atenanosaint
20-05-2016, 19:47
Nvidia detiene il 70% circa del market share delle discrete, è normale che le SH possano dare priorità ad esse.
Tuttavia i ritardi con i drivers non può essere colpa di nessuno.
Infatti amd ci mette sicuramente del suo con la vicenda driver ed ormai si é putroppo screditata. É un peccato vedere schede con prestazioni alla pari della concorrenza, più economiche ma purtroppo relegate in un angolo del mercato per via delle loro politiche scriteriate
PaulGuru
20-05-2016, 19:50
Infatti amd ci mette sicuramente del suo con la vicenda driver ed ormai si é putroppo screditata. É un peccato vedere schede con prestazioni alla pari della concorrenza, più economiche ma purtroppo relegate in un angolo del mercato per via delle loro politiche scriteriate
Perdonami ma un produttore che si trova in situazione di handicap e che deve dimostrare qualcosa non si permette di temporeggiare con l'uscita.
Quindi io consumatore ho davanti la gamma Nvidia ma devo temporeggiare che AMD faccia i suoi comodi per acquistare ? Se hai bisogno di tempo va bene ma tira fuori i benchmark del tuo sample perchè se stai in silezio e mi costringi a temporeggiare mi aspetto che quando escano siano chiaramente davanti altrimenti è una mancanza di rispetto.
Atenanosaint
20-05-2016, 19:55
Perdonami ma un produttore che si trova in situazione di handicap e che deve dimostrare qualcosa non si permette di temporeggiare con l'uscita.
Quindi io consumatore ho davanti la gamma Nvidia ma devo temporeggiare che AMD faccia i suoi comodi per acquistare ? Se hai bisogno di tempo va bene ma tira fuori i benchmark del tuo sample perchè se stai in silezio e mi costringi a temporeggiare mi aspetto che quando escano siano chiaramente davanti altrimenti è una mancanza di rispetto.
Ma la pensiamo allo stesso modo eh, non per altro amd ha attualmente la quota di mercato che si merita
Come azione fast 7 fa paura, il salto con la macchina tra i tre palazzi é uno spettacolo. La rissa tra the rock e statham è un momento clou degli action movie, esattamente come la scena dell'aereo di scwharzenegger nell'eliminatore.
Non si giudica un titolo dalla durata. Uncharted é un action e come tale va visto, esattamente come non si può paragonare un film fatto di scene d'azione esagerate alla trilogia di Lars von trier sulla depressione.
Se per titoli corposi intendi i vari strategici / mmo da mille ore con seimila menù te li lascio volentieri , ho già dato.
Fermo restando l'assurdo di paragonarli a un titolo action, se devo dire la mia sono giochi che oggi aborro per almeno tre motivi.
Primo non ho più il tempo di stare ore e ore e ore al Pc a ponzare truppe,città personaggi o astronavi "catena di montaggio style" all'infinito .
Per poi cosa ? Per andare a pistarmi col ressone?
Secondo nei giochi on Line é impossibile competere con i matti fissati che si allenano ore e ore.
Terzo in molti giochi mmo la gente paga coi soldi per ponzarsi. No grazie.
Un titolone super ponzato con una gran regia sarebbe un bell'incentivo per mostrare i muscoli con queste schede video , ma credo di aver capito che ci si deve accontentare dei multi con i dettagli al palo.
Poi probabilmente i gusti dei piciisti sono proprio diversi, temo che si buttino un po' tutti sull'online tutto menù e risse.
dei gusti dei pcisti mi sa che non hai capito molto. agli mmo ci giocano prevalentemente ragazzini di 10-12, sfruttando il fatto che la maggior parte di questi è gratuita. definirli persino giocatori è un azzardo
per curiosità, ma anche per fare un esempio concreto, io gioco a molti action rpg. ora, non noti un certo distacco tra quanto offerto da un action come uncharted o i recenti tomb raider (visto che son fatti con la stessa pasta) rispetto ad un the witcher 3?
vero che non si giudica un titolo esclusivamente sulla durata, ma fare un gioco da una manciata di ore con gameplay quasi assente richiede molto meno sforzo rispetto a giochi ben più lunghi, ricchi e complessi come un gdr. e personalmente se tw3 l'ho preordinato a circa 30€ su gog, non vedo perché un titolo puramente action che ha dalla sua solo una buona narrazione debba meritarne più di 10. Il divario dopotutto è enorme
però sto ancora aspettando il tuo esempio
Non vedo come si possa confrontare un gioco di ruolo con un titolo super action.:
:confused:
conosco gente che li schifa i titoli alla the witcher , skyrim, gothic ecc. E si esalta con god of War, bayonetta 2 e devil May Cry....
É propio il concetto di paragonare due cose diverse che non regge.
Uncharted e the witcher sono due titoli di riferimento ognuno nel proprio genere.
Sui gusti dei piciisti invece temo di avere capito , visto che gli ultimi dati anche pubblicati qui su hwupgrade parlavano di un mercato dominato da MOBA, free on line e fps.
Con fatturati mostruosi oltretutto.
L'esempio di cosa?:confused:
non ho mai confrontato i due generi tra loro, confronto le risorse necessarie per la loro creazione. mi pare ovvio che, a parità di qualità complessiva, creare un rpg open world richieda più risorse rispetto ad un gioco action
di conseguenza io un gioco action dalla durata di 10-15 ore lo pago massimo 10€
sui gusti dei pcisti (quelli veri) magari fa un salto nella sezione dedicata. poi dimmi quanti post su moba e freetoplay trovi (e dico post per venirti incontro)
d'altronde il mercato più remunerativo per quanto riguarda i videogiochi è quello mobile. li chiameresti videogiocatori? personalmente no
l'esempio che ti chiedevo era sul titolone da pc di fascia alta che tanto desideri (credo)
a questo punto sul titolone bomba per pc di fascia alta fa un esempio pratico. che genere, sviluppato da chi, con quali soldi, su quale client, con quali specifiche minime e con quale bacino di utenza
se trovi una soluzione logica e remunerativa (bisogna sempre guadagnarci) i miei complimenti
Un mafia 3 esclusivo pc, che tagli fuori ovviamente le schede di fascia bassa e mediobassa.
Ovviamente non lo metti a 30 euro dopo 6 mesi, lo prezzi 59€ secco.
Obbiettivo vendere un numero di copie stile una esclusiva console.
Replichi il business model Sony e Nintendo.
ok, hai fatto l'esempio del titolo. ora: chi lo finanzia? quale sarebbe la convenienza nell'annullarne la scalabilità, tagliando via non solo il mercato console, ma anche buona parte del mercato pc? come fai a rientrare della spesa?
la cosa è semplice su console: sony produce la ps4, prende soldi sia vendendo la console che con le royalties dei giochi. ogni tanto finanzia la creazione di un gioco (interamente o in parte) che sia esclusiva per la propria piattaforma, al fine di vendere più console e prendere anche la sua fetta dalle copie vendute
su pc un proprietario non esiste, chi avrebbe interesse nello spendere decine di milioni di € per sviluppare un gioco che non gli porti un giovamento tangibile?
Sony con la vendita della play 4 ci va in pari, credo.
Una volta la vendeva in perdita pesa, generando buchi triennali addirittura.
Nel mondo pc è un po' diverso, ma nvidia ha chiuso il primo trimestre 2016 fatturando 1,305 miliardi di dollari, se volessero potrebbero fare quello che gli pare.
quello lo so, ma sony guadagnava (e guadagna) da ogni copia del gioco venduta, ed ora intasca pure i soldi per internet
nvidia non guadagnerebbe nulla nel pubblicare un titolo su pc. il pc non è una piattaforma unica, il ruolo di nvidia è solo in ambito gpu, rilasciare un titolo non scalabile non gli porterebbe nulla di buono, non ha un client tramite il quale vendere il gioco, ed il bacino di utenza sarebbe ristrettissimo (possessori di gtx 970, 980, 980ti e titan x). per rientrare delle spese dovrebbe vendere il gioco a tutti i possessori delle schede in questione a svariate centinaia di € per copia
assolutamente irrealizzabile
una software house preferirà sempre ampliare il più possibile il proprio bacino di utenza per guadagnare di più. questo a meno che non si tratti di un gioco non adatto ad una console. ho fatto alcuni esempi prima, già che ci sono aggiungo arma 3
Theodorakis
20-05-2016, 23:38
Sony con la vendita della play 4 ci va in pari, credo.
Una volta la vendeva in perdita pesa, generando buchi triennali addirittura.
Nel mondo pc è un po' diverso, ma nvidia ha chiuso il primo trimestre 2016 fatturando 1,305 miliardi di dollari, se volessero potrebbero fare quello che gli pare.
Ha fatturato 1305 ma gli utili sono 196 milioni.
Un gioco tripla A costa circa 60 milioni di dollari: http://kotaku.com/how-much-does-it-cost-to-make-a-big-video-game-1501413649
Fatti un po' i tuoi conti ...
MiKeLezZ
21-05-2016, 00:10
Un mafia 3 esclusivo pc, che tagli fuori ovviamente le schede di fascia bassa e mediobassa.
Ovviamente non lo metti a 30 euro dopo 6 mesi, lo prezzi 59€ secco.
Obbiettivo vendere un numero di copie stile una esclusiva console.
Replichi il business model Sony e Nintendo.Dopo 1 giorno partono migliaia di reclami di gente che l'ha comprato pur avendo hardware ATI e chiede il rimborso e/o non capisce perché non vada
Dopo 2 giorni esce la patch per farlo funzionare su hardware ATI e craccarlo fino al midollo (ovviamente tutti i possessori ATI si sentono in diritto di scaricarlo pirata)
Dopo 3 giorni parte la campagna "boycott Nvidia", "Nvidia gioca sporco", etc, dei vari esaltati in giro per il mondo, fomentati ovviamente dal reparto marketing ATI, e il tutto si ritorce contro in pubblicità negativa
Dopo 1 settimana Nvidia deve correre ai ripari regalando a tutti il giochino (o togliendolo dal commercio), buttando così al cesso milioni di investimento
Dopo 2 settimane parte la class action di quelli del punto 1, con annessa richiesta all'antitrust per comportamenti anticoncorrenziali (inserimento di righe di codice che limita uno specifico hardware)
Se Nvidia ha preferito buttarsi nel Nvidia Shield e Nvidia Streaming ci sarà un perché, non credo che in un'azienda milionaria al reparto marketing ci lavorino degli handicappati che necessitano dei consigli di tale -]PwR_SnIpER_74[- che ci sa perché OverCloKKa il PC
tuttodigitale
21-05-2016, 00:10
è dalle xqualcosa di un decennio fa che si aspettano i nuovi mirabolandi driver che appianano il distacco sempre presente
le x qualcosa(x800-x1800-x1900), andavano qualcosa in più (la x1900 decisamente di più) delle nvidia 6800-7800 (con l'eccezione della versione paper 512) -7900, rispettivamente
Premesso che le HD4000 e successive avevano un efficienza assurda (AMD si è data la zappata con la politica di avere un die minuscolo rispetto alla concorrenza, ma la superiorità dell'architettura vliw era quanto mai evidente), è innegabile che le prestazioni delle HD7970, che andava marginalmente meglio della gtx580 nel paper launch, siano aumentate a dismisura, mese dopo mese.
Oggi, per non curanza dei driver (come dicono i fanboysti nvidia, e se fosse il caso c'è ben poco da gioire), o per il fatto che GCN, era più adatta ai giochi che dovevano uscire, il gap non solo si è ridotto, ma oggi sia la r9 290x che la r9 280x, sono più veloci a 2560x1440, della gtx780ti (+10%), che della gtx770 (+32%)....la situazione non si è semplicemente capovolta, a favore delle soluzioni AMD, ma la differenza è stata ampliata
La differenza, oggi tra la r9 280x e la 780ti, è di appena +24% (la r9 280x ha le stesse prestazioni della 780 originale, una costava 300 euro l'altra 650 :read: )
https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/perfrel_2560_1440.png
PS la r9 280x è leggermente più lenta della HD7970GHz, e la 770, è circa il 10% più veloce della 680....
PS la fury X, ha raggiunto la 980ti, anche a questa risoluzione.
PaulGuru
21-05-2016, 13:50
SCUSATE MA QUANDO ESCE ?
PaulGuru
21-05-2016, 14:08
le x qualcosa(x800-x1800-x1900), andavano qualcosa in più (la x1900 decisamente di più) delle nvidia 6800-7800 (con l'eccezione della versione paper 512) -7900, rispettivamente
Premesso che le HD4000 e successive avevano un efficienza assurda (AMD si è data la zappata con la politica di avere un die minuscolo rispetto alla concorrenza, ma la superiorità dell'architettura vliw era quanto mai evidente), è innegabile che le prestazioni delle HD7970, che andava marginalmente meglio della gtx580 nel paper launch, siano aumentate a dismisura, mese dopo mese.
Oggi, per non curanza dei driver (come dicono i fanboysti nvidia, e se fosse il caso c'è ben poco da gioire), o per il fatto che GCN, era più adatta ai giochi che dovevano uscire, il gap non solo si è ridotto, ma oggi sia la r9 290x che la r9 280x, sono più veloci a 2560x1440, della gtx780ti (+10%), che della gtx770 (+32%)....la situazione non si è semplicemente capovolta, a favore delle soluzioni AMD, ma la differenza è stata ampliata
La differenza, oggi tra la r9 280x e la 780ti, è di appena +24% (la r9 280x ha le stesse prestazioni della 780 originale, una costava 300 euro l'altra 650 :read: )
https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/perfrel_2560_1440.png
PS la r9 280x è leggermente più lenta della HD7970GHz, e la 770, è circa il 10% più veloce della 680....
PS la fury X, ha raggiunto la 980ti, anche a questa risoluzione.
Magari perchè Nvidia non fornisce più lo stesso supporto alle vecchie generazioni.
Il parco giochi utilizzato ora è differente da quello usato all'epoca e se il supporto per le 700 in giù non è più pari alla gamma di riferimento è normale che perdano performance, ma oramai i giochi sono fatti.
Infatti guardacaso la serie 1000 e 900 sono in linea.
Non mi stupirei se fra poco anche le 900 cominciassero a fare i gamberi in classifica.
tuttodigitale
21-05-2016, 15:17
Infatti in occasione, del test con una versione OC della gtx980ti, techpowerup aveva svecchiato la batteria di benchmark e la Fury aveva subito un importante incremento nei grafici: mentre la differenza tra la 980 e la 780ti è rimasta immutata (o quasi):
http://wccftech.com/amd-r9-fury-x-performance-ahead-nvidia-980-ti-latest-drivers/
E comunque non si spiega, la notevole caduta di prestazioni per la 770, anche rispetto alla 780ti, con la quale eredita l'architettura di base...
PaulGuru
21-05-2016, 15:42
Infatti in occasione, del test con una versione OC della gtx980ti, techpowerup aveva svecchiato la batteria di benchmark e la Fury aveva subito un importante incremento nei grafici: mentre la differenza tra la 980 e la 780ti è rimasta immutata (o quasi):
http://wccftech.com/amd-r9-fury-x-performance-ahead-nvidia-980-ti-latest-drivers/
E comunque non si spiega, la notevole caduta di prestazioni per la 770, anche rispetto alla 780ti, con la quale eredita l'architettura di base...
Sono schede vecchie.
Non più supportate a dovere probabilmente.
Comunque non esageriamo, se andiamo a guardare altri portali la situazione potrebbe non essere la stessa :
http://oi65.tinypic.com/2u4slmw.jpg
http://oi66.tinypic.com/53pqb7.jpg
Atenanosaint
21-05-2016, 15:46
Ma i bench lasciano il tempo che trovano se, a lato pratico nel gioco la differenza tra due vga con pari caratteristiche é poi tremendamente a favore di Nvidia. Queste sono le cose che contano
Ton90maz
21-05-2016, 15:52
non ho mai confrontato i due generi tra loro, confronto le risorse necessarie per la loro creazione. mi pare ovvio che, a parità di qualità complessiva, creare un rpg open world richieda più risorse rispetto ad un gioco action
di conseguenza io un gioco action dalla durata di 10-15 ore lo pago massimo 10€
sui gusti dei pcisti (quelli veri) magari fa un salto nella sezione dedicata. poi dimmi quanti post su moba e freetoplay trovi (e dico post per venirti incontro)
d'altronde il mercato più remunerativo per quanto riguarda i videogiochi è quello mobile. li chiameresti videogiocatori? personalmente no
l'esempio che ti chiedevo era sul titolone da pc di fascia alta che tanto desideri (credo)Quindi i giochi si pagano a budget o a ore? Perché non a chili magari?
Se un Uncharted lo paghi massimo 10 euro (che, tra parentesi, dovrebbe vendere 7-8 milioni di copie per rientrare negli investimenti, supponendo circa 40-50 milioni di budget), un titolo di quelli che dici tu massimo 20, giusto? Perché la differenza di budget può essere minore di quanto si pensi quando si paragona un titolo con un mega open world ma statico con un titolo in cui un paio di scene possono richiedere l'ira di dio di tempo e investimenti. Sono convinto che un Fallout costi meno, quello lo pagherai 5-6 euro?
PaulGuru
21-05-2016, 16:06
Ma i bench lasciano il tempo che trovano se, a lato pratico nel gioco la differenza tra due vga con pari caratteristiche é poi tremendamente a favore di Nvidia. Queste sono le cose che contano
Più che altro conta essere davanti nei titoli specifici che attirano.
PaulGuru
21-05-2016, 16:07
Quindi i giochi si pagano a budget o a ore? Perché non a chili magari?
Se un Uncharted lo paghi massimo 10 euro (che, tra parentesi, dovrebbe vendere 7-8 milioni di copie per rientrare negli investimenti, supponendo circa 40-50 milioni di budget), un titolo di quelli che dici tu massimo 20, giusto? Perché la differenza di budget può essere minore di quanto si pensi quando si paragona un titolo con un mega open world ma statico con un titolo in cui un paio di scene possono richiedere l'ira di dio di tempo e investimenti. Sono convinto che un Fallout costi meno, quello lo pagherai 5-6 euro?
Il mega titolo su PC non deve necessariamente essere tecnicamente mostruoso.
Basta qualcosa come l'attuale UT, un multiplayer only ma bello e che sia un riferimento come Conter Strike o WoW.
Potrei dire che l'UT attuale possa bastare, peccato sia sviluppato in quel modo, infatti ancora oggi stà in pre-alpha.
tuttodigitale
21-05-2016, 16:27
Sono schede vecchie.
Non più supportate a dovere probabilmente.
http://oi66.tinypic.com/53pqb7.jpg
questo test conferma, che le r9 290x (390) vanno mediamente il 13% di più delle gtx780 ti anche in FHD.
PaulGuru
21-05-2016, 16:31
questo test conferma, che le r9 290x (390) vanno mediamente il 13% di più delle gtx780 ti anche in FHD.
Sembra di sì, ma le 900 mantengono le loro posizioni iniziali.
E la 980Ti è di nuovo davanti alla FuryX, addirittura con del margine.
Nel caso comunque forse i 2/3GB delle 700 possono aver pagato nei confronti dei 4GB delle 290
Quindi i giochi si pagano a budget o a ore? Perché non a chili magari?
i giochi li pago quanto pare a me in base a gusti, simpatia, ore offerte e qualità generale del titolo. sinceramente non vedo perché stranirsi
Se un Uncharted lo paghi massimo 10 euro (che, tra parentesi, dovrebbe vendere 7-8 milioni di copie per rientrare negli investimenti, supponendo circa 40-50 milioni di budget), un titolo di quelli che dici tu massimo 20, giusto? Perché la differenza di budget può essere minore di quanto si pensi quando si paragona un titolo con un mega open world ma statico con un titolo in cui un paio di scene possono richiedere l'ira di dio di tempo e investimenti. Sono convinto che un Fallout costi meno, quello lo pagherai 5-6 euro?
i titoli che dico io massimo 35
la parte centrale del discorso rientra in quella che è la qualità del titolo. è grazie a quella che uncharted passa nella classifica teorica dei 10€, altrimenti avrebbe fatto compagnia a tomb raider (5€)
per giocare a fallout è bethesda che deve pagarmi, e non mi accontento certo di 5-6€ :D
sulla questione "serie vecchie di nvidia"...non vorrei sollevare il solito discorso, ma che castrino le serie precedenti per invogliare il passaggio a quella nuova ormai si sa. certo, li sgamano quasi subito e sono obbligati a sistemare la cosa, ma il tira e molla c'è
tuttodigitale
21-05-2016, 17:26
Ma i bench lasciano il tempo che trovano se, a lato pratico nel gioco la differenza tra due vga con pari caratteristiche é poi tremendamente a favore di Nvidia. Queste sono le cose che contano
nvidia, ci ha provato a fornire qualcosa che analizza la cosa con FCAT (con il senno di poi un'astuta mossa di marketing), per fare credere che le prestazioni altamente competitive di AMD siano state ottenute barando...
Anche se in seguito, grazie allo sviluppo di nuovi driver, le prestazioni sono aumentate unite al miglioramento dell'andamento dei fps, che di fatto smentiscono quanto si era ipotizzato, ad AMD è rimasta l'etichetta di tanti fps ma non buoni...
il risultato che oggi vediamo, a seconda del titolo, un grafico più o meno ballerino, per l'una o l'altra parte...
Sembra di sì, ma le 900 mantengono le loro posizioni iniziali.
E la 980Ti è di nuovo davanti alla FuryX, addirittura con del margine.
La Fury, al debutto è stata dietro alle 980ti, del 4-6%, per poi recuperare il gap in 4k (nel sito che tu hai linkato la fury va il 4% in più in 4k http://www.computerbase.de/2016-05/geforce-gtx-1080-test/7/).
Nello specifico in computerbase il gap si amplia, passando dal 4 a 5% a 2560x1440, ma allo stesso tempo anche il gap, questa volta a favore della Fury, passa dal 3 al 4%. Possiamo dire che almeno per computerbase non sia cambiato niente, mentre il gap tra la gtx770 e la 280x passa dal 3 al 10% (sempre in favore della soluzione AMD)
La cosa interessante, che anche a default, la frequenza della 1080, decresce all'aumentare della risoluzione.
PaulGuru
21-05-2016, 17:40
La Fury, al debutto è stata dietro alle 980ti, del 4-6%, per poi recuperare il gap in 4k (nel sito che tu hai linkato la fury va il 4% in più in 4k http://www.computerbase.de/2016-05/geforce-gtx-1080-test/7/).
Nello specifico in computerbase il gap si amplia, passando dal 4 a 5% a 2560x1440, ma allo stesso tempo anche il gap, questa volta a favore della Fury, passa dal 3 al 4%. Possiamo dire che almeno per computerbase non sia cambiato niente.
La cosa interessante, che anche a default, la frequenza della 1080, decresce all'aumentare della risoluzione.In realtà in 4K anche prima la FuryX tendeva a brillare, semplicemente lo score in quella risoluzione è ridicolo per poter giocare.
Comunque perdonami ma sono variazioni ridicole, 1-2% non sono nemmeno delle variazioni, devi considerare che il parco giochi è pure differente e che forse agli inizi i driver per FuryX era un poco acerbi essendo uscita in nettissimo ritardo ( praticamente adesso è già obsoleta ).
A proposito di scaling...il numero di transistor per mmq è aumentato solo del 70%...per contro per Polaris, si parla di 8+ miliardi di transistor (vs 7,2) in 232mmq (vs 314mmq).
sulla carta non ci sono differenze tra i 14nm LPP e i 16nm FF+...
Possibile che l'aumento di clock, sia la causa di un livello di integrazione non certo esaltante?
ti faccio notare che GP104 conta 7.2B di transistor x 314mm^2 contro i 15.3B e 610 mm^2 di GP100, con la sola differenza che GP104 usa un bus a 256b, pentre GP100 ne usa uno HMB, ma ha anche un sacco di roba PRO che nel gaming non viene usata (FP64 e tutta la caches necessaria per dire di averli, sti' 64 bit a virgola mobile).
e' vero che GP100 ha 3840 cuda mentre GP104 solo 2560, ma...
se GP104 e' piu' della meta' di GP100 guardando il numero di transistor ci sono poche condizioni (sempre se hanno usato un'architettura simile per i due chip) che giustificano questi numeri:
se partiamo da GP104 per ricostruire GP100 notiamo che la differenza di CUDA e' esattamente la meta' proprio di GP104, quindi un GP100 senza FP64 e caches sarebbe i 3/4 del chip... e gli FP64? e la caches? possono rientrare solo in 1/4 dello spazio? no... e il numero di transistor? la loro differenza e' praticamente di 2:1... no, non rientra.
se partiamo da GP100 per ricostrire GP104, in ottica gaming disabilitando FP64, come consuetudine nVidia, avremmo che quel chip dovrebbe essere da 430-440mm^2 ed avere 10B di transistro, molti non attivi; anche qui non mi pare sia una cosa possibile.
se invece partiamo da un GP104 con FP64 e caches disabilitata e lo moltiplichiamo per 2, disabilitando il 25% di CUDA otteniamo: 2560x.75=1920 (GP104 in versione 1070) x 2 =3840 CUDA... moltiplichiamo per 2 la superficie ed otteniamo 315x2 = 630... non ci siamo, ma il fatto e' che GP100 ha un bus HMB e non un DDR (che tra' l'altro gli risulterebbe da 512b), e GP104 ha solo il bus 256b ddr...
ma se noi consideriamo il bus HMB a 4096b anche in GP104, togliendolo dai mm^2, e consideriamo questo bus occupare 18mm^2 otteniamo:
(314-18)*2=592 rimettiamo il bus 592+18=610.
quindi GP100 avrebbe in realta' 2560x2=5120 CUDA completi di FP64 e relativa caches (e hai buone speranze di prendere chip fallati in qualche CUDA per trovare un GP100 buono), un bus DDR a 512b disabilitato e un bus HMB da 4096, mentre GP104 avrebbe 2560 CUDA con FP64 e caches disabilitati, un bus di 256b e un bus HMB da 4096b disabilitato.
e il conteggio di mm^2, CUDA, transistors e menate varie soddisfano equazione...
i dei 7.2B di transistor di GP104 e' grasso che cola che ce ne siano 5-5.5B operativi, come per GP104 i 15.3 di GP100 saranno si e no 11B.
quindi il conteggio sui milioni di transistor che tutti si fanno sui chip nvidia e' falsato dal fatto che parte dell'HW viene sempre e comunque disabilitato (e spesso solo in software, quindi continua comunque ad essere alimentato) per impedire l'uso delle schede com GPComputing (FP64).
AMD con fiji XT le ha proprio tolte le FP64, preferendo un double FP32, ecco il perche' di 1/16 delle prestazioni in double.
in sintesi Pascal e' un maxwell rieditato in qualche sua piccola parte di contorno, migliorato con SMP (probabilmente hanno messo un ulteriore reg intermedio alla pipeline invece di uno solo alla fine, a differenza di AMD che ne ha uno a singolo stadio) e, grazie al PP, sparato in frequenza.
si perde leggermente linearita' prestazionale per quella piccola aggiunta, che porta da 17 a 16 gli stadi finiti di pipeline.
in pratica Pascal e' (freqPascal*(16/17))/freqMaxwell) rispeto a maxwell.
lo schifo totale l'hanno fatto con la 1070, che e' un GP100 ulteriormente castrato, e che quindi puo' vantare solo una piccola percentuale in meno di assorbimento rispetto ad un buon 30% in meno di prestazioni... ma i mm^2 sono gli stessi... quel chip avra' si e no 4B di transistor funzionanti su 7.2B alimentati, e lo metteranno pari pari nei portatili come 1080M.
questa scheda nvidia la sta' vendendo gia' in overclock, e senza sezione di alimentazione aggiuntiva, perche' sanno che se l'avessero messa (un'altro 6PIN) la gente avrebbe usato la maggiore potenza e l'avrebbe bruciata.
il clock massimo raggiungibile quando metteranno le schede custom con liquido e 6+8pin saara' comunque di 2300mhz per 250-260W.
sinceramente, a me non importa molto di queste cose perche' con il PC non ci gioco da una vita, ma Pascal l'hanno fatto proprio con le pezze!
il rapporto tra' 970 e 980 vendute e' di 5:1, e l'unico motivo che giustifica tale ridondanza modulare di questi chip e' che le rese sono sotto il 20% per un chip che funziona in tutte le sue parti, e i CUDA di 1080 sono il conteggio massimo per quel modulo (sono praticamente tutti attivi, tranne che nella loro parte FP64).... il resto cercano di dirottarlo su 1070.
fa' sperare comunque in un GP100 completo con 5120 CUDA, ma visto che quello castrato sta' a 3000 euro... non oso pensare quanto nvidia te lo possa far pagare un coso del genere.
quindi si... questa gen nvidia e' meglio lasciarla dov'e'... non hanno un processo affinato.
PS:
ora continuo a leggere i commenti , perche' mi diverto sempre un sacco a leggere le putt..ate di certi utenti.
monster.fx
21-05-2016, 18:46
Sono schede vecchie.
Non più supportate a dovere probabilmente.
Comunque non esageriamo, se andiamo a guardare altri portali la situazione potrebbe non essere la stessa :
http://oi65.tinypic.com/2u4slmw.jpg
http://oi66.tinypic.com/53pqb7.jpg
Personalmente e solo IMHO non vi è la necessità nell'immediato di passare dalla mia R9 390@1160 a una nuova Nvidia .
OK il gap è del 40% ... potrei essere considerato "limitato" ma giocare a 60fps su 100fps non lo vedo frustrante ... certo i titoli che girano sulla GTX1080 a 40 a me andranno a 23/25 fps ... pazienza ... al massimo investo in una R9 390 da abbinare ... quando ci sarà reale necessità.
Giocare a 4k? Con gli attuali monitor con frequenze basse non ne vedo la necessità ... Sicuramente bellissimi per la grafica(2D/3D) ... ma non ne sento la necessità impellente.
Io sapete come la vedo questa mossa di Nvidia ?
Questa GTX1080 va' come uno SLI di 980, consumando meno e costando leggermente meno . Di fatto scala a "solo" SLI (quindi niente 3 o 4 VGA per essere fighi)e le prestazioni sono in linea.
Il 30% e in DX11 e drivers acerbi.
Per il confronto con la nuova Titan X c'è da aspettare la nuova Titan
Va quasi il doppio rispetto alla controparte 980, lo stesso farà la prox Titan con l'attuale presumo.
ma quale driver acerbi che e' pari pari la stessa architettura!
al massimo non usano qualche nuova tecnologia, ma se il gioco e' fatto in quel modo ed il motore non la sfrutta... rimane li'.
PaulGuru, sta' scheda fa' di piu' solo per le frequenze, che per FE sono pure sopra al boost nominale di 1733, arrivando a 1850!
tirala bene per 2 ore e vedrai che fara' solo il 15% in pui' di una 980Ti, ma...
650 euro x 1.15 = 750 non 800...
ad oggi nvidia chiede ancora di piu' per le sue prestazioni.
ancora di piu', quando l'esigenza e' di scendere della meta'.
A me pare che tutto il marketing del piffero sull'asych e le Dx12 si stia rivelando per la fuffa che è, ossia dubito che questa roba faccia la differenza su sistemi potenti ma sono incline a credere che (come Mantle) serva soprattutto a sistemi deboli.
Ho visto tonnellate di bench in giro in cui Dx12 ha performance sistematicamente inferiori a Dx11. Ora le Dx12 sono in giro da un anno, dire che sono acerbe mi pare fuori luogo, vero che ci sono pochi giochi ma le performance sono mostruosamente deludenti per quelle che dovevano essere le librerie in grado di sprigionare più potenza.
...appena intel ti fa' i suoi chip mainstream che non supereranno i 3Ghz ma che avranno 8 core ne riparliamo...
Bei tempi!
E poi arrivarono i primi Flatron che costavano una fucilata, ma finalmente piatti....
E oggi dal piatto torniamo al display curvato, che costa una fucilata....
Seems legit :fagiano:
si, ma la curva e' nell'altro senso... vuoi mettere!
Concordo,
nVidia ha azzardato e AMD deve dimostrare qualcosa, almeno nella fascia Top e non tanto per una questione di numeri (è nella fascia media che si gioca la vera partita) quanto come immagine.
Un plauso le va senz'altro per il coraggio di alcune soluzioni innovative adotate (vedi HBM) per le quali però ha anche pagato il prezzo (limite dei 4 GB).
Spero faccia bene... e che almeno nel mondo VGA rimanga un bel dualismo.
Nel mondo CPU c'ho perso le speranze... e tutti noi ci abbiamo perso in generale.
un momento: la fascia top da una generazione all'altra passa a medio alta, ma qui son 4 generazioni fermi allo stesso processo.
la fascia top dell'ultima generazione 28nm dovrebbe essere la media della generazione a 16-14nm.
nvidia non ha voluto fare uno strappo troppo grande, prendendo la nomenclatura della medio alta dei 28 e mettendola sopra alla top dei 28 con la sua nuova 1080, ma i prezzi li ha mantenuti lineari, anzi, pure piu' alti!
se 1080 fara' costantemente il 30% in piu' di 980Ti, cosa che non fa' a causa della saturazione termica (e con quel dissipatore e' tutto dire), tu che fai? me la poni ad un prezzo linearmente concorde alle prestazioni?
650x1.3=845... 45 euro di sconto prestazionale?
sentite a me, se proprio volete perndere queste schede, aspettate che la fuffa sciami e che le mettano al loro reale prezzo: 500 euro.
e ci arriveranno molto velocemente... c'e' da aspettare solo che le giornate si rinfreschino.
Pussa via maledetto che mi rovini tutta la mia opera di autoconvincimeto!! :Prrr:
Dalla rece leggo "L'incremento delle prestazioni che abbiamo registrato a queste impostazioni alla risoluzione di 3840x2160 è stato complessivamente contenuto" ecc ecc ecc...
Ma è anche vero che queste sono pur sempre schede reference, con bios stock con PL castrato, driver e SW di OC ancora in alpha...
Sicuramente con le chede custom, dotate di raffreddamento migliore e i bios moddati che sbloccheranno il PL il discorso cambierà, e la scimmia sarà più dura da tenere a bada... :mad:
https://youtu.be/9DbYAFtpqNM?t=731
sarebbe un enormità considerando che tra i 16 e 14 c'è sulla carta appena il +10% di integrazione, ma probabilmente avranno scelto librerie più piccole possibili e clock contenuti.
16^2/14^2=1.30... altro che 10%.
c'è anche da dire che finchè la quasi totalità dei giochi verrà ottimizzata per l'ultima architettura nvidia, lasciando alle controparti amd ottimizzazioni al limite dell'ingiocabilità, purtroppo non ci sarà partita
Fixed ;)
Se Nvidia ci insegna qualcosa è che ama tarpare le prestazioni anche delle proprie schede per venderti le nuove ;)
Nvidia è un cancro, motivo per cui se AMD rilascia una buona scheda sotto i 300 me la prendo al day 1, supportare Nvidia è supportare il cancro di gameworks, le merdate di tesselation di The Witcher 3 o le merdate di Project Cars.
Tutta roba che penalizzava Nvidia quanto AMD, cioè roba che con 780ti facevi gli fps di una 960.
Ma si facessero esplodere sti ladri.
Nvidia detiene il 70% circa del market share delle discrete, è normale che le SH possano dare priorità ad esse.
Tuttavia i ritardi con i drivers non può essere colpa di nessuno.
ora sta' al 77% in calo dal 79% del trimestre passato su un mercato schede desktop in rialzo del 12%.
e quell'1.8% menzionato nella news dove indicavano AMD in ripresa sul mercato schede discrete mobili del 38.7%, senza pero' dire che in effetti stanno con il 17% in meno di schede vendute su un mercato mobile in calo del 21.8%);
mercato mobile in cui nvidia e' quella che ha pagato di piu' con un -37% sul venduto rispetto al trimestre precedente.
nel mercato generale AMD ha venduto uno 0.5% in meno rispetto al venduto del trimestre precedente, nvidia un 13.6 in meno...
a quanto pare la gente ha comprato molti meno notebook con dedicata nvidia e piu' discrete nvidia rispetto a prima... alla faccia di chi dice che si stanno aspettando le nuove soluzioni... la gente compra comunque.
Il problema è che così facendo giudichi un titolo senza averlo giocato.
In realtà infatti giudichi il genere , non la qualità del titolo.
inoltre bypassi totalmente le review, le quali a questi giochi in particolare hanno dato voti altissimi.
A me dovrebbero pagarmi per giocare agli strategici , pensa come siamo diversi.
Non sono tanto diversi dalla catena di montaggio. Risorse, costruisci, picchia, risorse , costruisci , aripicchia....Mi dai 7€ l'ora ci gioco.
il giudizio finale lo faccio solo una volta completato il titolo (a volte anche più volte). prima dell'acquisto 3 parametri su 4 sono certi (durata, simpatia, gusti); il quarto (qualità generale) la valuto in base a quanto mostrato fino ad allora ufficialmente e non (evitando cose troppo spoilerose), quando capita da review di giornalisti o appassionati del settore (quei 2-3 dei quali mi fido un po' di più, ma non troppo ovviamente) e soprattutto da utenti e persone che conosco che hanno già il gioco
in base alle informazioni accumulate faccio una valutazione iniziale di quello che per me può essere il giudizio complessivo del titolo (possibile capolavoro, molto bello, discreto/interessante, schifo) e lo vado ad inserire nella fascia di prezzo dedicata.
i giochi dei generi (o sotto-generi) che più apprezzo tenderò a pagarli di più rispetto ad altri, ed avranno più possibilità di essere acquistati con un tasso di sconto inferiore rispetto a giochi simili ma che mi hanno convinto meno, o titoli magari altrettanto belli ma appartenenti ad un genere che non mi entusiasma troppo (dei quali compro a poco solo quelli più meritevoli)
PS: per precisare l'ultima cosa, nel caso non si fosse capito, i gdr sono uno dei miei generi preferiti (insieme a stealth e strategici). però per me fallout (made by bethesda) è "lammerda" per una lunga serie di motivi che ricoprono 3 punti su 4, di conseguenza non lo tocco per quello (oltre al fatto che non lo considero un rpg)
PPS: cmq quello degli strategici è un universo abbastanza ampio, il sottogenere a cui ti riferisci è quello degli rts, ma gli strategici non sono mica tutti uguali. confrontalo ad esempio con uno strategico 4x tipo quelli dei paradox. è come porre sullo stesso piano un gdr isometrico a turni con un action-rpg...non c'entrano nulla l'uno con l'altro
@lucusta: esiste il tasto modifica proprio per evitare il multiposting selvaggio
Perdonami ma un produttore che si trova in situazione di handicap e che deve dimostrare qualcosa non si permette di temporeggiare con l'uscita.
Quindi io consumatore ho davanti la gamma Nvidia ma devo temporeggiare che AMD faccia i suoi comodi per acquistare ? Se hai bisogno di tempo va bene ma tira fuori i benchmark del tuo sample perchè se stai in silezio e mi costringi a temporeggiare mi aspetto che quando escano siano chiaramente davanti altrimenti è una mancanza di rispetto.
falso.
in ottica di mercato azionario quando le tue soluzioni sono palesemente migliori presenti e vendi al momento della presentazione, perche' cosi' l'indice azionario ha un bell'incremento tutto in una volta, accresciuto anche dall'inerzia del differenziale alto (che attira sempre piu', ultimamente).
se sei in vantaggio e' controproduttivo dare notizie goccia a goccia, perche' hai piccoli rialzi di volta in volta, che pero' poi si attenuano da una news all'altra, facendoti perdere hipe del differenziale alto (quel +100% attira come l'odore di stallatico le mosche).
diversamente fai dei paper lunch quando vuoi bloccare momentaneamente il mercato e attirare qualche investimento di lunga durata...
questo lo fai quando vuoi destabilizzare il mercato e non hai buone carte in mano... bluff...
fino alle passate generazioni (buone) tu ti trovavi in negozio la nuova gen nvidia senza nemmeno averne sentito l'odore nei periodi precedenti.
ti davano il prodotto disonibile con i benchmark che ponevano la soluzione ad un x2 da l reference precedente.
quindi mercoledi' 2 giugno scopriranno le carte e lunedi' 6 puoi andare gia' a comprare polaris in cartolibreria....
se il 2 giugno fosse oggi e t i troveresti una polaris 10 a 350$ che va' quanto questa 1080 dopo un ora il titolo AMD si troverebbe a lambire i 10$ ad azione.
sara' cosi' o non sara' cosi', e' comunque consigliabile dare in acquisto AMD, perche' male che vada (soluzioni a PP nuovo con identica potenza di oggi ma con un consumo nettamente inferiore) fara' un +20%, bene un +120%.
per una scommessa di un paio di settimane ci puo' stare.
ed un'ultima cosa:
il mercato grosso di queste schede lo fanno i ragazzini brufolosi di 13-15 anni, gia' un 17ettenne si prenderebbe una 1060 e darebbe piu' importanza alla pettinatura.
i ragazzini di quella fascia d'eta' sono molto volubili... vanno in branco; girano come un gregge di pecore e non hanno nessuna base tecnica per verificare e testare (e chi ce l'ha non glie ne importa nulla di queste cose).
quindi un cambiamento di fronte del 20% da nvidia ad AMD si porta dietro un'altro 40% effetto gregge.
in pratica il 60% del mercato e' influenzabile esclusivamente dalla carta stampigliata, mentre le due case rimangono con una fedelity del 20% ciascuna.
son anni che nvidia ci sa fare e ha buoni prodotti, ma se la differenza e' evidente... ci potra' far poco.
a svantaggio d'nvidia oggi che un solo fattore palesemente grande: 1070 usa lo stesso chip, ma castrato, di 1080: 314mm^2.
al peggio del peggio polaris 10 arrivera' a queste prestazioni con un die da 232mm^2.
a pari prestazioni mainstream basta mettere quella scheda, con prestazioni da 980 e ottima per il fullHD a 250 euro, prezzo che nvidia non puo' raggiungere con la 1070.
insomma, stiamo assistendo alla fine dei conti di una politica totalmente sbagliata fin dall'inizio da parte d'nvidia, iniziata gia' dalla serie 7.
ho consigliato l'acquisto di AMD per zen da gennaio, e con sorpresa anche sulle GPU si stanno verificando delle key-point di rilevanza...
stavano a 1.66$... c'e' gente, a cui o suggerito, che gia' ora si sta' mangiando le mani.... e con ragione; in 6 mesi stanno a x2.3.
Atenanosaint
21-05-2016, 21:11
Più che altro conta essere davanti nei titoli specifici che attirano.
Cosa che a mio parere dipende anche da accordi sottobanco tra sfhouse e produttore delle vga
@lucusta: esiste il tasto modifica proprio per evitare il multiposting selvaggio
si, lo so', praticamente l'ho visto nascere questo forum...ma sono tanto pigro quanto chi si ostina a mantenere una piattaforma cosi' vecchia, che non li fa' in automatico o ad albero.
quindi mi andava solo di leggere da una finestra e commentare da un'altra...
e di conseguenza ci sono 10 post di fila... ma che ci rimangono o meno e' indifferente per me.
e poi son stanco... a rileggermi ci saranno piu' orrori di ortografia che concetti...
li lascio cosi', come un delirio pre sonno...
Cosa che a mio parere dipende anche da accordi sottobanco tra sfhouse e produttore delle vga
Vedi Physx integrato in Unreal Engine.
Atenanosaint
22-05-2016, 00:36
Vedi Physx integrato in Unreal Engine.
:cincin:
Ton90maz
22-05-2016, 12:06
i giochi li pago quanto pare a me in base a gusti, simpatia, ore offerte e qualità generale del titolo. sinceramente non vedo perché stranirsiEcco, si può accettare la parte grassettata, fin lì ha senso, ma parlare di ore offerte o budget ha ben poco senso, indagando si va a scoprire che i costi son ben diversi da quello che si pensa.
MiKeLezZ
22-05-2016, 12:14
bla bla bla... numeroacaso mm^2 ... bla bla bla ... GP100 GP104 GM200 MP120 ... bla bla bla ... virgola mobile transistor caches gaming farming sniping clicking baiting ... bla bla bla ... 25% 35% 67% 12% ... bla bla bla... (freqPascal*(16/17))/freqMaxwell)*numerosullaruotadigenova/vittoriachampions*birrebevuteieri dMaxwell/dPascal.
"quindi si... questa gen nvidia e' meglio lasciarla dov'e'... non hanno un processo affinato."
Attualmente le schede nVidia serie 1000 sono quelle con il maggior rapporto prestazioni/performance mai esistito superando anche le eccezionali performance di Maxwell... che in realtà il chip sia di 4,1B T invece di 7,2B T direi che fottesega.
Con un minimo di conoscenza di elettronica si potrà inoltre sicuramente bissare tale rapporto andando a diminuire il Vcore.
La 1070 si prospetta come una schedina da 120W in full (in idle oramai saranno tutte 15W...) che viaggia come una Titan X, una cosa del genere è epica. Per me dentro ci possono anche aver messo del cioccolato fondente al posto dei transistor, importa solo il risultato e il fatto che non ci sia null'altro di meglio disponibile se non, forse, in qualche inutile castello in aria.
Attualmente le schede nVidia serie 1000 sono quelle con il maggior rapporto prestazioni/performance mai esistito superando anche le eccezionali performance di Maxwell... che in realtà il chip sia di 4,1B T invece di 7,2B T direi che fottesega.
Con un minimo di conoscenza di elettronica si potrà inoltre sicuramente bissare tale rapporto andando a diminuire il Vcore.
La 1070 si prospetta come una schedina da 120W in full (in idle oramai saranno tutte 15W...) che viaggia come una Titan X, una cosa del genere è epica. Per me dentro ci possono anche aver messo del cioccolato fondente al posto dei transistor, importa solo il risultato e il fatto che non ci sia null'altro di meglio disponibile se non, forse, in qualche inutile castello in aria.
la sagra delle ovvieta',la 1080 e' la prima gpu hp a 16nm,se la si confronta con i precedenti prodotti a 28nm e' ovvio che consuma meno,e' ovvio che rende di piu',che entrano piu' transistor,quindi piu'sp etc..
quello che invece mi ha deluso della 1080 e',come gia detto,che a parita' di sp e clock,maxwell e pascal praticamente vanno uguali
tutto quello che offre la 1080 e' per gentile concessione di tsmc e asml,nvidia questa volta ha fatto poco:(
eppure la si continua a lodare come se fosse tutto merito suo:boh:
http://www.dayonepatch.com/index.php?/topic/133380-gtx-1080ti-and-titannext-rumors-surface/
anche la 1060 con il GP104...
chi sa' il coreano?
questione di margine operativo, Mikelezz... svendere un chip perche' bacato non e' la stessa cosa di farne uno piccolo e buono sempre.
PS:
se quella e' la titan c'e' la possibilita' che Vega sia piu' veloce del 10%... ma credo che la titan la faranno con HMB2... spero!
PS2: la 1070 fa' 150W.
PaulGuru
22-05-2016, 20:33
Personalmente e solo IMHO non vi è la necessità nell'immediato di passare dalla mia R9 390@1160 a una nuova Nvidia .
OK il gap è del 40% ... potrei essere considerato "limitato" ma giocare a 60fps su 100fps non lo vedo frustrante ... certo i titoli che girano sulla GTX1080 a 40 a me andranno a 23/25 fps ... pazienza ... al massimo investo in una R9 390 da abbinare ... quando ci sarà reale necessità.
Giocare a 4k? Con gli attuali monitor con frequenze basse non ne vedo la necessità ... Sicuramente bellissimi per la grafica(2D/3D) ... ma non ne sento la necessità impellente.
Io sapete come la vedo questa mossa di Nvidia ?
Questa GTX1080 va' come uno SLI di 980, consumando meno e costando leggermente meno . Di fatto scala a "solo" SLI (quindi niente 3 o 4 VGA per essere fighi)e le prestazioni sono in linea.
Da 60 a 100fps sono +66% !
Non 40% !
In pratica va quanto 2*390 in crossfire o forse anche di più.
E ha ancora una relase di driver agli inizi.
PaulGuru
22-05-2016, 20:36
ma quale driver acerbi che e' pari pari la stessa architettura!
al massimo non usano qualche nuova tecnologia, ma se il gioco e' fatto in quel modo ed il motore non la sfrutta... rimane li'.
Pascal è una architettura completamente differente ! altro che pari pari !
E il fatto che abbia maggiore frequenza cosa centra ? Fa parte del vantaggio dei 16nm.
tirala bene per 2 ore e vedrai che fara' solo il 15% in pui' di una 980Ti, ma...ancora di piu', quando l'esigenza e' di scendere della meta'Ok adesso posa il fiasco.
Pascal ha solo messo una mezza toppa a Maxwell per AC, e questo gli e' costato anche in linearita' prestazionale, tanto che maxwell e' molto piu' veloce, a pari clock, di Pascal.
invece, in AC, non ha che migliorato solo marginalmente.
non ha singolo reg a singolo stadio, ma solo 2 reg, uno intermedio ed uno finale, a differenza di Maxwell che ne ha uno solo finale e a differenza di CNG 3.0 che ne ha uno a stadio, ma con pipeline dimezzata.
quando arrivera' GNC 4.0 con una pipeline pari a maxwell e con un reg a stadio, la versatilita' di quel tipo di architettura si dimostrera' palesemente.
ecco, magari in DX11 continuera' ad andare bene, ma non e' che la tecnologia puo' rimanere ferma perche' lo impone nvidia.
quindi, di tutto il sunto, Pascal migliora solo le frequenze di una tecnologia buona per il vecchio, e hanno pure rese pessime con i 16nm, quindi non aspettarti che una normale scheda bulk possa avere i valori espressi da questa FE, o preparati a sborsare parecchio per custom che ne sanano in parte i difetti.
se credono di salvarsi le penne perche' vogliono costringere per il VR a limitare i gradi di liberta' (limitando anche il solo asse orizzontale la matrice e' di conseguenza risolvibile nella meta' dei passaggi, e quel reg ti consente di riprodurre l'inquadratura da un'altra angolazione... l'SMP) e' un brutto affare, perche' avrai sì il 3d stereoscopico, ma non l'immersione totale.... morirai in verticale, perche' il 3d stereoscopico cosi' limimtato non puo' mostrarti viste obblique!
le furbate si sentono a naso.
e tra' l'altro l'adozione di SMP in 3D non VR non portera' vantaggio solo a GCN 4.0, ma a tutte le GCN, tranne che alle gen pre Pascal (guarda che caso!).
credo che sia finita da un'era la questione di andare a guardare solo il mero numeretto finale dei benchmark invece che l'effittiva manipolazione che viene effettuata, e quindi la resa immersiva.
quindi credo che sta' volta avrebbero dovuto tirarsi su' le manichette a mezzo braccio e fare bene il loro lavoro, con chip degni (e non moduli bislacchi... sai che m'importa se compro una 1070 che i miei soldi devono andare a coprire il maggior costo del chip perche' deriva da 1080), con tecnologie realmente innovative e non limitanti (che poi ci ritroviamo tutti i giochi VR che sembra che ti hanno piantato una spina d'orsale in acciaio molibdeno, ma senza snodi).
per ora ha il 77% del mercato e detta legge, quindi le SH si devono adeguare, ma basta realmente poco per far cambiare rotta al mercato (basta che la concorrenza raggiunga il nocciolo del mercato, la 1070, al 20% in meno del prezzo), e se la tua tecnologia non e' SANA... puoi anche sovvenzionare quanto vuoi... morirai con le banconote in mano, perche' nessuno si buttera' a fare giochi per un misero 10% di mercato (e si, visto che le console adotteranno ben altre tecnologie, la vera quota di mercato d'nvidia e' palesemente ridicola).
quindi giocherai favolosamente con i vecchi giochi DX11, quando tutti gli altri satanno a friggersi il cervello con il VR, e rifiuteranno limitazioni e costrizioni di mercato (ed avranno cambiato le loro passate gen nvidia con AMD, stufi di essere ancora una volta lasciati al palo da costrizioni tecnologiche).
MiKeLezZ
22-05-2016, 22:14
la sagra delle ovvieta',la 1080 e' la prima gpu hp a 16nm,se la si confronta con i precedenti prodotti a 28nm e' ovvio che consuma meno,e' ovvio che rende di piu',che entrano piu' transistor,quindi piu'sp etc..
quello che invece mi ha deluso della 1080 e',come gia detto,che a parita' di sp e clock,maxwell e pascal praticamente vanno uguali
tutto quello che offre la 1080 e' per gentile concessione di tsmc e asml,nvidia questa volta ha fatto poco:(
eppure la si continua a lodare come se fosse tutto merito suo:boh:Ovvietà? L'ingegnerizzazione di un chipset richiede investimenti immensi e conoscenze di cui neppure un dottorato in ingegneria elettronica ha idea
Anche solo la miniaturizzazione da 28nm a 16nm di uno stesso chip, idealmente "banale", può introdurre miriadi di problemi
Peraltro se dobbiamo parlare di resa, inutile fare confronti perché non ne esistono, già la miniaturizzazione di una SRAM rispetto a una circuiteria di logica non è la stessa cosa (fare una RAM, un ARM o una CPU sono cose ben diverse...), proprio per questo direi che la complessità dei chip NVIDIA non si trova da nessun altra parte, se non forse nelle CPU INTEL... 15 miliardi di transistor è il doppio della complessità di un Intel Xeon da 22 core (e ha pure meno SRAM, l'elemento più "facile" da inglobare)
Che poi, certi discorsi fanno proprio acqua da tutte le parti... la 1080 esce con tutte le SM abilitate e quindi l'intero chip funzionante! Di roba "bacata" non mi pare ce ne sia!
Da 60 a 100fps sono +66% !
Non 40% !
In pratica va quanto 2*390 in crossfire o forse anche di più.
E ha ancora una relase di driver agli inizi.
ecco, lui ti ha detto che ha gia' una 390...
dovrebbe svendere la sua a 200-250 euro per spenderne almeno 500 in piu' o trovare il fesso che si vende la sua 390 a 200-250 per prendersi una 1080?
eh! ma consuma un boato di piu'!
con 250euro ci paga 1MWh di corrente all'enel.... 1000 ore di gioco; a 2 ore al giorno ha 2 anni di gioco assicurato.
ionet, aspetta che tutti i chip siano usciti, aspetta che i prezzi si siano plasmati al mercato, e poi, se proprio vuoi rinnovare, avrai quantomeno piu' info per farlo, e sicuramente ad un prezzo inferiore.
PS:
... e i dati si possono leggere in tanti modi: da 100 a 60 c'e' il 40% in meno.
15 miliardi di transistor è il doppio della complessità di un Intel Xeon da 22 core
un chip da 15.3B di transistors per ottenerne, al massimo, un 30% in cui ne funzionano 11-12B, quelli che effettivamente usa GP100.
e hanno proceduto cosi' perche', "banalmente", il processo 16nm TSMC va' bene per un ARM grosso quanto un quadretto, e non per una mattonella da 610mm^2.
le rese sono basse.
che la 1080 esca con tutti gli SM abilitati c'e' da farsi 2 conticini, perche' se hanno fatto un chip che deve essere 1:1, allora non sanno proprio che pesci prendere!
1080 avra' al suo interno almeno 2600-2640SM su 2560 abilitati; 1,5%-3% in piu'.
Farne meno e' giocare al lotto... a fortuna.
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Benchmark-Test-Video-1195464/2/
altro che 60% sulla 980ti
Guarda la differenza con la 980 invece, che è la fascia che va a sostituire...
Quando ci sarà la 1080ti vedrai i test con la 980ti, e ci sarà una bel boost ;)
bah mettila come ti pare la 1080 costa un fottio
e fino a dicembre sara la top di gamma...
per lo stesso ragionamento paragoni le nuove AMD solamente alla 1070 allora...
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Benchmark-Test-Video-1195464/2/
altro che 60% sulla 980ti
se fai i rapporti su tutti i giochi su tutte le testate che hanno fatto la review non troverai un dato concordante.
su quel sito sul test di "the witcher 3" 4K
1080=100
fury X=71
980Ti=70
980=56
su Hwupgrade:
1080=100
980Ti=74
fury X=64
980=51
su tomshardware.com
1080=100
fury X=76
980Ti=74
980=58
una 980 passa dal 51 al 58%, una fury X dal 64 al 76% (cioe', sulla review di tomshardware va' piu' la fury nano che fa' il 70% di 1080 che la fury X su hwupgrade!)
non e' variabilita', e' dare semplicemente i numeri.
(e poco appianano le perplessita' dicendo che si hanno setting differenti).
se ancora guardi i numeri dei bench che tirano fuori le testate su un paper lunch non fai altro che confonderti le idee.
e' una bella scheda potente, ma solo perche' hanno clockato alla piu' non posso... non porta nulla di piu' in quanto ad architettura (tanto che in alcuni giochi non scala affatto nemmeno in frequenza rispetto a Maxwell).
saro' soddisfatto quando qualcuno si mette li' a fare benchmarck con la medesima frequenza impostata tra' 980Ti e 1080 e si accorgera' che la 980Ti, avendo piu' CUDA, va' di piu', ma molto di piu' che in proporzione ail numero di CUDA; allora si capira' che e' tutto grazie al PP, e poi si andra' a discutere la bonta' di questo PP e l'ingegnerizzazione adottata, perche' 16nm che fanno ancora 180W e non fa' 60fps a 4K non se po' senti'!
se è solo questione di clock esagerati si può dir che nvidia a tirato fuori il suo bulldozer :asd:
Goofy Goober
23-05-2016, 10:11
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Benchmark-Test-Video-1195464/2/
altro che 60% sulla 980ti
che schifo :asd:
ma allora è una gpu sfigatissima venduta a prezzo assurdo!
s
non e' variabilita', e' dare semplicemente i numeri.
(e poco appianano le perplessita' dicendo che si hanno setting differenti).
e quindi a chi o cosa credere?
solito discorso de "la verità sta sempre in mezzo"? :stordita:
PaulGuru
23-05-2016, 12:47
ecco, lui ti ha detto che ha gia' una 390...
dovrebbe svendere la sua a 200-250 euro per spenderne almeno 500 in piu' o trovare il fesso che si vende la sua 390 a 200-250 per prendersi una 1080?
eh! ma consuma un boato di piu'!
con 250euro ci paga 1MWh di corrente all'enel.... 1000 ore di gioco; a 2 ore al giorno ha 2 anni di gioco assicurato.
ionet, aspetta che tutti i chip siano usciti, aspetta che i prezzi si siano plasmati al mercato, e poi, se proprio vuoi rinnovare, avrai quantomeno piu' info per farlo, e sicuramente ad un prezzo inferiore.
PS:
... e i dati si possono leggere in tanti modi: da 100 a 60 c'e' il 40% in meno.
Io la mia 980 ( analoga ) l'ho venduta a 330€
7-8 cento euro sono prezzi stimati riferiti al listino appena usciranno, visto che la scheda ancora non è uscita e riferiti alla reference.
Se compri nei migliori shops magari non subito il costo si riallineerà con i 699$ ufficializzati da Nvidia.
E la scheda 1080 è data sui 599$ per la versione non di riferimento.
La 1070 invece per 379$ ( in pratica potrei anche fare l'upgrade per poche decine di euro ).
Fixed ;)
Se Nvidia ci insegna qualcosa è che ama tarpare le prestazioni anche delle proprie schede per venderti le nuove ;)
Nvidia è un cancro, motivo per cui se AMD rilascia una buona scheda sotto i 300 me la prendo al day 1, supportare Nvidia è supportare il cancro di gameworks, le merdate di tesselation di The Witcher 3 o le merdate di Project Cars.
Tutta roba che penalizzava Nvidia quanto AMD, cioè roba che con 780ti facevi gli fps di una 960.
Ma si facessero esplodere sti ladri.
Almeno nVidia i driver per le vecchie GPU continua a farli, a differenza di AMD che non se ne preoccupa minimamente! :doh:
Prova ad installare Windows 8.1/10 su um PC con la X1xxx, o peggio ancora su un notebook con una più recente 6xxx + integrata!
Per non parlare delle X100/X200 (uscite nel 2005) dove i driver arrivano massimo a sVista...
Mentre invece con nVidia (o Intel) mai avuto problemi, in quanto i driver vengono continuamente aggiornati anche per la vecchissima serie FX 5xxx del 2003!
Sul PC al lavoro col passaggio a Windows 8 sono dovuto tornare indietro dalla Radeon 4870 che mi dava problemi ad una più vecchia 8800gt che invece funzionava perfettamente.
Magari nVidia non ottimizzerà a dovere i driver di schede "legacy", concentrandosi più sulle nuove, ma questa credo sia una cosa normalissima... che invece "tarpi le ali" volutamente sarebbe una cosa grave, ma è una cosa da dimostrare, dato che quando sul forum ufficiale hanno accusato nVidia di questa cosa, hanno risposto che le Maxwell andavano meglio delle Kepler su alcuni giochi in quanto avevano un'architettura più efficente per le feature che questi utlizzavano, e non era assolutamente una cosa voluta o forzata da driver.
Che poi sia vero o meno non lo possiamo sapere, ma gli voglio dare il beneficio del dubbio.
Fatto sta che per esperienza ti posso dire che a GTA5 o TW3 su Win10 con una Geforce 260 a dettagli bassi si riesce a giocare, con una 4870 (che come GPU era anche più potente) no!
Io che per lavoro faccio vendita e assistenza PC, tendevo a consigliare AMD per la fascia medio-bassa e nVidia per la alta, ma ultimamente alla luce di queste cose, le AMD preferisco evitarle, ed anche tutti i miei clienti/amici che prima erano pro AMD oramai son passati quasi tutti a nVidia. (e la 390x 8gb che mi è rimasta in casa probabilmente mi rimarrà sulla schiena a vita...)
Poi io sono il primo a sperare che AMD si dia una mossa e tirar fuori qualcos di veramente competitivo, anche perchè da questo crescente monopolio nVidia abbiamo solo che da perderci tutti, e già lo stiamo vedendo con i prezzi delle Pascal... :cry:
PaulGuru
23-05-2016, 15:35
se fai i rapporti su tutti i giochi su tutte le testate che hanno fatto la review non troverai un dato concordante.
su quel sito sul test di "the witcher 3" 4K
1080=100
fury X=71
980Ti=70
980=56
su Hwupgrade:
1080=100
980Ti=74
fury X=64
980=51
su tomshardware.com
1080=100
fury X=76
980Ti=74
980=58
una 980 passa dal 51 al 58%, una fury X dal 64 al 76% (cioe', sulla review di tomshardware va' piu' la fury nano che fa' il 70% di 1080 che la fury X su hwupgrade!)
non e' variabilita', e' dare semplicemente i numeri.
(e poco appianano le perplessita' dicendo che si hanno setting differenti).
se ancora guardi i numeri dei bench che tirano fuori le testate su un paper lunch non fai altro che confonderti le idee.
e' una bella scheda potente, ma solo perche' hanno clockato alla piu' non posso... non porta nulla di piu' in quanto ad architettura (tanto che in alcuni giochi non scala affatto nemmeno in frequenza rispetto a Maxwell).
saro' soddisfatto quando qualcuno si mette li' a fare benchmarck con la medesima frequenza impostata tra' 980Ti e 1080 e si accorgera' che la 980Ti, avendo piu' CUDA, va' di piu', ma molto di piu' che in proporzione ail numero di CUDA; allora si capira' che e' tutto grazie al PP, e poi si andra' a discutere la bonta' di questo PP e l'ingegnerizzazione adottata, perche' 16nm che fanno ancora 180W e non fa' 60fps a 4K non se po' senti'!
Come fai a confrontare i clock di architetture completamente differenti ?
Va il 70% più della controparte della precedente generazione in DX11,
E l'unica cosa che sai farmi notare è che perde 100Mhz in frequenza dopo tot minuti ?
Ma piantiamola sù :rolleyes:
PaulGuru, ma con una 1070 in giro, la tua 980 chi se la compra a 330??
la devi vendere ben prima dell'uscita, perche' la svalutazione sarebbe enorme.
e poi lascia stare la controparte, guarda i riferimenti dalla stessa parte:
i benchmarck sono tutti numeri a caso... la variabilita' su 3 test di diverse testate e' del 7% su 980 (cosa che se produci valori non ripetibili oltre il 2% in certi ambiti lavorativi ti buttano fuori senza manco pensarci).
e non e' colpa della 980, ma dell'estrema variabilita' di condizioni operative della 1080...
mi ci gioco soldi che quei test hanno procurato piu' di un problema nell'esecuzione e nella riproducibilita' in fase di esecuzione (o meglio, che abbiano fatto uno shot e via, senza chiedersi se era riproducibile o meno)...
pigliati sta' 1080, se ti piace cosi' tanto, tanto hanno appena fatto i waterblock aftermarket a 120 euro... almeno la tieni stabile.
PaulGuru
23-05-2016, 17:48
PaulGuru, ma con una 1070 in giro, la tua 980 chi se la compra a 330??
la devi vendere ben prima dell'uscita, perche' la svalutazione sarebbe enorme.
e poi lascia stare la controparte, guarda i riferimenti dalla stessa parte:
i benchmarck sono tutti numeri a caso... la variabilita' su 3 test di diverse testate e' del 7% su 980 (cosa che se produci valori non ripetibili oltre il 2% in certi ambiti lavorativi ti buttano fuori senza manco pensarci).
e non e' colpa della 980, ma dell'estrema variabilita' di condizioni operative della 1080...
mi ci gioco soldi che quei test hanno procurato piu' di un problema nell'esecuzione e nella riproducibilita' in fase di esecuzione (o meglio, che abbiano fatto uno shot e via, senza chiedersi se era riproducibile o meno)...
pigliati sta' 1080, se ti piace cosi' tanto, tanto hanno appena fatto i waterblock aftermarket a 120 euro... almeno la tieni stabile.
Veramente l'ho già venduta.
Le schede van vendute sempre prima che escano le nuove.
Non fare critiche solo per auto-convincerti.
Ancora co sta frequenza ? Ma chi se ne frega !
Confronti frequenze di 2 architetture differenti, come confrontare Intel e AMD.
Perchè sono 2 completamente diverse indifferentemente dai risultati, quindi per ora i drivers sono alla prima relase.
tuttodigitale
23-05-2016, 21:25
Almeno nVidia i driver per le vecchie GPU continua a farli, a differenza di AMD che non se ne preoccupa minimamente! :doh:
Prova ad installare Windows 8.1/10 su um PC con la X1xxx, o peggio ancora su un notebook con una più recente 6xxx + integrata!
ma perchè uno dovrebbe installare WIN10, con una GPU di 11 anni fa?
giusto per la cronaca per Windows8.1 il supporto ufficiale per nvidia c'è "solo" per la serie 8000 in su...
Mi pare strano. le HD5000/6000 mobility sono compatibili con Windows 10
Mentre invece con nVidia (o Intel) mai avuto problemi, in quanto i driver vengono continuamente aggiornati anche per la vecchissima serie FX 5xxx del 2003!
certo se decanti i driver Intel, è davvero finita...
vengono continuamente aggiornati anche per la vecchissima serie FX 5xxx del 2003!
certo come no: nvidia quando ha aggiornato i driver una settimana fa, si è dimenticata per la gpu in questione il supporto a Win 8.1. Sarà per il mese prossimo :rolleyes:
Theodorakis
23-05-2016, 22:13
E poi Fermi non ha ancora i driver DX12 e forse non li avrà mai nonostante le promesse di NVIDIA http://www.bitsandchips.it/52-english-news/6871-are-you-waiting-for-dx12-fermi-drivers-time-wasted-fermi-is-eol :oink:
PaulGuru
24-05-2016, 08:02
E poi Fermi non ha ancora i driver DX12 e forse non li avrà mai nonostante le promesse di NVIDIA http://www.bitsandchips.it/52-english-news/6871-are-you-waiting-for-dx12-fermi-drivers-time-wasted-fermi-is-eol :oink:
Quando escono le nuove, le vecchie finiscono nel dimenticatoio.
Fermi son 2gen dietro .... :rolleyes:
Io ancora sto aspettando i miracolosi drivers di ATI che permetterebbero alla 2900XT di sorpassare la 8800GTX.
in effetti che bello pigliarlo in culo :asd:
PaulGuru
24-05-2016, 09:23
in effetti che bello pigliarlo in culo :asd:
esiste un modo per evitarlo, aggiornare.
Ton90maz
24-05-2016, 10:06
esiste un modo per evitarlo, aggiornare.
Hehehrheh, ah beh allora :sofico:
ma perchè uno dovrebbe installare WIN10, con una GPU di 11 anni fa?
giusto per la cronaca per Windows8.1 il supporto ufficiale per nvidia c'è "solo" per la serie 8000 in su...
Mi pare strano. le HD5000/6000 mobility sono compatibili con Windows 10
certo se decanti i driver Intel, è davvero finita...
certo come no: nvidia quando ha aggiornato i driver una settimana fa, si è dimenticata per la gpu in questione il supporto a Win 8.1. Sarà per il mese prossimo :rolleyes:
Un vecchio notebook Centrino Duo, 2/3gb e GPU nVidia o Intel ci piazzi un SSD e Windows 10 va da Dio per gli utilizzi office/web che fa il 90% degli utenti, e sicuramente meglio che col windows Svista col quale sono usciti.
Oramai questo tipo di upgrade è il lavoro che faccio più di frequente, e i clienti sempre soddisfattissimi.
I driver Intel saranno anche indecenti, ma le loro GPU vengono praticamente sempre riconosciute in automatico da Win10, anche le preistoriche 9xx igp, chiaviche pazzesce ma vanno comunque bene per l'utilizzo che ne fa l'utente comune. (anche se non stanno nemmeno dietro all'SSD nell'apertura delle maschere di Office. :asd:)
Se però il NB monta AMD son dolori, anche con computer molto più recenti!
Il problema di Windows 10 con doppia GPU integrata + amd è cosa risaputa (http://www.ibtimes.co.uk/windows-10-how-fix-black-screen-boot-amd-driver-issues-after-upgrade-1514481), ho provato a seguire le varie guide trovate in rete per risolvere il problema, ma non sono mai riuscito a risolverlo completamente senza che rimanesse qualche magagna, l'unica soluzione è stata tornare a Win7.
Tra l'altro 2 di questi notebook me li hanno portati perchè il sistema si è aggiornato automaticamente a Win10, e ovviamente sono cominciati i problemi.
Da buon geek quale sono anche io mi chiederei "che senso ha utilizzre oggi un PC di 4 o 5 anni fa?", ma lavorando nel settore mi accorgo che a tantissimi vanno ancora bene così, e per l'utilizzo che ne fanno loro un PC di 8 anni fa aggiornato con SSD va molto meglio di un qualsiasi NB economico su cui si ostinano a mettere HDD meccanici. (e parecchi clienti che dopo aver comprato un NB nuovo mi hanno portato quello vecchio da "velocizzare un po" dato che lo volevano passare a moglie/figli, per poi rimanere basiti quando si sono accorti che il vecchio NB dopo le mie "miracolosi modifiche", un semplice SSD, va molto più veloce del nuovo PC con HDD meccanico... ;) )
Qualche giorno fa ho anche messo un SSD e Win10 su un fisso con q6600, 8gb con una ATI 1650, PC tuttora performante ma sta ATI non c'era verso di fargliela riconoscere (forzando gli ultimi driver diponibili il PC non partiva nemmeno più)... fortuna che avevo una altrettanto vecchia 8400 di recupero, che però ha riconosciuto suvbito ed è funzionato tutto alla grande.
Di GF serie 5xxx forse non me ne sono mai capitate e non ne posso avere la certezza, ma di 6xxx si e ti assicuro e anche con Win10 vanno benissimo. (amche se i driver sono "solo" per 8.1, vanno benissimo anche su 10, a differenza delle conteporanee ATI disponibili solo per XP e massimo sVista, nemmeno per Win7 hanno mai fatto i drivers!)
PaulGuru
24-05-2016, 13:14
Hehehrheh, ah beh allora :sofico:
funziona funziona
tuttodigitale
25-05-2016, 16:51
a dirlo è Mark Papermaster di AMD.
entrambe le aziende stanno andando a sfruttare FinFET. Ma quando si guarda a Pascal, è in gran parte SOLO questo
Well, you look at what we've done with Polaris, right, and it's leveraging on that, as I said a moment ago, that Graphics Core Next. So first and foremost, both companies are going to leverage FinFET. But when you look at Pascal, it's largely just that. From our assessment, it's a technology map. What you'll see AMD do is drive, as I said a moment ago, both design and process. So you're going to see a generational performance provide advantage from both aspects.
tuttodigitale
25-05-2016, 22:47
Un vecchio notebook Centrino Duo, 2/3gb e GPU nVidia o Intel ci piazzi un SSD e Windows 10 va da Dio per gli utilizzi office/web che fa il 90% degli utenti, e sicuramente
Premesso che i centrino con i derivati di nv40 e g70, non hanno driver per win 10...quindi ocio a generalizzare.
Ma continuo a non capirel'aggiornamento forzato a Windows 10.....
all'atto pratico, ad un utente che ha un vecchio HW, cosa cambia avere Win 8 o 10?...entrambi avranno aggiornamenti fino alla morte dell'HW....nel caso in questione (PC con Vista) è probabile che il solo SO valga più del PC (a meno di non installare illegalmente la versione OEM.... sono 140 euro per la versione meno cara)
Qualche giorno fa ho anche messo un SSD e Win10 su un fisso con q6600, 8gb con una ATI 1650, PC tuttora performante ma sta ATI non c'era verso di fargliela riconoscere (forzando gli ultimi driver diponibili il PC non partiva nemmeno più)... fortuna che avevo una altrettanto vecchia 8400 di recupero, che però ha riconosciuto suvbito ed è funzionato tutto alla grande.
ma non è vero, la scheda ATI è un rebrand di una scheda del 2005, la 8400 è uscita nel 2007....la serie 7000 di nvidia, anche quella uscita nel 2005, non ha driver per win10.
C'è un piccolo vantaggio di nvidia, il supporto per win 10 di schede del 2007-2008....ma non ingigantiamolo troppo..
Da buon geek quale sono anche io mi chiederei "che senso ha utilizzre oggi un PC di 4 o 5 anni fa?", ma lavorando nel settore mi accorgo che a tantissimi vanno ancora bene così,
ma lato software la frase dovrebbe suonare così:
Da buon geek quale sei anche tu ti chiederesti "che senso ha utilizzare oggi un Software di 4 o 5 anni fa?", ma lavorando nel settore ti accorgi che a tantissimi vanno ancora bene così...
Perchè lato hardware un utente dovrebbe accontentarsi e lato software no? Da cosa dipende questa incongruenza?
Sono l'unico che aggiorna il sistema operativo, SOLO in caso di necessità, tipo supporto mancato delle librerie grafiche e incompatibilità software e fine supporto....Pare proprio di si.
PaulGuru
27-05-2016, 07:26
a dirlo è Mark Papermaster di AMD.
entrambe le aziende stanno andando a sfruttare FinFET. Ma quando si guarda a Pascal, è in gran parte SOLO questo
Well, you look at what we've done with Polaris, right, and it's leveraging on that, as I said a moment ago, that Graphics Core Next. So first and foremost, both companies are going to leverage FinFET. But when you look at Pascal, it's largely just that. From our assessment, it's a technology map. What you'll see AMD do is drive, as I said a moment ago, both design and process. So you're going to see a generational performance provide advantage from both aspects.
Come fa ad essere un die shrink se il rapporto cuda cores / transistors è molto differente specie rispetto alla 980 che ha un bus della stessa ampiezza.
cdimauro
27-05-2016, 07:33
Infatti ha scritto che "in gran parte" è un die shrink: ergo è cambiato poco. I cambiamenti ci sono, se metti a confronto i due chip, ma non nei CUDA core e nella struttura generale del chip: l'architettura è sostanzialmente la stessa.
PaulGuru
27-05-2016, 07:43
Chissà perchè da 28nm a 16nm c'è stato questo gigantesco salto di qualità, mentre dai 32nm ai 14nm di Intel ....... :rolleyes:
cdimauro
27-05-2016, 07:58
Chissà perchè da 28nm a 16nm c'è stato questo gigantesco salto di qualità,
Se non cambi quasi nulla (vedi sopra), la qualità è la stessa. E' stata aggiunta un po' di roba, e le frequenze sono state sparate molto più in alto, per cui il termine corretto sarebbe "salto di quantità".
mentre dai 32nm ai 14nm di Intel ....... :rolleyes:
Di più: vedi che gioielli ha tirato fuori in ambito server grazie a tutti questi passaggi produttivi. :cool:
FedericoP.1992
29-05-2016, 13:03
penso che sarà necessario aggiornare :mad:
max50ddr
30-05-2016, 13:58
Aggiornamento necessario x me
PaulGuru
03-06-2016, 09:29
EVGA GeForce GTX 1080 Gaming ACX 3.0 uscita al dragone a 699€ ( non proprio noto per i prezzi dell'HW ed in più si tratta di EVGA ).
Fra poco si avvicineranno ai 600€ come avevo pronosticato.
PaulGuru
03-06-2016, 09:51
Costa meno sul sito Evga...
Drako è troppo caro ed ha un pessimo post vendita, e personalmente, preferirei comprare direttamente da Evga che almeno rispetta le tempistiche...
Non era quello il punto
Lo sò che drako è caro, proprio per quello l'ho evidenziato ;)
Se quella scheda costa così al dragone vuol dire che un brand differente e modello più sobrio venduti su ben altri shops costeranno sicuramente molto meno.
guglielmo6987
03-06-2016, 11:19
Costa meno sul sito Evga...
Drako è troppo caro ed ha un pessimo post vendita, e personalmente, preferirei comprare direttamente da Evga che almeno rispetta le tempistiche...
niente di più vero. Io dopo che mi hanno fatto aspettare per un mese e mezzo un pezzo che mi avevano detto avere in magazzino (corsair h100i gtx) ho scoperto da solo che il pezzo non era arrivato perché la corsair aveva avuto un problema con la spedizione dei kit a liquido, quando siti come highflow, ybris o mindfactory ecc. mi hanno sempre avvertito per tempo di eventuali discrepanze di inventario tra il magazzino e il negozio online...
PaulGuru
10-06-2016, 01:11
Usciti modelli custom da 619€ e 629€
Dove sono finiti adesso quelli che parlavano di 700€ come prezzo di default per le 1080 custom ?
Soprattutto chi proclamava il famigerato +15% come Bivvoz e tuttodigitale che faceva riferimento ai prezzi da day one ? :rolleyes:
Usciti modelli custom da 619€ e 629€
Ottimo, ora però permettimi di fare il San Tommaso.
Questi modelli "economici" hanno le stesse specifiche della FE?
Hanno almeno lo stesso livello qualitativo?
Che prestazioni hanno rispetto alle FE?
Come detto dall'inizio, bisogna vedere che prodotto ne esce fuori, perchè non basta chiamarsi 1080 per avere le stesse prestazioni delle recensioni della FE che abbiamo visto finora.
Insomma, aspettiamo qualche recensione prima di gioire.
Goofy Goober
10-06-2016, 08:22
Ottimo, ora però permettimi di fare il San Tommaso.
Questi modelli "economici" hanno le stesse specifiche della FE?
Hanno almeno lo stesso livello qualitativo?
Che prestazioni hanno rispetto alle FE?
Come detto dall'inizio, bisogna vedere che prodotto ne esce fuori, perchè non basta chiamarsi 1080 per avere le stesse prestazioni delle recensioni della FE che abbiamo visto finora.
Insomma, aspettiamo qualche recensione prima di gioire.
qualunque custom recensita ad oggi (ne hanno già recensite diverse, Asus, MSI, Inno3D) ha prestazioni superiori alla FE, perchè qualunque dissipatore custom visto adesso di base ha prestazioni dissipanti migliori di quello delle FE, dato che su quest'ultima a meno che non si imposti un profilo ventola molto aggressivo, e quindi rumoroso, le frequenze sono tagliate in maniera rilevante.
Il "livello qualitativo" delle founders, se vai a vedere il pcb, è in realtà il più basso in assoluto tra tutte le schede che avremo.
L'unica cosa di "cool" che hanno è la copertura in metallo ESTERNA del dissipatore.
All'interno non ci sono le fatine e le marmotte, ma un semplice blocco dissipante qualunque.
PaulGuru
10-06-2016, 09:04
Ottimo, ora però permettimi di fare il San Tommaso.
Questi modelli "economici" hanno le stesse specifiche della FE?
Hanno almeno lo stesso livello qualitativo?
Che prestazioni hanno rispetto alle FE?
Come detto dall'inizio, bisogna vedere che prodotto ne esce fuori, perchè non basta chiamarsi 1080 per avere le stesse prestazioni delle recensioni della FE che abbiamo visto finora.
Insomma, aspettiamo qualche recensione prima di gioire.
EPIC LOOOOOL !
:sofico:
A dir la verità sono anche meglio, l'unica cosa magari è che le cover non sono belle come la FE.
Tranquillo che ora che arrivano anche Palit e Gainward offriranno custom multi-fans a prezzi analoghi.
PaulGuru
10-06-2016, 09:06
Ottimo, ora però permettimi di fare il San Tommaso.
Questi modelli "economici" hanno le stesse specifiche della FE?
Hanno almeno lo stesso livello qualitativo?
Che prestazioni hanno rispetto alle FE?
Come detto dall'inizio, bisogna vedere che prodotto ne esce fuori, perchè non basta chiamarsi 1080 per avere le stesse prestazioni delle recensioni della FE che abbiamo visto finora.
Insomma, aspettiamo qualche recensione prima di gioire.
Pur di non dire che avevo ragione io ...... :sofico:
Tranquillo che forse quando usciranno le AMD i prezzi scenderanno ulteriormente, magari sotto i 600.
vBulletin® v3.6.4, Copyright ©2000-2026, Jelsoft Enterprises Ltd.