View Full Version : GeForce GTX 1080: benchmark e dettagli in Live Streaming alle 15
Redazione di Hardware Upg
17-05-2016, 10:19
Link alla notizia: http://www.hwupgrade.it/news/skvideo/geforce-gtx-1080-benchmark-e-dettagli-in-live-streaming-alle-15_62705.html
Alle ore 15 della giornata di oggi scadrà l'embargo sulle analisi prestazionali e su altri tipi di informazioni relative alla nuova NVIDIA GeForce GTX 1080, la prima scheda video basata sull'architettura Pascal.
Click sul link per visualizzare la notizia.
DakmorNoland
17-05-2016, 10:31
Ma viene recensita anche la 1070?
no, la 1070 uscira' anche piu tardi nel mercato.
E' da un po' che non la posto, mi manca :D
http://i35.photobucket.com/albums/d189/Dis_Netis/GIFS/0003kyxp.gif
fireradeon
17-05-2016, 10:48
Sfrutto subito l'opportunità di scrivere qui il mio quesito al quale, eventualmente, potrete rispondere su Facebook dopo le 15.00 come da voi indicato.
Quesito: Avete fatto test adhoc per misurare il nuovo HB SLI che dovrebbe garantire una maggiore banda, migliore stabilità e un incremento nella scalabilità con i giochi?
Inoltre, sempre in merito allo SLI, mi interesserebbe sapere se avete testato le schede con i "vecchi" bridge SLI (ad esempio con quello ROG, EVGA etc. in grado di collegare entrambi i ponticelli SLI) e il nuovo bridge HB SLI di nvidia e se avete notato differenza nelle prestazioni.
Vi ringrazio anticipatamente per le eventuali risposte.
Paolo Corsini
17-05-2016, 10:56
Spiacente non abbiamo 2 schede GTX 1080 a disposizione, quindi niente test in SLI
freniko93
17-05-2016, 10:59
Vorrei che voi paragonaste, con benchmark di videogiochi alla mano, la 1080 alla 970/980/980ti, magari anche in configurazione SLI. Sicuramente avevate già intenzione di farlo, però ribadirlo non fa male :D
Tante persone che hanno una 970 magari sono interessati al passaggio per giocare in 2k e 4k, quindi attendo i vostri benchmark in merito, grazie.
P.S. Ci dite orietativamente, quando uscirà l'articolo con la recensione della 1080?
Il vostro SAMPLE ci arriva a 2.5 ghz ad aria ? Grazie :) .
NickNaylor
17-05-2016, 11:05
ciao :)
a me piacerebbe capire le prestazioni sia con le dx12 ma soprattutto con le dx11 comparata alla precedente generazione.
zerothehero
17-05-2016, 11:07
negli uffici ci sarà un lieve calo della produttività :asd:
.Hellraiser.
17-05-2016, 11:07
ciao :)
a me piacerebbe capire le prestazioni sia con le dx12 ma soprattutto con le dx11 comparata alla precedente generazione.
ma al momento le dx12 con che cosa si possono testare?
DakmorNoland
17-05-2016, 11:27
no, la 1070 uscira' anche piu tardi nel mercato.
Sì lo so che esce il 10 giugno, ma pensavo che Nvdia permettesse di pubblicare la recensione insieme alla 1080... Che senso ha far aspettare per avere dei test??
Niente allora, io mi ritiro... Della 1080 non mi interessa molto.
CrapaDiLegno
17-05-2016, 11:57
Che senso ha far aspettare per avere dei test??
Che se sai i test della scheda che costa la metà, magari non ti viene voglia di comprare quella che costa il doppio :D
Credo che nvidia vorrà sfruttare queste 2 settimane per far man bassa di tutti gli scimmiati che vogliono una nuova scheda video super veloce oggi! Usando la questione della versione Fouders per fare ancora più soldi (strizza il limoneeeee!)
Gli altri si sa che faranno le loro valutazioni con la 1070, le versioni custom e la concorrenza prima di decidere, quindi non sono il target per questo tipo di lancio.
Domanda per la redazione: quante 1080 è previsto che vengano distribuite nei negozi al giorno del lancio? Si parla di 1000 unità, 10.000 o 50.000?
Altra domanda: visto che tutti parlano di questa GDDR5X che non è all'altezza della HBM(2) e bla bla bla.... avete fatto dei test in 4K overclocando solo la memoria per vedere se è bandwidth limited?
Grassie
Enriko81
17-05-2016, 12:23
dopo 2 anni scarsi vediamo se ci sara un +50% ??:read:
sarebbe gran cosa.. a patto di contenere i prezzi a 350 per 1070 e 650/700 per 1080
CrapaDiLegno
17-05-2016, 12:32
Mi piacerebbe che ogni tanto questo tipo di recensione fosse un po' più ampia, arrivando a qualche generazione prima in modo da dare qualche margine di comprensione per chi non fa un upgrade ogni sei mesi (il sito si chiama Hardware Upgrade, quale upgrade è più upgrade di uno che salta n generazioni di hardware? :>
Credo sia abbastanza tardi per parlarne qui, visto che la review sarà già pronta, ma potrebbe essere uno spunto utile per il futuro.
Buona richiesta. Se non lo hanno già fatto possono sempre andare a recuperare un paio di fondi di magazzino (almeno qualche Fermi dovreste averla in giro no?) e aggiungere i risultati ai grafici tra un paio di giorni o una settimana.
Potrebbero fare così per tutte le prove, in modo che la data di pubblicazione sia rispettata senza diventare matti con mille mila test in più e poi con calma finire la recensione con dati più completi utili a chi, con altratanta calma, ha aspettato anni per l'upgrade e non muore di certo per qualche giorno di ritardo.
In effetti è veramente triste vedere schede super diffuse sparire dalla comparazione dei test perché un paio di generazioni (o mezze) più vecchie. Saranno le schede di partenza per l'upgrade di molti utenti negli anni a venire, e a parte qualche super appassionato con il portafoglio pieno, dubito che molti facciano aggiornamento prima di 2 anni.
fireradeon
17-05-2016, 12:46
Spiacente non abbiamo 2 schede GTX 1080 a disposizione, quindi niente test in SLI
Ok, peccato perchè mi interessa molto questo aspetto. Grazie lo stesso.
DakmorNoland
17-05-2016, 12:50
Io ho già rivenduto la mia 970. :asd: Tanto ultimamente sto giocando solo più alla PS3, ci sono un casino di giochi che meritano. Lo so molti qui non si capaciteranno che io possa giocare a 720p con aliasing e 30FPS e invece vi dico che onestamente non mi frega nulla. :D
Ora dopo essermi liberato della 970 posso godermi in pace le recensioni e valutare bene quando acquistare la prossima scheda video, sperando che escano giochi decenti nel frattempo...
Ma quindi alle 15 c'è solo la diretta ma non c'è la recensione giusto? Cosa farete vedere in diretta di preciso? Test? Unboxing?
Certo che non avere la 1070 è una bella seccatura... Era quella che mi interessava di più.
paolodekki
17-05-2016, 12:54
Mi piacerebbe che ogni tanto questo tipo di recensione fosse un po' più ampia, arrivando a qualche generazione prima in modo da dare qualche margine di comprensione per chi non fa un upgrade ogni sei mesi (il sito si chiama Hardware Upgrade, quale upgrade è più upgrade di uno che salta n generazioni di hardware? :>)
Credo sia abbastanza tardi per parlarne qui, visto che la review sarà già pronta, ma potrebbe essere uno spunto utile per il futuro.
Considerazione molto intelligente, mi accodo come possessore di un portatile con una vetusta 650 :mc:
Domanda: quando usciranno i primi portatili con questi nuovi sistemi? Si sa qualcosa?
Farete finalmente dei test seri con le librerie PhysX, verificando quanto conta effettivamente una seconda scheda dedicata (che ne so, un 960 magari)?
perché i test PhysX on/off con la sola scheda "principale" sono davvero poco indicativi di quanto la tecnologia PhysX sia fruibile
DakmorNoland
17-05-2016, 13:04
Farete finalmente dei test seri con le librerie PhysX, verificando quanto conta effettivamente una seconda scheda dedicata (che ne so, un 960 magari)?
perché i test PhysX on/off con la sola scheda "principale" sono davvero poco indicativi
No ma onestamente chi è che si compra ancora la secondaria per far girare quello schifo di PhysX??
Io avevo preso la 970 anche per vedere sto benedetto PhysX in azione e l'ho usato sia su Batman che su The Witcher 3. Dai ma è una roba veramente inutile! :asd:
E pensare che dopo anni di AMD ero davvero curioso, però sono veramente due effettini trascurabili!
Non penso che qualcuno usi una secondaria appositamente per quello.
Jones D. Daemon
17-05-2016, 13:15
Salve, vorrei chiedere alla redazione di fare un test in OC con la gpu a 2.2ghz, ovvero la frequenza raggiunta dal sample alla presentazione Nvidia e controllare temperatura e consumo. Sarebbe un test per confutare o confermare quello che Nvidia ha mostrato con un sample, che non sappiamo se essere effettivamente super selezionato o quelle frequenza sono nelle corde di ogni 1080.
DakmorNoland
17-05-2016, 13:16
Salve, vorrei chiedere alla redazione di fare un test in OC con la gpu a 2.2ghz, ovvero la frequenza raggiunta dal sample alla presentazione Nvidia e controllare temperatura e consumo. Sarebbe un test per confutare o confermare quello che Nvidia ha mostrato con un sample, che non sappiamo se essere effettivamente super selezionato o quelle frequenza sono nelle corde di ogni 1080.
Ma scusa perchè secondo te quello che mandano alla redazione di HWU non è un sample selezionato? :stordita:
Il vero test và eseguito a 2.5 ghz ad aria se non esplode :D .
No ma onestamente chi è che si compra ancora la secondaria per far girare quello schifo di PhysX??
Io avevo preso la 970 anche per vedere sto benedetto PhysX in azione e l'ho usato sia su Batman che su The Witcher 3. Dai ma è una roba veramente inutile! :asd:
E pensare che dopo anni di AMD ero davvero curioso, però sono veramente due effettini trascurabili!
Non penso che qualcuno usi una secondaria appositamente per quello.
Comprarla apposta magari no, ma magari mantenerne una "vecchia" invece di venderla per vedere come va con due schede, sì ;);)
In ogni caso, per puro spirito di conoscenza, dovrebbe essere cmnq fatta una recensione simile, al di là dell'utilità o meno degli effetti PhysX ;);)
DakmorNoland
17-05-2016, 13:56
Comprarla apposta magari no, ma magari mantenerne una "vecchia" invece di venderla per vedere come va con due schede, sì ;);)
In ogni caso, per puro spirito di conoscenza, dovrebbe essere cmnq fatta una recensione simile, al di là dell'utilità o meno degli effetti PhysX ;);)
Beh quello sì, magari con una scheda più vecchia. Certo che però sarei curioso di vedere il consumo di una secondaria utilizzata per Physix. Perchè se consumasse troppo, onestamente non la metterei nemmeno se mi avanzasse.
Jones D. Daemon
17-05-2016, 14:04
Ma scusa perchè secondo te quello che mandano alla redazione di HWU non è un sample selezionato? :stordita:
Non possiamo saperlo a priori, e non voglio perdermi in complottismi.
CrapaDiLegno
17-05-2016, 14:24
Non possiamo saperlo a priori, e non voglio perdermi in complottismi.
Non è complottismo, è semplice regola di marketing.
E' ovvio che in nvidia si aspettino che qualcuno faccia anche le prove in overclock e non sarebbe bello né che la scheda risulti incapace di un overclock decente né che in overclock consumi mille mila W.
Sono tutti dati da comparare poi con Polaris chè è fatto con un PP diverso.
Ricordiamo che tra i 16nm di TMSC e i 14nm di Samsung (GF) qualche differenza c'è nelle recensioni degli iPhone che montavano lo stesso chip realizzato con i due PP.
La versione di Samsung era più piccola fisicamente ma consumava un po' di più e saliva di brutto con i consumi man mano che la frequenza si alzava fino al valore massimo imposto da Apple, con tutte le polemiche riguardo all'autonomia dei dispositivi che montavano quella versione di SoC. In questo caso si parla di GPU che nel funzionamento normale vanno quasi sempre al massimo, quindi sarebbe interessante vedere quali sono i consumi effettivi quando il clock viene portato a valori ancora più estremi.
E' possibile che i due PP siano stati nel frattempo miglirati sotto questo aspetto.
tuttodigitale
17-05-2016, 14:25
Credo sia abbastanza tardi per parlarne qui, visto che la review sarà già pronta, ma potrebbe essere uno spunto utile per il futuro.
mi sarebbe piaciuto vedere, all'opera la prima generazione di schede a 28nm. Credo che in molti siano rimasti con queste schede.
Ma scusa perchè secondo te quello che mandano alla redazione di HWU non è un sample selezionato? :stordita:
io sono tra quelli che pensano che nvidia inganni le persone quando sulla scatola scrive freequenza turbo X, e in vari siti la frequenza operativa è il 10-20% superiore, con le inevitabili conseguenze lato benchmark.
Quello che noi vediamo non sono le prestazioni minime garantite, ma quelle dello specifico sample mandato nelle redazioni. Detto questo nulla vieta a nvidia di selezionare opportunamente i sample da inviare ai recensori, tanto più se queste influenzano la lunghezza della barrette (sarebbe da sciocchi non farlo, e infatti AMD è ....).
un ultima considerazione. Da quando nvidia ha introdotto il turbo boost, l'aumento delle prestazione in OC, è sempre stato nettamente più basso di quello che lascia intendere la frequenza turbo selezionata. Per quel che ne sappiamo a 2,1GHz potrebbe andare a malapena il 10% in più (ho voluto esagerare).
Altra domanda: visto che tutti parlano di questa GDDR5X che non è all'altezza della HBM(2) e bla bla bla.... avete fatto dei test in 4K overclocando solo la memoria per vedere se è bandwidth limited?
oltre a questo test, io limiterei la bandwidth a 7 GHz, visto che la 1070 e Polaris, monteranno le gddr5..per capire i limiti che possono avere le soluzioni con memorie della passata generazione.
una sorta di anteprima :eek:
marchigiano
17-05-2016, 14:27
Mi piacerebbe che ogni tanto questo tipo di recensione fosse un po' più ampia, arrivando a qualche generazione prima in modo da dare qualche margine di comprensione per chi non fa un upgrade ogni sei mesi (il sito si chiama Hardware Upgrade, quale upgrade è più upgrade di uno che salta n generazioni di hardware? :>)
sono d'accordo ma non sulla 1080 che ovviamente andrà nettamente più forte di una 670 per es... quando testeranno la 1070 e 1060 sarà interessante avere un confronto con le vecchie anche di fascia più alta
in generale comunque, quando ho bisogno di un confronto spannometrico, vado su 3dmark e cerco i risultati delle schede, quando la differenza va dal doppio in su è sufficiente come precisione
maghahas
17-05-2016, 14:28
Non è che vi avanza la stessa somma pure per me? :D
il live solo su facebook oppure si può seguire da altrove?
CrapaDiLegno
17-05-2016, 17:39
io sono tra quelli che pensano che nvidia inganni le persone quando sulla scatola scrive freequenza turbo X, e in vari siti la frequenza operativa è il 10-20% superiore, con le inevitabili conseguenze lato benchmark.
Poi dicono che sono fanboy nvidia perché la difendo sempre.. ma se poi uno scrive queste cose...
Guarda che è stata AMD ad essere stata pizzicata a fornire sample "fasulli" alle testate giornalistiche quando ha presentato la 290X che pur facendo schifo nei test era pure peggio nella versione acquistata in negozio. Alcuni siti hanno fatto la recensione delle schede sample e quelle comprate in un negozio e sono risultate completamente diversi.
Tante scuse, non lo faccio più e ci si è dimentcati della cosa, a quanto pare.
tuttodigitale
17-05-2016, 18:16
Poi dicono che sono fanboy nvidia perché la difendo sempre.. ma se poi uno scrive queste cose...
innanzitutto le prestazioni diverse da chip a chip, è un dato di fatto, non opinabile, per tutti i chip che basano la loro frequenza di funzionamento sulla temperatura (AMD-nvidia) e non hanno limiti superiori prestabiliti (nvidia):
oggi abbiamo delle 1080 che raggiungono a default i 1885 MHz (techpowerup)....contro i 1733 nominali, +9%, poca cosa rispetto quello che abbiamo visto nei giorni della gtx680 (schede che superavano il 15% della frequenza turbo)
Ma temo che tu oggi abbia scoperto, grazie al sottoscritto, l'acqua calda..
Guarda che è stata AMD ad essere stata pizzicata a fornire sample "fasulli" alle testate giornalistiche quando ha presentato la 290X che pur facendo schifo nei test era pure peggio nella versione acquistata in negozio.
stai parlando della scheda che quando è uscita ha cambiato radicalmente il parametro prezzo-prestazioni, andando più di una TITAN e costando molto meno di 780 ed ad oggi va più di una 970....se non sei un fanboy cosa sei? :eek:
E comunque le limitazioni erano facilmente aggirabili, intervenendo manualmente sulla velocità delle ventole (le schede nei negozi erano più lente ma anche meno rumorose di quelle dei test).
http://www.tomshw.it/files/2013/11/immagini_contenuti/50674/fan-speed-stock_t.png
da ignorante, non mi sentirei di dare colpa ad AMD, se le schede degli OEM, non rispettano le caratteristiche del modello reference (Vedi velocità rotazione ventola impostata al 40%)...
Quindi si SEI UFFICIALMENTE UN FANBOY, dopo questa uscita
CrapaDiLegno
17-05-2016, 18:28
Tirare in ballo prestazioni e costi per far parlare di tutt'altro rispetto al discorso "schede truccate per i bench e squallide per i negozi" già rende l'idea da quale parte "tifi".
Ti ricordo che il costo di quella scheda è anche uno dei motivi per cui AMD alla fine dei 16 trimestri precedenti ha fatto sempre segno negativo nella divisione grafica.
Bel risultato, non c'è che dire.
Detto questo, la questione dei chip variabili la consocono tutti quelli che usano l'HW fuori dalle specifiche (per le quali sono garantiti).
Sai bene che la diversità dovuta alle differenze sono minime. Certo, il bbmkina che guarda i test con le virgole (oooh, guarda questa scheda fa 1,6FPS più dell'altra!) magari la differenza di frequenza conta, per chi guarda il risultato con il cervello, differenze di 2-3 frame non sono differenze ma incertezze di misura e di test più che trascurabili.
Discorso diverso dare sample con bios e impostazioni diverse rispetto alle schede in vendita per tentare di pompare i numeri sulle barrette nei giochi in cui la loro nuova top gamma le prendedva comunque.
E non attribuirmi i tuoi difetti, caro. Il fanboy che ha tentato la difesa estrema parlando di costi, prestazioni e altre schiocchezze inutili alla discussione sei stato tu, oltre al fatto di aver fatto un'accusa a sproposito visto il passato di AMD. Trova qualcun altro con cui fareil bullo che con me non attacca.
tuttodigitale
17-05-2016, 19:30
Tirare in ballo prestazioni e costi per far parlare di tutt'altro rispetto al discorso "schede truccate per i bench e squallide per i negozi" già rende l'idea da quale parte "tifi".
il virgolettato, impone che io abbia detto quelle cose.... :rolleyes:
le prestazioni le hai messe tu in ballo scrivendo una stronz@ta di questo tipo (AMD)"ha presentato la 290X che pur facendo schifo nei test"
Ti ricordo che il costo di quella scheda è anche uno dei motivi per cui AMD alla fine dei 16 trimestri precedenti ha fatto sempre segno negativo nella divisione grafica.
OMG, ora la vende in perdita....AMD sarebbe contentissima di venderla a palate. Non fare disinformazione. E per giunta ricordo che il chip Hawaii aveva dimensioni a dir poco modeste rispetto al gk100 delle soluzioni 780 (ti), e visto il bandwidth limited, era possibile anche usare la versione ridotta, con differenze prestazionali praticamente inesistenti.
Detto questo, la questione dei chip variabili la consocono tutti quelli che usano l'HW fuori dalle specifiche (per le quali sono garantiti).
Sai bene che la diversità dovuta alle differenze sono minime.
se c'è un buco tra la frequenza boost ufficiale, e quella reale che puà raggiungere il 15% (gtx680 docet), la variabilità tra il chip sfigato, ma che comunque rientra nelle specifiche e quello ottimo, può raggiungere quel valore massimo.
Che poi mediamente le differenze sono insignificanti (5%) è vero, ma lato OC (di questo stavamo parlando o no?), le schede offerte alle redazioni potrebbero non essere rappresentative.
Discorso diverso dare sample con bios e impostazioni diverse rispetto alle schede in vendita per tentare di pompare i numeri sulle barrette nei giochi in cui la loro nuova top gamma le prendedva comunque.
ma parli ancora della r9 290x? Perchè le impostazioni diverse da Bios non c'entrano niente (e se fosse la responsabilità va ai singoli OEM e non certo ad AMD): a variare è proprio la relazione tensione/rpm, della ventolina.
Ma forse, non ricordi la storia: la r9 290x quando è uscita era la scheda più veloce in commercio venduta a 550 euro vs 650 della 780 e i 1000euro della Titan.
Fatto ancora più "grave" che la R9 290 era veloce quanto la Titan e costava 400 euro:
nvidia è stata costretta ad uscire con la 780ti, più veloce della Titan, un poco più veloce della r9 290x ma anche molto più costosa (listino a 700 euro).
Ci fossero state altre schede come le R9 290(x) in grado di modificare radicalmente il rapporto prezzo prestazioni: invece ad oggi, con 400 euro (prezzo di listino a debutto della 290, uscita 30 mesi fa), cosa puoi comprare di meglio? una r9 390x.. (la gtx 980 costa un centinaio di euro in più del street price della 290 a Gennaio 2014).
cdimauro
19-05-2016, 19:29
il virgolettato, impone che io abbia detto quelle cose.... :rolleyes:
Benvenuto nel "club". :D E... abituati.
OMG, ora la vende in perdita....AMD sarebbe contentissima di venderla a palate. Non fare disinformazione. E per giunta ricordo che il chip Hawaii aveva dimensioni a dir poco modeste rispetto al gk100 delle soluzioni 780 (ti), e visto il bandwidth limited, era possibile anche usare la versione ridotta, con differenze prestazionali praticamente inesistenti.
Esattamente. Anche perché sono i primi sample, e man mano che le rese saranno migliori ci saranno sempre più chip più "buoni" per OC et similia.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.