View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
Legolas84
23-05-2017, 15:59
di la è un mondo a parte :asd:
Esatto, cerchiamo di tenere in ordine almeno questo di thread evitando di scrivere cose insensate e senza fondatezza :)
Poi possiamo sempre contare su gente come Mikael e Ren che ne sanno davvero tantissimo sull'argomento...
Inviato dal mio iPhone utilizzando Tapatalk Pro
Io mai dette fortunatamente, e guarda caso sempre tenuto AF a 16X ed Alta qualità sul pannello di controllo. Ma "di là" si parla di complotti sulla resa a video un post sì e l'altro... Pure :asd:
in qualche maniera la pacca sulle spalle se la dovranno pure dare di là, dai lasciaglielo fare :D
a me del discorso colore frega nulla, ma guarda che sta frase è stata usata n volte per descrivere i thread filo-nvidia :asd: quindi arrivi tardi e nel "post" sbagliato :asd:
Devi avere delle spalle rossseeeee!!!! Rosse come rosoniiii!!!! Ma rossseeeee rosssseeeeee!!!!!!
ahahhh :D
occhio ego che c'è freeman in giro in sti giorni :fagiano:
Hl3, confirmed :O
a me del discorso colore frega nulla, ma guarda che sta frase è stata usata n volte per descrivere i thread filo-nvidia :asd: quindi arrivi tardi e nel "post" sbagliato :asd:
non era una cosa minimamente riferita a te, sei uno dei pochi che si salva e riconosco il fatto che te ne intendi molto a livello tecnico, mettendoti in discussione e confrontandoti più volte anche con mikeal, i post tecnici da chi sà di cosa parla fan sempre piacere.
Era solo una constatazione sull'andazzo dell'altro thread, prendo al balzo il post di bagnino89...non scrivo (intenzionalmente) mai di là, questo non vuol dire che non segua ogni giorno entrambi le discussioni dei "2 fronti"; escludendo il degenero dei troll/"""poeti""" che hanno raschiato il fondo della tristezza, la storia dei colori l'han ripetuta talmente tante volte, in talmente tanti, che ormai è diventata una realtà assoluta...per loro...da qui "darsi le pacche sulle spalle" :)
---
a conti fatti, nonostante questi rumor che danno la sensazione di Volta dietro l'angolo, che date ci si potrebbe aspettare? febbraio/marzo per il GV100 nel settore pro e nel secondo trimestre xx70/xx80 vi sembra possibile? o dite anche prima per il settore consumer?
TigerTank
23-05-2017, 21:02
Hl3, confirmed :O
Bundled with Volta :O
Legolas84
23-05-2017, 21:54
a conti fatti, nonostante questi rumor che danno la sensazione di Volta dietro l'angolo, che date ci si potrebbe aspettare? febbraio/marzo per il GV100 nel settore pro e nel secondo trimestre xx70/xx80 vi sembra possibile? o dite anche prima per il settore consumer?
Secondo me Volta Pro potrebbe arrivare addirittura già quest'anno.... per la serie GeForce invece sarà intorno a Marzo 2018 :)
AceGranger
23-05-2017, 22:05
La Quadro GP100 utilizza il GP100 FP64 full Tesla, che è l'unica dotato di NVlink.
Nelle versioni gaming levano tutto e sarà utilizzato come standard solo dal GV100.
ah si si, ma io ipotizzavo la fantasia di avere una Titan Super basata su GP100/GV100 :D
illidan2000
23-05-2017, 23:54
Secondo me Volta Pro potrebbe arrivare addirittura già quest'anno.... per la serie GeForce invece sarà intorno a Marzo 2018 :)
dipende un po' pure da Vega, ma per dicembre/gennaio le quadro potrebbero vedersi
AceGranger
24-05-2017, 08:18
dato che la concorrenza nel HPC non è amd in questo momento, ma Intel con Xeon Phi.
e sinceramente, con le GPU, non credo lo sara mai; è molto probabile invece che ci entrera con i Naples.
lato GPGPU il divario è diventato troppo e, a meno di qualche cavolata di nVidia, credo che in futuro potra solo aumentare.
Bundled with Vega :O
Fxd :stordita:
majinbu7
24-05-2017, 11:15
Quelle immagini che io ricordi indicano che grazie all'algoritmo di Pascal ci sono molti più dati comprimibili in banda passante rispetto a Maxwell... non è la resa finale delle immagini...
Comunque potrei sbagliare e per questo aspettavo di sentire mikael o Ren...
Inviato dal mio iPhone utilizzando Tapatalk Pro
Con Pascal ogni thread non sempre veniva sfruttato correttamente in alcuni calcoli, con Volta ogni thread sarà indirizzato ed allocato.
Per i risultati e qualche altra miglioria, bisognerà aspettare qualche prova.:)
Qua c'è molto da dire.
La Quadro GP100 utilizza il GP100 FP64 full Tesla, che è l'unica dotato di NVlink.
Nelle versioni gaming levano tutto e sarà utilizzato come standard solo dal GV100.
Non è Maxwell che ha introdotto la compressione delta color ma Tonga;)
La compressione delta color è una tecnica per risparmiare banda in lettura.
Si prende un blocco 8x8 pixel e lo si comprime in varie modalità, dalla 8:1 alla 4:1 2:1.
Questo permette di risparmiare molta banda e latenze di elaborazione.
Maxwell ha sfruttato meglio la compressione, collegando un buon numero di rop's, tuttavia aveva spesso problemi a decomprimere in 2:1.
Pascal e Polaris, riescono a comprimere in qualsiasi modalità 8:1/4:1/2:1.
Pascal riesce anche a comprimere i colori adiacenti, risparmiando ulteriore banda e latenze.
Il rendering non centra una s..a....:p
Scusa, stai cercando di dire che la compressione non porta a risultati differenti in render?
Perchè non mi pare assolutamente così:
http://gpuopen.com/dcc-overview/
Capisco che si tratti di salvare dei delta di variazione anzichè i valori puri, quindi teoricamentesia lossless, ma non è corretto dire che non abbia a che fare con il rendering.
Ci sono anche altre tecniche di compressione che invece di qualità ne perdono (generalmente legate alle texture come l'astc).
AMD e Nvidia utilizzano lo stesso identico modello di compressione senza perdita, quello che sottolinei tu non ha alcun senso. Tu stai ribattendo che Nvidia si vede male perchè decomprime troppo.
Per dirti Polaris ha una compressione più aggressiva di Maxwell.
A livello visivo tra le varie GPU non cambia nulla, al massimo cambia l'impostazione dei filtri a default su nvidia.;)
se è lossless vuol dire proprio che non ha nulla a che fare con la resa finale del rendering.
è come dire che un file word zippato e decompresso è qualitativamente inferiore al word di partenza e tu riesci a trovare differenze.
e sì che i colori sono l'unica cosa che proprio non c'entra un cazzo :asd:
Ma chi le dice queste fesserie.
Può succedere che un gioco driver default supporti male l'AF e la qualità è a default, oppure proprio non lo applica, lasciando le texture slavate in lontananza.
Basta regolare il pannello così, perdita fps dai 0 ai 2 circa.
Filtro struttura.
http://i68.tinypic.com/v412ec.png
Prey a qualità default, mostra migliore anisotropia che su AMD.
https://www.youtube.com/watch?v=CP2jsAuI7Ls
Nel thread aspettando le nuoveVGA AMD (Vega), che seguo molto perchè cmq devo cambiare monitor e vga, e dovrò poi valutare quale sarà meglio tra lei e la 1080TI, ho provato a spiegare più volte che i colori resi a schermo da una vga all'altra sono identici, se non per qualche regolazione che sulle AMD li da più saturi, ma basta poi regolarli di conseguenza pure sulle Nvidia...beh sono stato Lapidato/messo in croce e mi hanno pure dato dell'incompetente .... quando non capiscono che la resa in game differente è solo per i vari filtri.... :doh:
Se i siti non fanno più analisi sulla qi serie poi ci dobbiamo tenere i video sul tubo compressi e quindi apriti cielo......cmq che ci fossero dei bug da anni nei profili hdmi (vai a spiegarlo a uno che attacca la tv di rifare il profilo icc di windows come ti guarda) dati dai driver nvidia è un datto di fatto, nessun complotto......dai che siete ancora i migliori e volta è dietro l'angolo!
Sul mio fido 4s vedo più saturi i colori della 1060... Forse ho un 4s made by huan with leather jacket :O
Sul mio fido 4s vedo più saturi i colori della 1060... Forse ho un 4s made by huan with leather jacket :O
una giacca in pelle è per sempre :O
Legolas84
24-05-2017, 14:16
vabbe però non sputtaniamo anche questo di thread... per complotti, colori migliori, filtri migliori ecc c'è già il thread AMD dove potete scrivere tutto quello che volete e darvi ragione... qui cerchiamo di rimanere in topic parlando di Volta e della futura architettura NVIDIA...
mikael84
24-05-2017, 14:18
Ragazzi stiamo in tema, per parlare di tutto il resto ci sono i rispettivi thread.:rolleyes:
Legolas84
24-05-2017, 14:36
Ragazzi stiamo in tema, per parlare di tutto il resto ci sono i rispettivi thread.:rolleyes:
Esatto ;)
Rimanendo in Topic, ero curioso di farti una domanda Mikael...
Partendo dai dati che abbiamo oggi su Volta, quindi ancora un pò fumosi.... secondo te c'è il rischio che Maxwell e Pascal possano subire lo stesso problema di Kepler? Ovvero un salto di architettura così netto da mettere in difficoltà le vecchie architetture?
TigerTank
24-05-2017, 14:38
Esatto ;)
Rimanendo in Topic, ero curioso di farti una domanda Mikael...
Partendo dai dati che abbiamo oggi su Volta, quindi ancora un pò fumosi.... secondo te c'è il rischio che Maxwell e Pascal possano subire lo stesso problema di Kepler? Ovvero un salto di architettura così netto da mettere in difficoltà le vecchie architetture?
Lol ma che paranoie! Ma goditi il sistemone che hai ora...a guardare sempre avanti non ci si gusta più nulla :sofico:
Legolas84
24-05-2017, 14:51
Lol ma che paranoie! Ma goditi il sistemone che hai ora...a guardare sempre avanti non ci si gusta più nulla :sofico:
Ma non sono mica paranoie! Ci mancherebbe :D
Il sistema me lo godo alla grande.
Lo facevo così per parlare e capire un pò cosa dobbiamo aspettarci :)
X-ray guru
24-05-2017, 14:52
non ci si gusta più nulla :sofico:
Io mi gusterei davvero FarCry 5, se fossero anche ingame i primi teaser che sono apparsi in rete in questi giorni. :P
Se fossero anche solo avvicinabili con calcolo in tempo reale, mi sa che ci vorranno tutti i GTexel di Volta.
majinbu7
24-05-2017, 14:56
https://ruedintorni.files.wordpress.com/2014/03/pacca-sulla-spalla.png
:D
:asd:
Scusate per l'ennesimo OT, ma questa era troppo bella :D
Ps:speriamo che volta sia davvero qualcosa di diverso, perchè per me con pascal siamo arrivati un pò al limite delle prestazioni nell'architettura per mmq....per avere una vera e propria evoluzione nelle performance ci vuole qualcosa di molto diverso, altrimenti saremo al solito piccolo step di 20/30% in più, che ormai a causa dei porting fatti col di dietro non bastano.
mikael84
24-05-2017, 14:57
Esatto ;)
Rimanendo in Topic, ero curioso di farti una domanda Mikael...
Partendo dai dati che abbiamo oggi su Volta, quindi ancora un pò fumosi.... secondo te c'è il rischio che Maxwell e Pascal possano subire lo stesso problema di Kepler? Ovvero un salto di architettura così netto da mettere in difficoltà le vecchie architetture?
Kepler rimane un caso a se. Un'architettura pensata per ottenere il massimo dalle vecchie programmazioni, con utilizzo massiccio di texture fillrate e cuda in dipendenza.
Questa architettura soffre molto anche dai vari colli d bottiglia, che ormai sono troppo pesanti.
Qualsiasi gioco strozza la BW di questa, la ram è insufficiente (neppure una compressione ad alleggerire la BW) e le rop's misere con efficienza scarsa.
Maxwell e Pascal non hanno limitazioni attualmente, sopratutto via rop's e cuda elaborati.
Volta se utilizzerà i warp da 16 in rapporto 2:1 con la load store, migliorerà nei cicli, nelle istruzioni e nella cache, nonchè nel lavoro dei thread ottimale.
Non ci sono dipendenze, o colli di bottiglia evidenti attualmente, ma non è da escludere che qualche gioco cerchi di sfruttare al meglio l'architettura Volta, architettura che in campo gaming va ancora confermata.
Vega= Volta per certi versi.
I motori ACE elaborano i dati ma si avvalgono del raster conservative(inserito in Pascal per abbassare latenze).
Volta, schedula ogni thread per farlo lavorare al 100%, senza perdite o stadi di idle.:)
Legolas84
24-05-2017, 15:35
Kepler rimane un caso a se. Un'architettura pensata per ottenere il massimo dalle vecchie programmazioni, con utilizzo massiccio di texture fillrate e cuda in dipendenza.
Questa architettura soffre molto anche dai vari colli d bottiglia, che ormai sono troppo pesanti.
Qualsiasi gioco strozza la BW di questa, la ram è insufficiente (neppure una compressione ad alleggerire la BW) e le rop's misere con efficienza scarsa.
Maxwell e Pascal non hanno limitazioni attualmente, sopratutto via rop's e cuda elaborati.
Volta se utilizzerà i warp da 16 in rapporto 2:1 con la load store, migliorerà nei cicli, nelle istruzioni e nella cache, nonchè nel lavoro dei thread ottimale.
Non ci sono dipendenze, o colli di bottiglia evidenti attualmente, ma non è da escludere che qualche gioco cerchi di sfruttare al meglio l'architettura Volta, architettura che in campo gaming va ancora confermata.
Vega= Volta per certi versi.
I motori ACE elaborano i dati ma si avvalgono del raster conservative(inserito in Pascal per abbassare latenze).
Volta, schedula ogni thread per farlo lavorare al 100%, senza perdite o stadi di idle.:)
Puntuale e preciso come sempre ;)
Inviato dal mio iPhone utilizzando Tapatalk Pro
Quindi se Vega causa disponibilità o altro decidesse di slittare a settembre e puntassi a 1070/1080 non lo prenderei in quel posto con i prossimi titoli con l'uscita di volta, giusto? :sofico:
mikael84
24-05-2017, 23:20
Quindi se Vega causa disponibilità o altro decidesse di slittare a settembre e puntassi a 1070/1080 non lo prenderei in quel posto con i prossimi titoli con l'uscita di volta, giusto? :sofico:
Kepler è un'autentico colabrodo. Un chip pensato per il pro, adattato al gaming. Tuttavia ha ancora supporto.
Una 780 ti, raggiunge appena 220 gb/s di BW effettiva, meno della 970 e le rop's sono meno e molto meno efficienti.
La memoria è di 3gb con un canale a vuoto di collegamento, non ha una decente DCC e la latenza di elaborazione è quasi tripla rispetto ad una 970.
Va bene con gli unigine heaven, per via della memoria senza compressione e del backfaceculing con un buon OC.
La cache l2 è di appena 128kb a canale, con due canali a vuoto per la 780 ed uno per la 780ti, questo significa che il sottosistema di una 780 teoricamente è a tratti inferiore addirittura ad una 960.
La 960 si ritrova avanti nel rapporto cache rop's ad 1/3 delle latenze, ma lontana da certi tipi di calcoli.
Questo discorso per dire che Kepler ha notevoli colli di bottiglia e in alcuni giochi questo si pone come un problema.
Parlando del futuro, Volta e Vega saranno piuttosto simili, e con Pascal non ci sono colli di bottiglia, sarà la nuova architettura a poter cambiar qualcosa.
Se ti serve una scheda puoi prenderla tranquillamente.;)
TigerTank
25-05-2017, 08:16
Ma non sono mica paranoie! Ci mancherebbe :D
Il sistema me lo godo alla grande.
Lo facevo così per parlare e capire un pò cosa dobbiamo aspettarci :)
Era una battuta :ciapet:
Comunque prima di quello l'importante è che abbiano il loro buon margine, ritornino gli smanettamenti su PL e overvolt-overclock(le pascal sono noiosissime i ntal senso)...e le X70 di base non arrivino definitivamente alla ex fascia di prezzo delle X80 :D
Io mi gusterei davvero FarCry 5, se fossero anche ingame i primi teaser che sono apparsi in rete in questi giorni. :P
Se fossero anche solo avvicinabili con calcolo in tempo reale, mi sa che ci vorranno tutti i GTexel di Volta.
Più che altro spero che a fronte di un graficone all'ultimo grido, il gameplay non sia la solita roba ormai trita e ritrita.
Kepler è un'autentico colabrodo. Un chip pensato per il pro, adattato al gaming. Tuttavia ha ancora supporto.
Una 780 ti, raggiunge appena 220 gb/s di BW effettiva, meno della 970 e le rop's sono meno e molto meno efficienti.
La memoria è di 3gb con un canale a vuoto di collegamento, non ha una decente DCC e la latenza di elaborazione è quasi tripla rispetto ad una 970.
Va bene con gli unigine heaven, per via della memoria senza compressione e del backfaceculing con un buon OC.
La cache l2 è di appena 128kb a canale, con due canali a vuoto per la 780 ed uno per la 780ti, questo significa che il sottosistema di una 780 teoricamente è a tratti inferiore addirittura ad una 960.
La 960 si ritrova avanti nel rapporto cache rop's ad 1/3 delle latenze, ma lontana da certi tipi di calcoli.
Questo discorso per dire che Kepler ha notevoli colli di bottiglia e in alcuni giochi questo si pone come un problema.
Parlando del futuro, Volta e Vega saranno piuttosto simili, e con Pascal non ci sono colli di bottiglia, sarà la nuova architettura a poter cambiar qualcosa.
Se ti serve una scheda puoi prenderla tranquillamente.;)
Eheheh grande Mike. Più che altro ora i "colli di bottiglia" sono i limiti imposti per conservazione delle schede...tra impossibilità di bios modding e overvolt inefficace. Speriamo che le cose cambino...con le gtx780 da questo punto di vista ci si divertì parecchio :)
Ho preso una 1080 EVGA superclocked a 450 euro ( un amd 480 si è cotta quindi ciao ciao crossfire ) , spero di non pentirmene , sento che Volta è molto vicino...
.
mikael84
25-05-2017, 13:51
Eheheh grande Mike. Più che altro ora i "colli di bottiglia" sono i limiti imposti per conservazione delle schede...tra impossibilità di bios modding e overvolt inefficace. Speriamo che le cose cambino...con le gtx780 da questo punto di vista ci si divertì parecchio :)
Con le 780 buon silicio (le mie:D ) ci prendevo praticamente un 20/23% di clock in più con OV (basato sul valore delle reference 993-1006).
Maxwell è più o meno lineare, anche se alcuni silici benchvano con quasi il 40% in più (Edo ed altri)
Pascal ha mediamente un 10/15% di margine.:)
mirkonorroz
25-05-2017, 13:59
Ho preso una 1080 EVGA superclocked a 450 euro ( un amd 480 si è cotta quindi ciao ciao crossfire ) , spero di non pentirmene , sento che Volta è molto vicino...
.
Gia' scaduta la garanzia?
Gia' scaduta la garanzia?
No ma prima che torna da rma...
2 mesi .
maxmix65
25-05-2017, 15:27
No ma prima che torna da rma...
2 mesi .
2 mesi??
Acquistata dove??
TigerTank
26-05-2017, 18:25
27/02/2018 uscirà Far Cry 5. Qualcosa mi dice che sarà il trampolino di lancio delle prime Volta, che sia la Titan o la gtx1080. :O
mikael84
27-05-2017, 00:05
27/02/2018 uscirà Far Cry 5. Qualcosa mi dice che sarà il trampolino di lancio delle prime Volta, che sia la Titan o la gtx1080. :O
Il q1 è la data minima, il q2 (maggio) è la data che definirei quasi max.
Ormai mancherebbe solo capire in che fase stanno..:)
Il q1 è la data minima, il q2 (maggio) è la data che definirei quasi max.
Ormai mancherebbe solo capire in che fase stanno..:)
Diciamo che fine febbraio/marzo sembra altamente probabile
se fosse vero anche per sto giro dopo maxwell e pascal niente arc su volta.
Il futuro dell audio è la vga passa tutto da li.Il canale di ritorno è fondamentale un vero fallimento
illidan2000
28-05-2017, 22:06
se fosse vero anche per sto giro dopo maxwell e pascal niente arc su volta.
Il futuro dell audio è la vga passa tutto da li.Il canale di ritorno è fondamentale un vero fallimento
sono ignorante in materia... ma si tratterebbe pur sempre di audio
Crysis90
28-05-2017, 23:31
http://wccftech.com/nvidia-rumored-debut-new-volta-graphics-card-computex-tomorrow-watch-live-keynote/
Mah.
sono ignorante in materia... ma si tratterebbe pur sempre di audio
sbagliato :p
E' dai tempi di fermi che envidia ha implementato la gestione audio sulle proprie schede.
Il punto è che l hdmi è nato per semplificare la vita all utente, e nelle ultime revisioni 2.0/a/b tra uhd e atmos/x da tutto il necessario attualmente disponibile.Cosa possibile da maxwell in poi in teoria.
La funzione arc a partire dall 1.4 ha dato vita ad una semplificazione enorme gestire flussi audio nativi codificati in entrata contemporaneamente ai flussi audio/video in uscita.Non solo.
Questa stessa caratteristica fosse implementata oggi da envidia/amd significherebbe poter gestire segnali dd/dts in passthrough, quindi diretti.
Applicazione pratica far passare l audio discreto codificato di netflix o dvbt2 dalla tv al pc. Nell mio caso passerei da dolby digital 5.1 ad atmos con un estensione in gamma dinamica senza paragoni.
Riepilogando envidia se ne frega dell acr creative se ne frega del passthrough risultato impossibile gestire codifiche al pc dall esterno
scorpion73
29-05-2017, 09:45
http://wccftech.com/nvidia-rumored-debut-new-volta-graphics-card-computex-tomorrow-watch-live-keynote/
Mah.
Se esce adesso la Titan Volta significa che o la basano su GV100 o hanno il GV102 già pronto
E in ogni caso sarà ipercastrato e con un prezzo da vacanza alle Maldive... quindi a posto stanno bene così...
AceGranger
29-05-2017, 10:25
Se esce adesso la Titan Volta significa che o la basano su GV100 o hanno il GV102 già pronto
E in ogni caso sarà ipercastrato e con un prezzo da vacanza alle Maldive... quindi a posto stanno bene così...
bho magari potrebbero fare come per la prima Titan e andare ad aggredire quella fascia di mercato anche professionale che una tesla non se la prenderebbe perchè troppo costosa per feature non tutte utilizzate.
es. io potrei sfruttare il GPGPU e la memoria condivisa via l'nVlink, ma non me ne faccio nulla di FP64, e Tensor Core, e con il piffero che spenderei quei soldi per 2 Tesla o Quadro GP100....
illidan2000
29-05-2017, 13:59
sbagliato :p
E' dai tempi di fermi che envidia ha implementato la gestione audio sulle proprie schede.
Il punto è che l hdmi è nato per semplificare la vita all utente, e nelle ultime revisioni 2.0/a/b tra uhd e atmos/x da tutto il necessario attualmente disponibile.Cosa possibile da maxwell in poi in teoria.
La funzione arc a partire dall 1.4 ha dato vita ad una semplificazione enorme gestire flussi audio nativi codificati in entrata contemporaneamente ai flussi audio/video in uscita.Non solo.
Questa stessa caratteristica fosse implementata oggi da envidia/amd significherebbe poter gestire segnali dd/dts in passthrough, quindi diretti.
Applicazione pratica far passare l audio discreto codificato di netflix o dvbt2 dalla tv al pc. Nell mio caso passerei da dolby digital 5.1 ad atmos con un estensione in gamma dinamica senza paragoni.
Riepilogando envidia se ne frega dell acr creative se ne frega del passthrough risultato impossibile gestire codifiche al pc dall esterno
certo certo, io parlavo con toni fortemente egoistici, poiché semplicemente vado a disabilitare tutto ciò che concerne la gestione dell'audio da parte della scheda video, per non farla andare in conflitto con la mia scheda audio. Ovvio che ci sono molte alte possibili configurazioni dove non si ha una scheda discreta, e si preferisce l'audio passato sulla vga (che sia digitale o meno o un mero passthrough)
sbagliato :p
E' dai tempi di fermi che envidia ha implementato la gestione audio sulle proprie schede.
Il punto è che l hdmi è nato per semplificare la vita all utente, e nelle ultime revisioni 2.0/a/b tra uhd e atmos/x da tutto il necessario attualmente disponibile.Cosa possibile da maxwell in poi in teoria.
La funzione arc a partire dall 1.4 ha dato vita ad una semplificazione enorme gestire flussi audio nativi codificati in entrata contemporaneamente ai flussi audio/video in uscita.Non solo.
Questa stessa caratteristica fosse implementata oggi da envidia/amd significherebbe poter gestire segnali dd/dts in passthrough, quindi diretti.
Applicazione pratica far passare l audio discreto codificato di netflix o dvbt2 dalla tv al pc. Nell mio caso passerei da dolby digital 5.1 ad atmos con un estensione in gamma dinamica senza paragoni.
Riepilogando envidia se ne frega dell acr creative se ne frega del passthrough risultato impossibile gestire codifiche al pc dall esterno
Ehm sì ma passi da 5.1 ad Atmos con una sorgente che però rimane 5.1?!
certo certo, io parlavo con toni fortemente egoistici, poiché semplicemente vado a disabilitare tutto ciò che concerne la gestione dell'audio da parte della scheda video, per non farla andare in conflitto con la mia scheda audio. Ovvio che ci sono molte alte possibili configurazioni dove non si ha una scheda discreta, e si preferisce l'audio passato sulla vga (che sia digitale o meno o un mero passthrough)
ci sono novità in tal senso come scrivevo sul thread della 980ti,
tramite pannello audio di windows creators è possibile processare l audio codificato dalla scheda audio discreta e passarlo alla vga. A che pro?
Questo tipo di configurazione abilitando l atmos tramite l apposita app, gratuita per l home theatre trial per le cuffie spaziali, estende l elaborazione atmos al fronte posteriore anche se la sorgente è stereo.Con un guadagno dinamico netto della scena sonora rispetto al vecchio prologicII.
Schede come la zxr tramite driver ed il s.o. pur non essendo certificate atmos sono compatibili.L avr rileva segnale atmos pur essendo gestito dal pannello creative :)
Ehm sì ma passi da 5.1 ad Atmos con una sorgente che però rimane 5.1?!
è un netto miglioramento per risposta in frequenza e dinamica da dd5.1 ad atmos 5.1 lo sto testando da circa 1 settimana :)
Per andare oltre i canali discreti ed usare gli oggetti i nuovi avr atmos hanno uno o piu profili encoder che elaborano il segnale d ingresso 5.1/7.1 in dtsx/atmos.
Auro3d è uno di questi ma a pagamento tramite firmware
Crysis90
29-05-2017, 14:43
http://wccftech.com/evga-geforce-gtx-1080-ti-kingpin-edition-unleashed/
Holy fucking SHIT!! :eekk:
http://wccftech.com/evga-geforce-gtx-1080-ti-kingpin-edition-unleashed/
Holy fucking SHIT!! :eekk:
Still stesso muro delle reference di cartone da 600€ 😏
Crysis90
29-05-2017, 14:48
Still stesso muro delle reference di cartone da 600€ 😏
Col piffero:
"In a tweet by EVGA’s Jacob, he revealed that the GTX 1080 TI Kingpin edition was able to sustain an overclock of 2400 MHz+ on air cooling with impressive temperatures."
Col piffero:
"In a tweet by EVGAs Jacob, he revealed that the GTX 1080 TI Kingpin edition was able to sustain an overclock of 2400 MHz+ on air cooling with impressive temperatures."
Seh, come i 2100mhz+ della 1080 reference alla presentazione a 67 gradi lol
Per fare una cosa del genere avranno messo pesantemente mano al tutto e se fosse vero costerebbe Easy sopra i 1000€ 😏😏
Crysis90
29-05-2017, 14:54
Seh, come i 2100mhz+ della 1080 reference alla presentazione a 67 gradi lol
Si ma questa non è una reference.
Hai visto il PCB e la circuteria?
Tutto un altro pianeta, IMHO.
è un netto miglioramento per risposta in frequenza e dinamica da dd5.1 ad atmos 5.1 lo sto testando da circa 1 settimana :)
Per andare oltre i canali discreti ed usare gli oggetti i nuovi avr atmos hanno uno o piu profili encoder che elaborano il segnale d ingresso 5.1/7.1 in dtsx/atmos.
Auro3d è uno di questi ma a pagamento tramite firmware
Ti pvttizzo :D
http://wccftech.com/evga-geforce-gtx-1080-ti-kingpin-edition-unleashed/
Holy fucking SHIT!! :eekk:
Oh mio dio cos'è di bello questa vga?!
Still stesso muro delle reference di cartone da 600€
E' la mia piu grande paura anche se Jacob dice nell'articolo che possa andare a 2400+ on air cooling....
Ragazzi fosse così addio TXp e benvenuta Kingpin!
Speriamo bene e dita incrociate, questo Computex sembra essere molto interessante grazie anche alla concorrenza rinata con AMD, senza Ryzen e Threadripper ci saremmo sognati il 7980xe da 18/36 :ave:
Oh mio dio cos'è dibelo questa vga?!
E' la mia piu grande paura anche se Jacob dice nell'articolo che possa andare a 2400+ on air cooling....
Ragazzi fosse così addio TXp e benvenuta Kingpin!
Speriamo bene e dita incrociate, questo Computex sembra essere molto interessante grazie anche alla concorrenza rinata con AMD, senza Ryzen e Threadripper ci saremmo sognati il 7980xe da 18/36 :ave:
Secondo me non era ad aria lel, jacob non ha specificato nulla. Wccftech ovviamente salta come al solito alle conclusioni
TigerTank
29-05-2017, 19:01
A me dallo screen di precisionX pare giusto settata così sul software perchè quei 20°C non esistono proprio. Manco a liquido sarebbe così fresca se tirata anche un pochino in bench :asd:
Poi se usciranno dei benchmark attendibili a confermare la cosa allora tanto di cappello, ma così non mi dice nulla :D
Dai Nurabsa, la nuova Kingpin è pane per i tuoi denti :cool:
Legolas84
29-05-2017, 19:29
Col piffero:
"In a tweet by EVGA’s Jacob, he revealed that the GTX 1080 TI Kingpin edition was able to sustain an overclock of 2400 MHz+ on air cooling with impressive temperatures."
LOL 2400Mhz ad aria? Curioso di vederlo..... :asd:
mikael84
29-05-2017, 19:30
A me dallo screen di precisionX pare giusto settata così sul software perchè quei 20°C non esistono proprio. Manco a liquido sarebbe così fresca se tirata anche un pochino in bench :asd:
Poi se usciranno dei benchmark attendibili a confermare la cosa allora tanto di cappello, ma così non mi dice nulla :D
Dai Nurabsa, la nuova Kingpin è pane per i tuoi denti :cool:
Però voglio vedere quelle temperature con una minima tolleranza a ventole spente, come da descrizione.......ma cosa mi fate leggere....:nono: :sbonk:
TigerTank
29-05-2017, 21:16
Però voglio vedere quelle temperature con una minima tolleranza a ventole spente, come da descrizione.......ma cosa mi fate leggere....:nono: :sbonk:
http://www.reactiongifs.com/r/mgc.gif
:D
Crysis90
29-05-2017, 22:21
LOL 2400Mhz ad aria? Curioso di vederlo..... :asd:
Il bello è che il prezzo sembra in linea con le altre custom. :)
https://youtu.be/6aUBO7GRAmg
https://youtu.be/FOrtSRip0bg
Ti pvttizzo :D
letto.Risposto ;)
Legolas84
30-05-2017, 08:59
Di certo se il prezzo è uguale ad esempio a quello della Strix, questa scheda è preferibile...
Penso che la HOF e la Kingpin saranno le 1080Ti migliori sul mercato, certo bisogna vedere quali reali vantaggi offriranno rispetto a una scheda più economica :)
Se sono senza power limit e con chip selezionati che veramente arrivano a 2400 MHz allora potrebbero fare gola.... :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
fabietto27
30-05-2017, 09:02
Di certo se il prezzo è uguale ad esempio a quello della Strix, questa scheda è preferibile...
Penso che la HOF e la Kingpin saranno le 1080Ti migliori sul mercato, certo bisogna vedere quali reali vantaggi offriranno rispetto a una scheda più economica :)
Se sono senza power limit e con chip selezionati che veramente arrivano a 2400 MHz allora potrebbero fare gola.... :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
Mettiti in coda eh!
Inviato dal vivavoce della mia Daf Variomatic
MrBrillio
30-05-2017, 09:04
Dei 2400 però nell intervista non ne hanno fatto parola. Hanno detto un massimo di 2150 ad aria.
Inviato dal mio SM-G955F utilizzando Tapatalk
Legolas84
30-05-2017, 09:05
Naaaa io ormai sto con la mia FE liquidata a 2050mhz fissi :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
TigerTank
30-05-2017, 09:06
Di certo se il prezzo è uguale ad esempio a quello della Strix, questa scheda è preferibile...
Penso che la HOF e la Kingpin saranno le 1080Ti migliori sul mercato, certo bisogna vedere quali reali vantaggi offriranno rispetto a una scheda più economica :)
Se sono senza power limit e con chip selezionati che veramente arrivano a 2400 MHz allora potrebbero fare gola.... :)
Mah...io sinceramente ne dubito. Nemmeno sulle titan XP si sono visti numeri del genere...e lì qualche gpu "selezionata" sarebbe stata più che lecita :D
Secondo me alla fine andranno come tutte le altre, avvantaggiandosi di un'alimentazione migliore(ma overvolt inesistente) e nel caso della kingpin di un bel dissipatore di rame, ma alla fine pure lui inferiore a qualsiasi buon wubbo fullcover.
Legolas84
30-05-2017, 09:27
Dei 2400 però nell intervista non ne hanno fatto parola. Hanno detto un massimo di 2150 ad aria.
Inviato dal mio SM-G955F utilizzando Tapatalk
2150 MHz non vale la candela... per il liquido sempre meglio la FE....
Inviato dal mio iPhone utilizzando Tapatalk Pro
Dei 2400 però nell intervista non ne hanno fatto parola. Hanno detto un massimo di 2150 ad aria.
Inviato dal mio SM-G955F utilizzando Tapatalk
Facendo riferimento ad una perla dei tempi passati:
"Sample is selezionated" :O
Ragazzi quello e' azoto, ripigliatevi :sofico:
Legolas84
30-05-2017, 10:37
Ragazzi quello e' azoto, ripigliatevi :sofico:
Sul forum EVGA però parlavano di Air Cooling... per questo sono stra convinto sia una sparata fatta a cavolo....
Se poi fosse vero vuol dire che hanno tolto tutti i limiti, voltaggio notevolmente alzato e chip molto selezionati...
Ma secondo me è una bufala....
Inviato dal mio iPhone utilizzando Tapatalk Pro
mikael84
30-05-2017, 11:16
Sul forum EVGA però parlavano di Air Cooling... per questo sono stra convinto sia una sparata fatta a cavolo....
Se poi fosse vero vuol dire che hanno tolto tutti i limiti, voltaggio notevolmente alzato e chip molto selezionati...
Ma secondo me è una bufala....
Inviato dal mio iPhone utilizzando Tapatalk Pro
I limiti ci sono per un motivo:p Se li levi, rimani sempre limitato dal PP.
Di conseguenza la soluzione è ghiacciare.
Legolas84
30-05-2017, 11:20
I limiti ci sono per un motivo:p Se li levi, rimani sempre limitato dal PP.
Di conseguenza la soluzione è ghiacciare.
Quindi confermiamo fake 100%.... c'è chi dice che a parlare di 2400mhz sarebbe stato un tizio di EVGA... però non sono riuscito a trovare riscontri...
Cosa che in effetti avvalora l'ipotesi fake :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
Legolas84
30-05-2017, 11:26
Ma ancora credete alle favole? :D
I limiti di Pascal li conosciamo, mica ci vogliono degli esperti per capire che i 2400 Mhz sono impossibili per uso quotidiano ad'aria...
Succederà come con le 1080, versioni ultra fighe con differenze dalle altre schede quasi nulle, quindi tutto dipenderà dal prezzo...
Relax, non mi pare che nessuno abbia creduto a niente... l'ho detto da subito che imho era una fake...
Semplicemente se ne stava pacificamente discutendo (lo so che può sembrare strano che si discutesse tranquillamente ma è così :D)...
Inviato dal mio iPhone utilizzando Tapatalk Pro
Una 1080ti 2400mhz ad aria si mangiava pure la futura xx80 Volta lol
illidan2000
30-05-2017, 13:37
Una 1080ti 2400mhz ad aria si mangiava pure la futura xx80 Volta lol
aria fredda, lol
al computex non hanno parlato di nvidia volta, rimandata a quando l'annuncio? si sa niente a riguardo?
al computex non hanno parlato di nvidia volta, rimandata a quando l'annuncio? si sa niente a riguardo?
E' sbagliato parlare di rinvio, Volta gaming avrà le ddr6. Queste escono minimo a fine anno.
Se proprio vogliono pushare la nuova serie per qualche motivo, la vedremo minimo a Novembre con le prime gddr6 in commercio.
In questo caso però vedrei una xx70 volta con le gddr5x e solamente gv104 full con le ddr6(visto il numero ridotto delle memorie).
Al 99% però usciranno nel 2018 secondo me
mikael84
05-06-2017, 14:59
E' sbagliato parlare di rinvio, Volta gaming avrà le ddr6. Queste escono minimo a fine anno.
Se proprio vogliono pushare la nuova serie per qualche motivo, la vedremo minimo a Novembre con le prime gddr6 in commercio.
In questo caso però vedrei una xx70 volta con le gddr5x e solamente gv104 full con le ddr6(visto il numero ridotto delle memorie).
Al 99% però usciranno nel 2018 secondo me
La produzione di massa è prevista per l'anno prossimo. Se va bene q1, altrimenti q2.;)
GV104 (2080) sarà al 99%, 3584cc - 64 rop's - 16gb a 12/14 gb/s, e fattore molto importante 3mb l2, con possibili 1024 istruzioni per cuda. Ciò sta a significare un netto risparmio di cache, al fine di agevolare calcoli asyncroni e latenze.
Ale55andr0
05-06-2017, 15:32
Non ti paiono tantini 16gb per l'erede della 1080? :fagiano:
mikael84
05-06-2017, 15:45
Non ti paiono tantini 16gb per l'erede della 1080? :fagiano:
Su un bus da 256 bit è il taglio suo.:)
Probabilmente verranno differenziate la 2080 con la 2070 in clock (12 vs 14 gb/s).
Inoltre è si l'erede della 1080, ma teoricamente si giocherà la fascia enthusiast per un'anno almeno.
Su un bus da 256 bit è il taglio suo.:)
Probabilmente verranno differenziate la 2080 con la 2070 in clock (12 vs 14 gb/s).
Inoltre è si l'erede della 1080, ma teoricamente si giocherà la fascia enthusiast per un'anno almeno.
Ma secondo te sta 2080 staccherà in modo netto la 1080ti come successo con la 1080/980ti oppure avremo performance più blande alla 980/780ti?
Non ti paiono tantini 16gb per l'erede della 1080? :fagiano:
In teoria il chippone arriverebbe a 24GB :sofico:
Penso sia che una scelta obbligata se vega monterà 16GB HBM2...
Free Gordon
05-06-2017, 16:03
Tra 8 e 16GB tra un anno non passerà cmq differenza...
Difficile pensare che in 1 solo anno ci siano miglioramenti (nei giochi) a passare da 8 a 16.
Certo...magari da qui al 2020,le cose cambieranno... :D
Ma secondo te sta 2080 staccherà in modo netto la 1080ti come successo con la 1080/980ti oppure avremo performance più blande alla 980/780ti?
Hanno il 50% di efficienza in più ed una serie di migliorie nel ISA per i calcoli non parallelizzabili.
Non è nemmeno da escludere una semplificazione dei CUDA in chiave gaming per guadagnare ulteriore efficienza.
Free Gordon
05-06-2017, 16:24
Hanno il 50% di efficienza in più ed una serie di migliorie nel ISA per i calcoli non parallelizzabili.
su praticamente lo stesso PP...? :sofico:
La vedo dura eh...
su praticamente lo stesso PP...?
Già (il 12nm FFN è un 16nm mascherato), ed hanno una pletore di cose inutili per il gaming in Tesla Volta.
Nvidia ha rilasciato parecchi dettagli nel suo blog. ;)
mikael84
05-06-2017, 16:33
Ma secondo te sta 2080 staccherà in modo netto la 1080ti come successo con la 1080/980ti oppure avremo performance più blande alla 980/780ti?
La 980 o maxwell in generale ha colmato tutti i punti deboli di Kepler (un vero colabrodo), ma inizialmente ha preso vantaggio grazie ai clock.
Attualmente di Volta ci sono buone migliorie sull'IPC, ma non sappiamo come sarà strutturato internamente il chip gaming, perchè all'interno del warp cambiano alcune cose, anche in dx12.
Probabilmente le differenze, almeno inizialmente non saranno elevatissime (salvo i clock, considerando che la 1080ti delle review boostano a valori molto bassi per via dei limiti di TDP e temperature).
Ale55andr0
05-06-2017, 16:38
Ma secondo te sta 2080 staccherà in modo netto la 1080ti come successo con la 1080/980ti oppure avremo performance più blande alla 980/780ti?
In quel caso ci stava un nu3pvo pp di mezzo però, con volta un affinamento dell attuale, aldilà del nome
In teoria il chippone arriverebbe a 24GB :sofico:
Penso sia che una scelta obbligata se vega monterà 16GB HBM2...
Vega...cos'è? Chi l'ha vista? :asd: Cmq 16gb li avrà la super top, forse, qui si parla di 16 per la fascia medioalta...io direi più 10-12 con relativo bus adeguato
Ma secondo te sta 2080 staccherà in modo netto la 1080ti come successo con la 1080/980ti oppure avremo performance più blande alla 980/780ti?
per essere due 28nm altro che blande signor lavoro han fatto. Insegna il passaggio kepler maxwell l affinamento è meglio di un cambio nodo
mikael84
05-06-2017, 17:46
In quel caso ci stava un nu3pvo pp di mezzo però, con volta un affinamento dell attuale, aldilà del nome
Vega...cos'è? Chi l'ha vista? :asd: Cmq 16gb li avrà la super top, forse, qui si parla di 16 per la fascia medioalta...io direi più 10-12 con relativo bus adeguato
Il bus non puoi metterlo a caso, segue un preciso collegamento.:p
Con Vega hanno riscritto varie cose, troppi colli di bottiglia da eliminare (che non sto ad elencare, non è sezione giusta), Nvidia con Maxwell, si è creata un' architettura efficiente e completa e con Pascal ha raggiunto praticamente un 50% sul core.:)
Con Volta hanno risolto anche il problema del codice divergente con miglioramenti nel ISA mai visti in un processore SIMD-like.
Un potenziale boost ulteriore di ipc con codice ostico. Purtroppo necessita di programmazione ad hoc.
Ale55andr0
05-06-2017, 18:34
Il bus non puoi metterlo a caso, segue un preciso collegamento.:p
Per bus adeguato intendevo in relazione a quei tagli di ram (320 e 384 quindi). Se con 3584cc ci fanno un 384 e un 352 e tu predici 16gb (256 o 512 quindi) lo vedevo possibile.
La verità è che mi state mortificando la 1080 prima ancora di prenderla...calma co sti numeri al rialzo :asd: facciamo che la 2080 avrà 3072 e la ti 4096 con clock più alti degli attuali e con 12 e 16gb ciascuna e bona lì, coi 12nm farlocchi...e gia soffro abbastanza così :asd:
Per bus adeguato intendevo in relazione a quei tagli di ram (320 e 384 quindi). Se con 3584cc ci fanno un 384 e un 352 e tu predici 16gb (256 o 512 quindi) lo vedevo possibile.
La verità è che mi state mortificando la 1080 prima ancora di prenderla...calma co sti numeri al rialzo :asd: facciamo che la 2080 avrà 3072 e la ti 4096 con clock più alti degli attuali e con 12 e 16gb ciascuna e bona lì, coi 12nm farlocchi...e gia soffro abbastanza così :asd:
Hanno stipato 5376 CUDA (256 ridondanza) con soli 300w di TDP nella Tesla V100, più una serie infinita di inutilità computing (Tensor,FP64,6 nvlink etc).
Una bestiola da circa 5000 cuda (600mm) è altamente probabile.;) Del resto è lo stesso iter del GP100/GP102.
Consolati pensando ai probabili prezzi da rapina (titan style)...:p
Ale55andr0
05-06-2017, 19:16
Non mi consolo :asd: a quei prezzi corrisponderà un crollo del valore delle vecchie che manco la lira rispetto la sterlina ai tempi andati :sofico:
Conto sull'avidità nvidia che fara sempre chippettini fino le 2080 :sperem: :asd:
Hanno stipato 5376 CUDA (256 ridondanza) con soli 300w di TDP nella Tesla V100, più una serie infinita di inutilità computing (Tensor,FP64,6 nvlink etc).
Una bestiola da circa 5000 cuda (600mm) è altamente probabile.;) Del resto è lo stesso iter del GP100/GP102.
Consolati pensando ai probabili prezzi da rapina (titan style)...:p
Numeri che fanno sognare, se si confrontano anche solo i meri numeri dei cc che abbiamo adesso disponibili su 1070-1080 e 1080ti :eek:
mikael84
05-06-2017, 19:43
Per bus adeguato intendevo in relazione a quei tagli di ram (320 e 384 quindi). Se con 3584cc ci fanno un 384 e un 352 e tu predici 16gb (256 o 512 quindi) lo vedevo possibile.
La verità è che mi state mortificando la 1080 prima ancora di prenderla...calma co sti numeri al rialzo :asd: facciamo che la 2080 avrà 3072 e la ti 4096 con clock più alti degli attuali e con 12 e 16gb ciascuna e bona lì, coi 12nm farlocchi...e gia soffro abbastanza così :asd:
Non è che metti cc, bus, rop's a caso:p
Con GP102, i 3584cc sono integrati in 6 GPC, quindi 12 canali ram.
Con GV104 i 3584cc sono integrati in 4 GPC, quindi 8 canali ram.
Dove con GP102 "alloggiano" 3840cc max, con GV102 ne alloggiano 5370max.
La 2070, la scheda sicuramente più interessante ai più, avrà un numero oscillante di cc compreso tra i 2688-3456 (probabili 3072 a sto giro)
Hanno stipato 5376 CUDA (256 ridondanza) con soli 300w di TDP nella Tesla V100, più una serie infinita di inutilità computing (Tensor,FP64,6 nvlink etc).
Una bestiola da circa 5000 cuda (600mm) è altamente probabile.;) Del resto è lo stesso iter del GP100/GP102.
Consolati pensando ai probabili prezzi da rapina (titan style)...:p
Anche secondo me avremmo simili core. Già solo facendo vari rapporti. Dovremmo tornare a circa 100mmq per GPC, considerando anche la cache più grande.
scorpion73
05-06-2017, 22:35
Ma quindi scusate non ho capito a parità di CUDA la 2080 avrà vantaggio rispetto alla 1080ti? e se si di quanto secondo le previsioni?
Ma quindi scusate non ho capito a parità di CUDA la 2080 avrà vantaggio rispetto alla 1080ti? e se si di quanto secondo le previsioni?
EDIT, letto male
Ma quindi scusate non ho capito a parità di CUDA la 2080 avrà vantaggio rispetto alla 1080ti? e se si di quanto secondo le previsioni?
A parità di cuda sicuramente andrà di più per i clock maggiori... infatti anche nell'attuale gen basta vedere la differenza tra 980 e 1070 che di base hanno un hw simile anzi la 980 pure leggermente in vantaggio:
GTX 980: 2048cc - 64 rops - 128 tmu - 16CU
GTX 1070: 1920cc - 48 rops - 120 tmu - 15CU
GTX 1070m: 2048cc - 52 rops - 128 tmu - 16CU
E considera che a questo step, il salto sarà maggiore rispetto Maxwell => Pascal :)
Ale55andr0
06-06-2017, 07:59
Fra maxwell e pascal però c'è stato un cambio di pp netto, non affinamento dell'attuale
E questo per quale motivo?
Cioè tra maxwell e pascal c'è di mezzo un salto di PP notevole, ma da pascal a volta non mi pare.
Infatti, al massimo dovrebbe essere al contrario
eh lo sai, sono i classici numeri messi a caso :sofico: quando gv100 ha praticamente già scoperto tutte le carte anche per la serie gaming dal punto di vista delle risorse a disposizione :D
l'unico dubbio che mi rimane è capire quanto incideranno le rop's tenute uguali in numero rispetto a pascal per scalare le prestazioni:
gp104 vs gv104 ma come gp102 vs gv102 faranno +40% in CC ma +0% rops e +50% l2 (se non ricordo male la l2, 2mb vs 3mb giusto? ), senza considerare però le migliorie di parallelizzazione interne agli sm, i clock io penso però che rimarranno uguali in linea di massima con un boost più aggressivo e costante dovuto alle migliorie silicio e ottimizzazioni.
Le stime quindi portano che gp104 sia sui 380~400mmq e gp102 sui 570~600mmq, come lo step maxwell del resto.
Insomma, come andrà sta 2080 v la 1080ti? E' questa la domanda da un milione di paperdollari.. 5%? 10, 20, 30%????
E questo per quale motivo?
Cioè tra maxwell e pascal c'è di mezzo un salto di PP notevole, ma da pascal a volta non mi pare.
Sicuramente il salto è stato notevole e ha permesso di aumentare in primis i clock di quasi il 30% e introdurre una migliore compressione che ha aumentato di netto le prestazioni a pari banda ma i cambiamenti si fermano qui, con volta invece c'è un bel distacco già a livello hardware, pensando a GP104 abbiamo 2560cc mentre GV104 con 7 tpc ci passa a 3584cc una densità di quasi il 40% in più se anche i clock aumentano di un 10% piu eventuali ottimizzazioni software in DX12, e si potrebbe distaccare facilmente Pascal di quasi o più il 50%, ovviamente si sa poco e sono solo stime ma sono convinto che il salto sarà maggiore a questo step
non consideri che le rops e raster non sono aumentati di conseguenza, per vari motivi, quindi non si può ancora dire che +40% di CC si traducano in prestazioni e che i clock aumentino come fosse una cosa scontata, gv100 ha gli stessi clock di gp100 nello stesso tdp, questo perché è più grande anche se adotta un silicio ottimizzato e studiato ad hoc.
di conseguenza anche gv104 sarà più grande di gp104 i cc la l2 e la parallelizzaione non li ricavi dal nulla, con meno roba per il computing certo, credo che molto dipenderà anche da che limiti imporrà nvidia con il tdp, se conservativo 150~180watt come maxwell e pascal oppure meno alzando il target di 30~50watt.
Questo è difficile dirlo ma da questo punto di vista anche la 1070 è nettamente inferiore a una 980ti in termini di rops e raster eppure sembra scalare bene con l'aumento dei clock e con volta non credo che nvidia non l'abbia presa in considerazione la cosa sopratutto dopo lo scenario visto con kepler quindi per avere un quadro oggettivo bisogna attendere i chip gaming, comunque anche le schede Pascal in ambito pro non avevano certo i clock delle varianti gaming...
GTX 1070: 1920cc - 48 rops - 120 tmu - 15CU
GTX 980ti: 2816cc - 88 rops - 176 tmu - 22CU
la 980ti in overclock (+10~20%) raggiunge 1070 overclockata (+5~10%) in pratica annulla il gap iniziale della reference, molto o quasi tutto è dovuto al clock che ha permesso il nuovo silicio e da ottimizzazioni presenti in pascal, e poi il collegamento ce l'ha a tutte le 64rops perché il bus è da 256bit, invece la 1080ti è un cut anche nelle rops con il bus da 352bit invece che 384bit rispetto a TXP.
comunque si chiamano SM non CU :D
Come può la 1070 avere 64 rops se ha un GPC completamente disattivo? :rolleyes:
Per di più proprio la 1070 è la gpu x70 piu cuttata di sempre con addirittura memorie GDDR5 invece che GDDR5x...
Anche mikael84 chiarì la cosa quando misi a confronto 1070 con 1070m:
http://www.hwupgrade.it/forum/showpost.php?p=44772346&postcount=23969
Legolas84
06-06-2017, 13:24
Io penso che sia ovvio che con VOLTA le prestazioni verranno dosate appositamente da NVIDIA come ha sempre fatto... avremo una 2070 che andrà poco più della 1080Ti e una 2080 che la staccherà di un buon 25%...
Inviato dal mio iPhone utilizzando Tapatalk Pro
mi sa che non hai letto bene quello che ha scritto allora :D
Quindi anche mikael legge e scrive male?! :D
http://www.hwupgrade.it/forum/showpost.php?p=44771142&postcount=23961
non pensavo che ne stesse parlando in quel thread, ho letto solo il post che hai messo prima e non tutta la discussione anche perché non ho la sottoscrizione ai thread delle schede solo a quelli aspettando.
comunque non saprei cosa dirvi, anche HF riporta questo (non mi fa mettere l'immagine):
http://www.hardware.fr/medias/photos_news/00/51/IMG0051242.png
"Nvidia nous a indiqué que toutes les GTX 1070 seraient limitées à 3 GPC. Comme nous l'expliquions auparavant, plusieurs configurations étaient possibles, mais il n'y en aura qu'une. Cela implique que la GTX 1070 a un débit maximal de 3 triangles rendus par cycle (contre 4 sur la GTX 1080), et que son fillrate est limité à 48 pixels par cycle. Même si l'interface mémoire est complète avec 64 ROP, chaque GPC ne peut débiter que 16 pixels par cycle."
Potevi tradurlo almeno lol
mikael84
06-06-2017, 14:10
eh lo sai, sono i classici numeri messi a caso :sofico: quando gv100 ha praticamente già scoperto tutte le carte anche per la serie gaming dal punto di vista delle risorse a disposizione :D
l'unico dubbio che mi rimane è capire quanto incideranno le rop's tenute uguali in numero rispetto a pascal per scalare le prestazioni:
gp104 vs gv104 ma come gp102 vs gv102 faranno +40% in CC ma +0% rops e +50% l2 (se non ricordo male la l2, 2mb vs 3mb giusto? ), senza considerare però le migliorie di parallelizzazione interne agli sm, i clock io penso però che rimarranno uguali in linea di massima con un boost più aggressivo e costante dovuto alle migliorie silicio e ottimizzazioni.
Le stime quindi portano che gp104 sia sui 380~400mmq e gp102 sui 570~600mmq, come lo step maxwell del resto.
Le rop's non sono praticamente mai un collo di bottiglia, salvo non esagerare con i filtraggi MSAA-SSAA.
Nvidia cerca di raggiungere il massimo valore teorico z-buffer, sia in color-ops che in z-ops.
Per farti un'esempio, se eseguiamo operazioni blending FP32, le 64 rop's Nvidia sono equivalenti a 16 AMD.:)
Tocchi però un punto dolente.
Nvidia attualmente non può elaborare più di 16 pixel, in quanto non ci saranno raster da 24 e neppure 3 blocchi da 8, che significherebbe utilizzare 3 blocchi e 3 collegamenti per GPC.
Con i 7nm e 10 TPC sicuramente vedremmo 32 rop's per GPC, ovvero 16 rop's e 768/1024kb) per canale.
Probabile 7nm: 4608cc- 128 rop's-256bit.:)
non pensavo che ne stesse parlando in quel thread, ho letto solo il post che hai messo prima e non tutta la discussione anche perché non ho la sottoscrizione ai thread delle schede solo a quelli aspettando.
comunque non saprei cosa dirvi, anche HF riporta questo (non mi fa mettere l'immagine):
http://www.hardware.fr/medias/photos_news/00/51/IMG0051242.png
"Nvidia nous a indiqué que toutes les GTX 1070 seraient limitées à 3 GPC. Comme nous l'expliquions auparavant, plusieurs configurations étaient possibles, mais il n'y en aura qu'une. Cela implique que la GTX 1070 a un débit maximal de 3 triangles rendus par cycle (contre 4 sur la GTX 1080), et que son fillrate est limité à 48 pixels par cycle. Même si l'interface mémoire est complète avec 64 ROP, chaque GPC ne peut débiter que 16 pixels par cycle."
La 1070 ha 64 rop's, così come la 1060 ne ha 48 (parliamo di rop's fisiche).
Questo per via del canale di collegamento, che permette di memorizzare pixel in memoria, ma non può essere elaborato totalmente.
La 1070 ha 64 rop's, 60 memorizzate, ma 48 elaborate, questo perchè avendo un GPC spento, lavora su 3 rasterizzatori.
Ogni rasterizzatore può lavorare solo con 16 pixel, di conseguenza le rop's elaborate sono solo 48.:)
Bisogna dire che Nvidia lavora a clock altissimi, e 48 rop's sulla 1070, equivalgono a quasi 96, considerando clock vicini ai 2ghz.:)
Questo è stato un collo di bottiglia grosso su Kepler, tanto che una 780ti pur elaborando 60 pixel, 48 fisiche, in uscita garantiva solo 40 rop's (5 raster da 8). Tanto da superare appena una BW da 200gb/s (su 335gb/s), contro le 64 rop's vere e 253gb/s di una 290.
Il discorso è simile alla 1060 con bus a 192 bit e 48rops, con 1060 48 rops sono solo memorizzate ma la gpu puo accedere a solo 32 rops, il vantaggiò però è avere l'intera banda a disposizione, analogo discorso per 1070 che ha 64 rops memorizzate ma il chip ne puo elaborare soltanto 48, le restanti come per la 1060 servono a sfruttare a pieno la banda... Il vantaggio quindi si riduce alla sola banda...
Ma anche in passato con 980ti si è visto lo stesso scenario 96rops memorizzate ma può accedervi a solo 88... Diciamo che è la 1080ti un caso a se, probabilmente hanno ridotto il bus sia per creare un distacco dalla prima titan pascal che invece non ha quella parte tagliuzzata...
mikael84
06-06-2017, 14:22
Il discorso è simile alla 1060 con bus a 192 bit e 48rops, con 1060 48 rops sono solo memorizzate ma la gpu puo accedere a solo 32 rops, il vantaggiò però è avere l'intera banda a disposizione, analogo discorso per 1070 che ha 64 rops memorizzate ma il chip ne puo elaborare soltanto 48, le restanti come per la 1060 servono a sfruttare a pieno la banda... Il vantaggio quindi si riduce alla sola banda...
Ma anche in passato con 980ti si è visto lo stesso scenario 96rops memorizzate ma può accedervi a solo 88... Diciamo che è la 1080ti un caso a se, probabilmente hanno ridotto il bus sia per creare un distacco dalla prima titan pascal che invece non ha quella parte tagliuzzata...
La 1080ti ha una parte di cache fallata (è un cut del cut), di conseguenza perde 8 rop's e 256kb di cache a livello fisico.:)
La Titan 2016, non xp, riesce a sfruttare 92 rop's su 96, in quanto il chip è a collegamento full, ma l'ultimo raster può elaborare solo 12 su 16 pixel.
Per avere il collegamento preciso in rop's servivano 3712 cc:)
ma infatti questo è chiaro, come è chiaro che il "gap" della 1070 rispetto alla 980ti a livello hardware è recuperato dal clock, l'ho scritto, infatti in % la 980ti recupera parecchio in overclock rispetto la 1070 arrivando ad un pareggio circa, salvo poi che pascal ha a favore compressione migliore, migliorie ed ottimizzazioni varie come logico che sia :)
quindi se le rops non saranno un problema è facile vedere la 1170 (ma il cut ancora non si può prevedere) in mezzo a 1080 e 1080ti , e la 1180 ai livelli della TXP o poco sopra con die sui 400mmq e clock sui 1900~2000 boost medio nella FE.
In realtà la 980ti in oc già a 1450 è praticamente alla pari con 1070 a 2.1ghz poi se trovi il chip fortunato che va a 1500-1550 sei praticamente alla pari con 1080 reference :)
mikael84
06-06-2017, 14:39
ma infatti questo è chiaro, come è chiaro che il "gap" della 1070 rispetto alla 980ti a livello hardware è recuperato dal clock, l'ho scritto, infatti in % la 980ti recupera parecchio in overclock rispetto la 1070 arrivando ad un pareggio circa, salvo poi che pascal ha a favore compressione migliore, migliorie ed ottimizzazioni varie come logico che sia :)
quindi se le rops non saranno un problema è probabile vedere la 1170 (ma il cut ancora non si può prevedere) in mezzo a 1080 e 1080ti , e la 1180 ai livelli della TXP o poco sopra con die sui 400mmq e clock sui 1900~2000 boost medio nella FE.
Si esatto, la 980ti è molto più "muscle", 3mb di cache, moltissime più istruzioni per cuda, più rop's se ben sfruttate, mentre la 1070 ha latenze molto più basse a pari potenza.
Diciamo che quando le confrontiamo alla pari, il tutto dipende dallo scenario, ma siamo li, frame più frame meno.:)
Certo se devi fare benchmark, una 980ti selezionata è decisamente meglio.
1500 x 8gb/s ed hai valori identici ad una 1080 default.:)
Riguardo Volta bisognerà vedere come sarà la struttura del chip gaming, perchè il GV100 dimezza i cicli di clock per warp, doppia le istruzioni e cambia il rapporto con la LDS in 2:1, non 4:1.
In sintesi, se fosse confermato un chip simile (senza tensor e balle varie), avresti la metà dei cicli ed il doppio delle istruzioni.
Ogni istruzione può essere elaborata istantaneamente, questo significa che la GPU passa meno tempo a pescare dati in cache.
Una cache grossa, come un buon pentolone, spreca più cicli di clock.
Sembrano banalità, ed inizialmente i risultati non saranno entusiasmanti, ma potrebbero permettere a lungo andare dei grossi miglioramenti.:sofico:
La 1080ti ha una parte di cache fallata (è un cut del cut), di conseguenza perde 8 rop's e 256kb di cache a livello fisico.:)
La Titan 2016, non xp, riesce a sfruttare 92 rop's su 96, in quanto il chip è a collegamento full, ma l'ultimo raster può elaborare solo 12 su 16 pixel.
Per avere il collegamento preciso in rop's servivano 3712 cc:)
Infatti, da questo punto di vista 1070 e Titan 2016 condividono un taglio simile :D
E noto che ad ogni gen, la Ti viene sempre piu tagliuzzata, con volta secondo me ci ritroviamo un intero GPC disattivo quindi 4480cc/80rops...:sofico:
mikael84
06-06-2017, 15:01
capito :) intanto azzardo una previsione:
gv104 sui 380~400mmq:
1170 → 2688cc - 64(48)rops - 3 Geo(TPC) @ 1900mhz boost medio , tra 1080 e 1080ti
1180 → 3584cc - 64(64)rops - 4 Geo(TPC) @ 2000mhz boost medio, ~TXP o +5~10%
gv102 sui 570~600mmq:
1180ti → 4992cc - 96(88)rops - 6 Geo(TPC) @ 1800mhz boost medio, +30~40% 1080ti
TXV → 5376cc - 96(96)rops - 6 Geo(TPC) @ 1700mhz boost medio, +40~50% TXP
Tralascio le prestazioni, per ora parliamo di aria fritta tutti.:p
Riguardo la 2070, laserare un'intero GPC anche a sto giro significa essere messi male a livello di rese (parliamo di 7TPC).
Sicuramente il carico oscillante sarà di 2688 3400cc, ma volendo essere ottimisti penso che almeno 3072 li tiriamo fuori.:sofico:
Infatti, da questo punto di vista 1070 e Titan 2016 condividono un taglio simile :D
E noto che ad ogni gen, la Ti viene sempre piu tagliuzzata, con volta secondo me ci ritroviamo un intero GPC disattivo quindi 4480cc/80rops...:sofico:
Dipende molto dalle rese che avranno, alcune verranno destinate alle quadro.
Pensa la 1060 3gb 1152cc, quando avevano la 1024cc e 160bit (5gb).
Oppure la 1070, che in quadro esiste addirittura in cut 1792cc, segno che gli scarti erano davvero tanti.:)
io non ho più seguito, ci sarà un pascal refresh chiamato 20xx o si passa direttamente a volta?
io non ho più seguito, ci sarà un pascal refresh chiamato 20xx o si passa direttamente a volta?
Volta volta... nessun refresh per fortuna... :sofico:
Sento sempre parlare di fantomatiche 2060, 2070, 2080, ecc. ma non sarebbe più logico si chiamassero 1160, 1170, 1180, ecc? :D
Dipende dall'analista di mercato di Nvidia se ritiene che 11xx funziona e vende più di 20xx, ma personalmente propendo anche io per 20xx, crea un distacco psicologico maggiore dalla nomenclatura precedente, sentire la 2080 rende tutte le 1080ti vecchie bacucche :sofico:
Ale55andr0
07-06-2017, 13:00
Sento sempre parlare di fantomatiche 2060, 2070, 2080, ecc. ma non sarebbe più logico si chiamassero 1160, 1170, 1180, ecc? :D
Suona da schifo 11xx
devil_mcry
07-06-2017, 13:25
Visto che si ventila l'uso di GDDR6 per Volta, voi avete capito a che servono?
Mi spiego, durante il Computex Micron ci ha detto che fa 16Gbps con le GDDR5x, e 16Gbps è lo stesso limite delle GDDR6. Sull'alimentazione non ci sono differenze, e la densità maggiore non credo possa interessare in alcun modo il mondo consumer, visto che significherebbe raddoppiare l'ammontare di vram di tutta la lineup, che non ha al momento alcun senso (boh, a parte la 1060 3GB, che però è fatta così di proposito per essere castrata, se gli togli la castrazione principale perde di senso anche lei).
Quindi perché mai nVidia dovrebbe sbattersi per montare delle GDDR6 se può ottenere lo stesso risultato con le GDDR5x, e con il vantaggio di non dover rifare il design del controller di memoria? Ipotesi? :mbe:
6>5X
Visto che si ventila l'uso di GDDR6 per Volta, voi avete capito a che servono?
Mi spiego, durante il Computex Micron ci ha detto che fa 16Gbps con le GDDR5x, e 16Gbps è lo stesso limite delle GDDR6. Sull'alimentazione non ci sono differenze, e la densità maggiore non credo possa interessare in alcun modo il mondo consumer, visto che significherebbe raddoppiare l'ammontare di vram di tutta la lineup, che non ha al momento alcun senso (boh, a parte la 1060 3GB, che però è fatta così di proposito per essere castrata, se gli togli la castrazione principale perde di senso anche lei).
Quindi perché mai nVidia dovrebbe sbattersi per montare delle GDDR6 se può ottenere lo stesso risultato con le GDDR5x, e con il vantaggio di non dover rifare il design del controller di memoria? Ipotesi? :mbe:
Se la chiami 20xx ti perdi tutta la sinergia simbolica con il "è l'undicesima generazione di geforce". Sono daccordo che fa schifo, ma mi sembra più facile che facciano direttamente un rebrand del marchio che non passare a 20xx.
Tipo:
Geforce 11 Titan
Geforce 11 GTX
Geforce 11 GT
Geforce 11 G
Da quanto ho capito ma aspetta il nostro mikael84, come specifiche non cambia nulla ma le GGDR6 offrono una maggiore densità in quanto le GDDR5X sono fissate fino 16 Gbit (2 GB), ma per le GDDR6 ci si spingerà fino a 32 Gbit (4 GB), il che permetterebbe a pari bus di mettere su schede come 2070/2080 16GB di vram anzichè 8...
Le GDDR6 hanno tutta una serie di migliorie nel interfaccia e nel packaging per ottenere un segnale più pulito con meno sforzo.
Nvidia già supporta il pre-fetch 16 delle 5X, quindi non è un gran problema aggiornare i suoi memory controller.
Se vedi è proprio quello che ho scritto che il raddoppio della densità è l'unica differenza apparente, ma aggiungevo che non vedo alcuna utilità in 16GB di VRAM per una scheda consumer nel 2018.
L'unica spiegazione che mi son dato è che alla fin fine nonostante i soliti roboanti annunci i produttori di memorie non sappiano poi come produrle e quindi in realtà gli 11Gbps visti fin'ora siano il massimo a cui si riesce realmente ad arrivare anche solo in special bin sulle 5x e quindi le 6 servano effettivamente ad andare oltre (realisticamente comunque max 14).
Ah scusa deve essermi sfuggito, comunque l'utilità c'è considera che la 2080 dovrebbe superare la Titan XP con 12GB di vram il che significa che storcerebbe il naso vedere una 2080 con meno vram del chippone precedente e addirittura meno della 1080ti...
Il che porta anche a pensare che la 2070 non verrà strozzata e anch'essa verrà dotata di GDDR6...
Probabile invece che la 2060 a questo giro si presenti come la 960 con bus a 128bit e 8GB GDDR5x
Le 5X sono un oggetto abbastanza misterioso, c'è già qualcosa anche di questo, rispetto alle 5? Nel senso, sono effettivamente qualcosa di tecnicamente intermedio, per riuscire ad arrivare sostanzialmente agli stessi gbps per pin?
Leggere il paper del jedec no ? :sofico:
Non c'è niente di misterioso.
Le 5X integrano il prefetch 16 e la struttura dei moltiplicatori delle 5.
Eh perché io pago per leggermi un pdf di cui capisco il 20% e solo per sfizio? :D
E' gratis basta registrarsi o scroccarlo da qualche forum, ma ovviamente devi avere almeno un minimo di basi...:sofico:
Per tutto il resto c'è wottafuck_tech ed il sito delle fanboiate rosse. :asd:
Dubito vogliano usare vram così costose su una fascia media.
In realtà ho sbagliato i conti riflettendoci... Non sarebbe fisicamente possibile mettere 8GB GDDR5X, essendo le GDDR5X limitate a 2GB...
Ed effettivamente con la 2060 non lo so... a rigor di logica essendo il chip di fascia media che andrebbe come 1080 o manterranno 6GB 192bit GDDR5X/GDDR5 oppure 8GB 128bit GDDR6... Pero la prima soluzione la renderebbe poco appettibile e farebbe preferire 1070/1080 con 8GB di vram
mikael84
07-06-2017, 15:20
Visto che si ventila l'uso di GDDR6 per Volta, voi avete capito a che servono?
Mi spiego, durante il Computex Micron ci ha detto che fa 16Gbps con le GDDR5x, e 16Gbps è lo stesso limite delle GDDR6. Sull'alimentazione non ci sono differenze, e la densità maggiore non credo possa interessare in alcun modo il mondo consumer, visto che significherebbe raddoppiare l'ammontare di vram di tutta la lineup, che non ha al momento alcun senso (boh, a parte la 1060 3GB, che però è fatta così di proposito per essere castrata, se gli togli la castrazione principale perde di senso anche lei).
Quindi perché mai nVidia dovrebbe sbattersi per montare delle GDDR6 se può ottenere lo stesso risultato con le GDDR5x, e con il vantaggio di non dover rifare il design del controller di memoria? Ipotesi? :mbe:
Le ddr5x sono uno standard di micron, che per sopperire alla non produzione di HBM ha aumentato il prefetch (raddoppiando di fatto l'ampiezza dei dati nominale).
Le ddr6 hanno introdotto solo un sistema dual channel 16b che migliora la qualità del segnale e questo standard verrà utilizzato sia da Samsung che da Hynix e dalla stessa Micron.
Quindi anche Micron si adeguerà allo standard dall'anno prossimo, salvo non rifilare vecchie memorie.
I dati 10/16 gb/s, stanno a significare tutto o nulla, attualmente la Micron ha fallito i test a 13 gb/s (altro che 16 gb/s), e produrrà le ddr6 pure lei.:)
Con le ddr6 dei partner si spera di poter lavorare bene dai 12 ai 14 gb/s.
Aumentare la densità è essenziale anche a livello di marketing.;)
Sento sempre parlare di fantomatiche 2060, 2070, 2080, ecc. ma non sarebbe più logico si chiamassero 1160, 1170, 1180, ecc? :D
Pessimo a livello marketing, anzi.... potrebbero chiamarsi anche 3080, considerando quanto fatto su Maxwell, e lasciare le 2xxx ai portatili rebrand. :)
Volta volta... nessun refresh per fortuna... :sofico:
quindi niente nuove gpu quest' anno
quindi niente nuove gpu quest' anno
Azz, sono uscite 1080ti e titan XP, non bastano per quest'anno? :sofico:
La Ti sarebbe appena uscita a dire il vero :D
ah si ma si vociferava qualcosa per fine anno, vorrei tanto una 1080ti più efficiente :D
Una bella Fega e passa la paura
mircocatta
08-06-2017, 13:55
Qualcuno ha notato che il titolo nvidia nell'ultimo mese ha preso un +50%?😱
Altro che AMD, chi ha acquistato titoli verdi si è ritrovato mica male negli ultimi 4 anni!
Inviato dal mio HTC One M9 utilizzando Tapatalk
Qualcuno ha notato che il titolo nvidia nell'ultimo mese ha preso un +50%?😱
Altro che AMD, chi ha acquistato titoli verdi si è ritrovato mica male negli ultimi 4 anni!
Inviato dal mio HTC One M9 utilizzando Tapatalk
Per come sta lavorando AMD (quantomeno nel settore VGA) mi stupisce che il titolo riesca a tenere botta :mbe:
nella stessa frase ti sei risposto da solo :rolleyes:
Beh, allo stato però non mi pare che il settore CPU stia facendo lo sfacelo che tutti preconizzavano, anzi, mi risulta che le vendite siano piuttosto basse.
Per cui cosa resta, il settore concolle? E' così redditizio? :mbe:
ma te guardi ancora alle vendite dell'utenza consumer? dai, ma che valore oggettivo c'è?
per esempio, solo dei folli potrebbero comprare gli i9 18c a 2000$ quando ti danno un r9 16c a 900$...
amd ha spedito più di 5000 ES di zeppelin in giro per il globo, qualcuno di grosso lo starà pur prendendo in considerazione, e non cambi la piattaforma dall'oggi al domani in certi settori.
Non ho idea di quanto possa incidere il settore consumer, ma io non lo sottovaluterei affatto: Intel mi pare che ci faccia dei begli utili da anni ....
Non credo che tutto il suo predominio sul mercato da 10 anni a questa parte sia derivato solo dal settore pro, che avrà pure dei margini da manicomio, ma ne vendi 1/1000000 o giù di li... :mbe:
CiccoMan
08-06-2017, 15:08
Non ho idea di quanto possa incidere il settore consumer, ma io non lo sottovaluterei affatto: Intel mi pare che ci faccia dei begli utili da anni ....
Non credo che tutto il suo predominio sul mercato da 10 anni a questa parte sia derivato solo dal settore pro, che avrà pure dei margini da manicomio, ma ne vendi 1/1000000 o giù di li... :mbe:
Credo che grid si riferisse agli OEM ;)
mircocatta
08-06-2017, 15:24
ed apple con vega
ma in ogni caso, nvidia sta crescendo a dismisura in queste ore
Credo che grid si riferisse agli OEM ;)
Vabbè, ma gli OEM producono ciò che il mercato chiede presumo, e se è vero che ad oggi l'utente preferisce ancora INTEL (a torto o a ragione, poco importa), mi chiedo come faccia il solo settore CPU, non solo a compensare lo sfacelo del settore gpu, ma addirittura a far guadagnare il titolo AMD.
Era questo il senso della mia domanda.
CiccoMan
08-06-2017, 15:29
Vabbè, ma gli OEM producono ciò che il mercato chiede presumo, e se è vero che ad oggi l'utente preferisce ancora INTEL (a torto o a ragione, poco importa), mi chiedo come faccia il solo settore CPU, non solo a compensare lo sfacelo del settore gpu, ma addirittura a far guadagnare il titolo AMD.
Era questo il senso della mia domanda.
Non ci è dato sapere ciò che AMD ha mostrato agli investitori per convincerli... magari hanno progetti davvero interessanti per il futuro :confused:
Non ci è dato sapere ciò che AMD ha mostrato agli investitori per convincerli... magari hanno progetti davvero interessanti per il futuro :confused:
Glielo auguro di cuore, anche se temo invece come al solito riusciranno a farsi bagnare il naso dai concorrenti :cry:
Non potete pensare che un titolo vada dietro ai benchmark o a 3 coglioni su un forum, sarebbe troppo semplice e riduttivo.
Il titolo AMD e' un titolo destinato all'up and down perche' si scontra (in genere prendendole) con due aziende con capitalizzazioni 10/20 volte superiori.
Quindi ad ogni piccola news avrai cali o picchi, ultimamente il trend e' positivo anche per le news relative ad Apple.
Di sicuro dopo un lungo periodo di nulla le ultime CPU hanno tirato su il morale di molti a prescindere dalle vendite nel breve periodo in ambito consumer (che contano molto relativamente).
Beh, allo stato però non mi pare che il settore CPU stia facendo lo sfacelo che tutti preconizzavano, anzi, mi risulta che le vendite siano piuttosto basse.
Per cui cosa resta, il settore concolle? E' così redditizio? :mbe:
In quasi tutti gli shop 2 delle 5 cpu più vendute sono amd.
Vai a vedere la situazione l'anno scorso disto periodo ce ne stavano 2 nelle prime 30 (ad esempio amazon).
Non ci è dato sapere ciò che AMD ha mostrato agli investitori per convincerli... magari hanno progetti davvero interessanti per il futuro :confused:
Non l'hai visto il fiancial analist day?
AMD è una compagnia pubblica quotata in borsa, anche io che ho una singola azione AMD ho diritto a vedere tutto quello che AMD mostra agli investitori, ci sono penali gravissime per informazioni agli insider, roba da multe che ti mandano in bancarotta. Su questo le leggi americane sono severissime (e poi non lo sono su altro, vabbè).
CiccoMan
08-06-2017, 16:09
Non l'hai visto il fiancial analist day?
AMD è una compagnia pubblica quotata in borsa, anche io che ho una singola azione AMD ho diritto a vedere tutto quello che AMD mostra agli investitori, ci sono penali gravissime per informazioni agli insider, roba da multe che ti mandano in bancarotta. Su questo le leggi americane sono severissime (e poi non lo sono su altro, vabbè).
Buon per loro :) Immagino che ci saranno dei canali di distribuzione delle informazioni... che ovvimente io ignoro :Prrr:
Legolas84
08-06-2017, 16:16
E io che pensavo di entrare qui e trovare novità su volta... invece i soliti utenti vogliono ridurre questo thread nelle stesse condizioni di quello aspettando AMD.... uff....
Inviato dal mio iPhone utilizzando Tapatalk Pro
E il freesync?
E il mining?
E i colori?
E il pannello che si apre in ritardo?
E il gsync che da 100-115 dollari, ora ricarica sui monitor 200€+
E lo scioglimento dei ghiacciai?
E la crisi dei transessuali in asia?
...
... Ohhh waiiit!!!!
E io che pensavo di entrare qui e trovare novità su volta... invece i soliti utenti vogliono ridurre questo thread nelle stesse condizioni di quello aspettando AMD.... uff....
Inviato dal mio iPhone utilizzando Tapatalk Pro
Ma questo è il thread nvidia?!!?!!?! Srsly?!?!
Pascal GP106-100 sembra sia dedicata al mining?
Verosimilmente quando sarà disponibile il successore della 1080ti? Vorrei congedare la mia titan x maxwell.
Verosimilmente quando sarà disponibile il successore della 1080ti? Vorrei congedare la mia titan x maxwell.
bho, marzo/aprile 2019?
Verosimilmente quando sarà disponibile il successore della 1080ti? Vorrei congedare la mia titan x maxwell.
Che intendi con successore, la 2080 o la 2080ti?
La prima fra 8-9 mesi, la 2080ti inizi 2019
TigerTank
10-06-2017, 13:51
Verosimilmente quando sarà disponibile il successore della 1080ti? Vorrei congedare la mia titan x maxwell.
Tanto vale che ti fai una 1080Ti e poi la cambi tra 2 anni abbondanti con una Ti Volta :)
Vi siete dimenticati la probabile Titan Volta...:sofico:
Legolas84
10-06-2017, 14:02
Verosimilmente quando sarà disponibile il successore della 1080ti? Vorrei congedare la mia titan x maxwell.
La Titan Volta uscirà l'anno prossimo... la TI Volta l'anno successivo...
Questo al netto di cosa farà AMD... perchè secondo me se VEGA sarà competitiva potrebbero anticipare...
Inviato dal mio iPhone utilizzando Tapatalk Pro
Pascal GP106-100 sembra sia dedicata al mining?
Dubito verrà mai rilasciata una cosa simile e se esistesse rimarrà sugli scaffali (a meno che non la vendi a metà del prezzo o meno di gp106).
Non vedo in che modo possa risultare più economica o sensibilmente più veloce nel mining. Non è che i port dvi o quelli hdmi fanno la differenza di prezzo sulle gpu, ci stanno anche sulle gpu da 40 euro di 6 anni fa.
La bontà del gpu mining è anche il poter rivendere l'hardware. Se il mercato delle criptovalute avrà un crash è molto meglio avere una gpu che puoi rivendere ai gamer (o giocarci) che non una scheda dedicata solo al calcolo.
Senza contare che schede simili diventerebbero estremamente appetibili per chiunque faccia gpu computing dove nvidia vende schede da migliaia di euro (finanza, scienza, machine learning, ecc).
Siete in Cina e non avete Google ?
Ale55andr0
10-06-2017, 21:41
La Titan Volta uscirà l'anno prossimo... la TI Volta l'anno successivo...
Questo al netto di cosa farà AMD... perchè secondo me se VEGA sarà competitiva potrebbero anticipare...
Inviato dal mio iPhone utilizzando Tapatalk Pro
Intanto vega pensasse ad essere...e basta :asd:
mikael84
10-06-2017, 23:13
La Titan Volta uscirà l'anno prossimo... la TI Volta l'anno successivo...
Questo al netto di cosa farà AMD... perchè secondo me se VEGA sarà competitiva potrebbero anticipare...
Inviato dal mio iPhone utilizzando Tapatalk Pro
Per ora sono riusciti a pareggiare una 1060 downclockata, consumando il doppio o più.
A numeri finali Vega è più potente della 1080, ma scomodare il GV102 mi sembra esagerato:p
Speriamo in un terzo competitor.
Legolas84
11-06-2017, 06:21
Per ora sono riusciti a pareggiare una 1060 downclockata, consumando il doppio o più.
A numeri finali Vega è più potente della 1080, ma scomodare il GV102 mi sembra esagerato:p
Speriamo in un terzo competitor.
Dici che stando a quanto trapelato fino ad ora la versione più grande di VEGA non riuscirà a pareggiare o superare la 1080TI?
Perché in questo caso allora NVIDIA continuerà per la sua strada....
Inviato dal mio iPhone utilizzando Tapatalk Pro
TigerTank
11-06-2017, 07:34
La Titan Volta uscirà l'anno prossimo... la TI Volta l'anno successivo...
Questo al netto di cosa farà AMD... perchè secondo me se VEGA sarà competitiva potrebbero anticipare...
Sì ma tanto alla fine non c'è alcuna fretta.
Sto notando che i giochi ormai o sono sotto le aspettative o sono ennesimi capitoli di serie trite e ritrite tipo Assassin's Creed, Far Cry o Call of Duty. :D
Per cui in questo momento si parla di potenzialità hardware più in termini assoluti e scimmieschi piuttosto che di ritorno in qualità gaming.
Legolas84
11-06-2017, 08:06
La scimmia comanda sempre! Pensa che ora si discute riguardo la scelta tra x299 oppure il nuovo Ryzen di fascia alta... come se ci fosse davvero bisogno di cambiare il 5930k :asd:
Però forse con tutte le stupidaggini che ha fatto Intel e se Ryzen high end si rivelerà debole nel gaming potrei saltarle proprio queste CPU...
Inviato dal mio iPhone utilizzando Tapatalk Pro
KingArthas94
11-06-2017, 08:57
Sì ma tanto alla fine non c'è alcuna fretta.
Sto notando che i giochi ormai o sono sotto le aspettative o sono ennesimi capitoli di serie trite e ritrite tipo Assassin's Creed, Far Cry o Call of Duty. :D
Per cui in questo momento si parla di potenzialità hardware più in termini assoluti e scimmieschi piuttosto che di ritorno in qualità gaming.
Se non sai quali siano i veri giochi belli...
http://store.steampowered.com/app/374320/DARK_SOULS_III/
Giovamas
11-06-2017, 09:00
La scimmia comanda sempre! Pensa che ora si discute riguardo la scelta tra x299 oppure il nuovo Ryzen di fascia alta... come se ci fosse davvero bisogno di cambiare il 5930k :asd:
Però forse con tutte le stupidaggini che ha fatto Intel e se Ryzen high end si rivelerà debole nel gaming potrei saltarle proprio queste CPU...
Inviato dal mio iPhone utilizzando Tapatalk Pro
sinceramente un pensierino al skylake x esacore (o anche al coffe lake) ce lo sto facendo anche se come te ho un bella cpu (tu di più senza pasta del capitano tra l'altro). La mia prossima gpu invece sarà volta ti non mi interessano le altre Vega compresa anche se ovviamente seguirò tutto con molto interesse
TigerTank
11-06-2017, 09:03
Se non sai quali siano i veri giochi belli...
http://store.steampowered.com/app/374320/DARK_SOULS_III/
Concordo perfettamente con te, più che altro intendevo quelli che dovrebbero arrivare da qui all'arrivo delle Volta :)
La scimmia comanda sempre! Pensa che ora si discute riguardo la scelta tra x299 oppure il nuovo Ryzen di fascia alta... come se ci fosse davvero bisogno di cambiare il 5930k :asd:
Però forse con tutte le stupidaggini che ha fatto Intel e se Ryzen high end si rivelerà debole nel gaming potrei saltarle proprio queste CPU...
Sì, vero...la pasta del capitano sulle cpu di fascia alta poi per me non esiste proprio. E diciamo anche che ormai le generazioni si susseguono a tale velocità che imho la fascia alta ha perso parecchio significato in quanto a longevità in rapporto ai costi.
Mi sa che mi farò un semplice coffee lake a fine anno e nel 2018 Volta(si vedrà se singola o di nuovo sli di "piccine") + eventuale 3440x1440 144Hz gsync. Sempre che ovviamente AMD non faccia la rivoluzione pure in ambito vga + freesync 2.
Giovamas
11-06-2017, 09:10
Concordo perfettamente con te, più che altro intendevo quelli che dovrebbero arrivare da qui all'arrivo delle Volta :)
concordo al 100% pochi giochi mi han preso come DS3. Io aspetto il nuovo original sin sarà il mio gioco perfetto se ci metteranno le romance. :D si parla di settembre/ottobre. ora gioco ad andromeda e con la 1080ti è un bel vedere
Scusate intendevo il successore di 1080 liscia ovviamente volta, non la ti. Sec me dopo l'annuncio di questa sera di Scorpio (console MS) gli sviluppatori probabilmente spingeranno un po' su quell'hardware e il pc non avrà solo porting. Anche se ultimamente non sono sempre porting eh anzi. Quindi mi chiedevo se a fine anno mi conveniva cambiare la scheda video magari con un bel monitor 4k (anche se sono ancora costosi quelli hdr e con g-synch)
Scusate intendevo il successore di 1080 liscia ovviamente volta, non la ti. Sec me dopo l'annuncio di questa sera di Scorpio (console MS) gli sviluppatori probabilmente spingeranno un po' su quell'hardware e il pc non avrà solo porting. Anche se ultimamente non sono sempre porting eh anzi. Quindi mi chiedevo se a fine anno mi conveniva cambiare la scheda video magari con un bel monitor 4k (anche se sono ancora costosi quelli hdr e con g-synch)
La futura 1180 o 2080 q1 2018 direi..
I porting e i giochi mattone ci saranno sempre, fattene una ragione..
mikael84
11-06-2017, 14:46
Dici che stando a quanto trapelato fino ad ora la versione più grande di VEGA non riuscirà a pareggiare o superare la 1080TI?
Perché in questo caso allora NVIDIA continuerà per la sua strada....
Inviato dal mio iPhone utilizzando Tapatalk Pro
Bisogna vedere quanto possano rendere sul campo le migliorie, ed attualmente non si ha nulla per valutare.
Rimangono i numeri, dove a livello di calcolo se sfruttassimo tutte le ALU, avremmo una potenza di calcolo doppia rispetto la 580, in più la nuova GCN prevede un miglior parallelismo dato dalle varie cache, come la cache registri, più le varie 8 bit e doppio fp16.
Il doppio della 1060 è la 1080, quindi siamo li.
A questo si aggiungono migliorie rop's-cache, oltre che le rop's ora avranno un fillrate maggiore, in quanto a 1500mhz è come utilizzare 96 rop's a 1000mhz.
Da non sottovalutare anche il rapporto geometrico, che non è proprio come Nvidia, ma a dati teorici aumenta notevolmente.
480: 5g/tris/s
Vega 16,5 g/tris/s.
Il limite di AMD era un rapporto geometrico con tassellazione pari a quello di una misera 960, già solo raddoppiandolo diminuisce notevolmente lo scarto tra le due.
Un motivo, il quale la fury su certi giochi carichi di tassellazione ha prestazioni da 1060/980, considerando la potenza poligonale ancora inferiore ad una 960, e con vari problemi di culling e backfaceculling (Heaven).
Come vedi è difficile valutare, sicuramente saranno i giochi a decretare chi andrà di più, e Vega per architettura e dx12 (visto l'aggiunta del conservative) dovrebbe essere più allineato a Volta.
Poi ci sarà (penso) Vega mid - 2060 Volta.
Legolas84
11-06-2017, 15:04
All'inizio del discorso mi pareva di capire che secondo te c'è da aspettarsi prestazioni tra 1080 e 1080Ti.... alla fine del discorso invece mi pare che la metti addirittura sul piano di Volta... in pratica non ho capito cosa ti aspetti... forse è proprio perché attualmente anche solo fare pronostici è impossibile...
Inviato dal mio iPhone utilizzando Tapatalk Pro
mikael84
11-06-2017, 15:18
All'inizio del discorso mi pareva di capire che secondo te c'è da aspettarsi prestazioni tra 1080 e 1080Ti.... alla fine del discorso invece mi pare che la metti addirittura sul piano di Volta... in pratica non ho capito cosa ti aspetti... forse è proprio perché attualmente anche solo fare pronostici è impossibile...
Inviato dal mio iPhone utilizzando Tapatalk Pro
Si perchè Vega e Volta grazie anche al conservative, cercheranno di spremere ogni ALU facilmente (Pascal ha una gestione diversa dei thread e non sempre li occupa tutti), abbassando latenze, migliorando il rapporto cache etc.
Diciamo che saranno le architetture dei prossimi anni.
Vega- GV104 mi pare più logico (ma del GV 104 parliamo anche di 2070).
Riguardo la potenza, se di una sappiamo i numeri, dell'altra non abbiamo la certezza prestazionale.
L'unico modo sarebbe avere uno score del 3dmark extreme o time spy, per inquadrarla e vedere dove si colloca.
Ho letto le ultime pagine del thread e, se le vostre previsioni riguardo alle nuove schede Volta in uscita nel Q1 2018 fossero giuste, pensavo ad un salto prestazionale superiore. Io speravo che una 2070 fosse quasi sicuro superiore ad una 1080ti.
Sarebbe errato dire che, in ottica future proof, aspettare 7-8 mesi per una 2070 non vale la pena potendo prendere una 1080 oggi?
Ho letto le ultime pagine del thread e, se le vostre previsioni riguardo alle nuove schede Volta in uscita nel Q1 2018 fossero giuste, pensavo ad un salto prestazionale superiore. Io speravo che una 2070 fosse quasi sicuro superiore ad una 1080ti.
Sarebbe errato dire che, in ottica future proof, aspettare 7-8 mesi per una 2070 non vale la pena potendo prendere una 1080 oggi?
42
CiccoMan
11-06-2017, 16:54
Ho letto le ultime pagine del thread e, se le vostre previsioni riguardo alle nuove schede Volta in uscita nel Q1 2018 fossero giuste, pensavo ad un salto prestazionale superiore. Io speravo che una 2070 fosse quasi sicuro superiore ad una 1080ti.
Sarebbe errato dire che, in ottica future proof, aspettare 7-8 mesi per una 2070 non vale la pena potendo prendere una 1080 oggi?
La domanda è: se puoi aspettare 7-8 mesi vuol dire che la VGA adesso non ti serve... E allora che la compri a fare? Di solito io la roba la compro quando mi serve e la cambio quando non soddisfa più le mie esigenze... Se posso aspettare aspetto, ma non perché uscirà qualcosa di migliore chissaquando ... È ovvio che prima o poi uscirà qualcosa di migliore ;)
Inviato dal mio Pixel utilizzando Tapatalk
bagnino89
11-06-2017, 18:44
42
Questa è per pochi :asd:
Ale55andr0
11-06-2017, 20:05
Questa è per pochi :asd:
Basta googlare
https://it.m.wikipedia.org/wiki/Risposta_alla_domanda_fondamentale_sulla_vita,_l%27universo_e_tutto_quanto
Mai sentito prima...
Ale55andr0
11-06-2017, 20:06
http://bfy.tw/A0bm
Infatti :asd:
La domanda è: se puoi aspettare 7-8 mesi vuol dire che la VGA adesso non ti serve...
Fosse così allora nemmeno avrei postato. E' palese che se mi pongo il problema una scheda mi serva, ma 7 mesi non sono 7 anni e vista la vicinanza con una nuova generazione uno valuta se la cifra che spende oggi tra 7 mesi varrà una grande differenza di prestazioni...e a quel punto pondera se sia il caso o no di tirare ancora avanti con quella che ha. Ma mi par di intuire che il mio sia un comportamento razionale in disuso.
Ad ogni modo è evidente che anche voi navighiate a vista e di previsioni non ne possiate fare.
Fosse così allora nemmeno avrei postato. E' palese che se mi pongo il problema una scheda mi serva, ma 7 mesi non sono 7 anni e vista la vicinanza con una nuova generazione uno valuta se la cifra che spende oggi tra 7 mesi varrà una grande differenza di prestazioni...e a quel punto pondera se sia il caso o no di tirare ancora avanti con quella che ha. Ma mi par di intuire che il mio sia un comportamento razionale in disuso.
Ad ogni modo è evidente che anche voi navighiate a vista e di previsioni non ne possiate fare.
Secondo me, se non hai intenzione di buttarti sulla nuova titan Volta 1300€++, puoi benissimo andare di 1080ti, non penso sarà così distante dalla 2080 da quello che ho letto qui..
Al massimo potresti ormai vedere come sarà Vega e poi decidi cosa prendere
Secondo me, se non hai intenzione di buttarti sulla nuova titan Volta 1300€++, puoi benissimo andare di 1080ti, non penso sarà così distante dalla 2080 da quello che ho letto qui..
Al massimo potresti ormai vedere come sarà Vega e poi decidi cosa prendere
Penso rimarrò con Nvidia in ogni caso, sicuramente però l'uscita di Vega potrebbe far scendere un po' i prezzi...ormai aspetterò ancora qualche altra settimana.
Grazie a tutti
TigerTank
12-06-2017, 12:38
Secondo me, se non hai intenzione di buttarti sulla nuova titan Volta 1300€++, puoi benissimo andare di 1080ti, non penso sarà così distante dalla 2080 da quello che ho letto qui..
Al massimo potresti ormai vedere come sarà Vega e poi decidi cosa prendere
Io sinceramente la titan dopo gli ultimi trascorsi non la consiglierei manco al mio peggior nemico :D
Per il solo gaming imho ha poco senso e gli ultimi prezzi imho non valgono nemmeno più come giustificazione del pagare caro per avere il chippone subito, soprattutto alla luce del successivo refresh XP visto con le Pascal.
Circa la 1080Ti, o la si prende subito o tanto vale aspettare se non si ha urgenza in fatto di prestazioni necessarie...ovviamente se in ottica acquisto dei chippini Volta.
Se invece si vuole andare di Ti in Ti, allora ha una sua bella longevità e anzi, si può anche aspettare di vedere che cosa succede con l'uscita delle Vega ;)
780ti - longevità :mc:
L'unica titanium che dopo pochi mesi dalla release si vedeva superare da una 960 da 170 euro :asd:
CiccoMan
12-06-2017, 12:54
780ti - longevità :mc:
L'unica titanium che dopo pochi mesi dalla release si vedeva superare da una 960 da 170 euro :asd:
Credo che Tiger intendesse che il passaggio da una Ti alla successiva sia longevo, e infatti scrive:
Se invece si vuole andare di Ti in Ti, allora ha una sua bella longevità e anzi, si può anche aspettare di vedere che cosa succede con l'uscita delle Vega ;)
Leggo male io:confused:
Certo ne avete di soldi da buttare per rifiutarvi di abbassare qualche filtro inutile o invisibile (o addirittura brutto) e andare a spendere 7-800 euro all'anno.
Per carità, sono passioni, il forum tratta proprio quello, ma vi ponete dei problemi assurdi.
CiccoMan
12-06-2017, 13:48
Certo ne avete di soldi da buttare per rifiutarvi di abbassare qualche filtro inutile o invisibile (o addirittura brutto) e andare a spendere 7-800 euro all'anno.
Per carità, sono passioni, il forum tratta proprio quello, ma vi ponete dei problemi assurdi.
Il salto da Ti a Ti è mediamente ogno 18-20 mesi... e magari si riuscisse ad ammaestrare la scimmia per così tanto tempo... Dalle mie parti 800€ per il pc va bene se durano 6 mesi :muro:
Ciao a tutti,
in questi gg pensavo di prendermi una 1080 o di asus o di msi, ma improvvisamente si fanno fatica a trovare e sono salite di prezzo anche in modo significativo.
E' successo qualcosa o solo una forte richiesta e poca offerta?
Il mining è ultra profittevole con qualsiasi scheda oramai, quindi i miners comprano qualsiasi cosa.
Su bitcoin talk ci sono foto di rig da 6 1080ti ogni 10 minuti.
Ale55andr0
12-06-2017, 16:53
Sti minatori hanno spappolato la coppolazza della ceppazza :O
Sti minatori hanno spappolato la coppolazza della ceppazza :O
AMD invece è felice grazie ai minatori ha il tutto esaurito sulle 580 :sofico:
E per come vanno via, per vega non c'è fretta :D
bagnino89
12-06-2017, 19:13
Sti minatori hanno spappolato la coppolazza della ceppazza :O
Davvero.
Sti minatori hanno spappolato la coppolazza della ceppazza :O
O forse AMD avrebbe dovuto aumentare i volumi.
Non ci voleva un genio per capire che avrebbero venduto molto, stessa cosa era successa con tahiti e hawaii (e anche Polaris stra vendeva presso i miner). Anche Hawaii ha avuto i suoi due mesi di quasi sold out globalmente.
La colpa è di AMD di non avere capacità produttive superiori.
TigerTank
12-06-2017, 20:42
Credo che Tiger intendesse che il passaggio da una Ti alla successiva sia longevo, e infatti scrive:
Leggo male io:confused:
Hai capito perfettamente, intendevo proprio quello ;)
Certo ne avete di soldi da buttare per rifiutarvi di abbassare qualche filtro inutile o invisibile (o addirittura brutto) e andare a spendere 7-800 euro all'anno.
Per carità, sono passioni, il forum tratta proprio quello, ma vi ponete dei problemi assurdi.
Beh è tutto in proporzione alle disponibilità di ognuno e al livello a cui gioca. Se ad esempio si ha un 4K o un 1440p 21:9 da gaming, una 1080Ti ci va alla grande. E con i prossimi mattoni ci sarà comunque da abbassare qualcosina, specialmente in 4K :D
Pensa te che adesso AMD ha anche la colpa di vendere troppo :D
Mi date una spiega o meglio una conferma sulle criptomonete?
Tutti i calcoli che servono per minare hanno il fine di gestire al monete stessa vero? Cioè non è che servono ad altro giusto?
Più che altro è che se da un lato ha venduto bene nel mining e come vga nelle console, in ambito gaming su pc è latitante...soprattutto visto che cisono anche i monitor da gaming 144Hz 1440p con freesync e si parla addirittura di freesync 2. Urgono le Vega per sfruttarli a dovere :D
TigerTank
12-06-2017, 21:12
Sicuramente serve un qualcosa di fascia più alta, ma un monitor 144hz 1440p si può sfruttare comunque.
Non tutti giocano a giochi mattone, prendi quelli che giocano a overwatch, dota e compagnia bella 100 e passa fps a 1440p li fanno anche con una 580.
Anche perchè 144 fps a 1440p in certi giochi non li fai manco con una 1080ti, ma ci sono tante sfumature nel mezzo.
Sì, esatto....indubbio però è che tali schermi siano perfetti per poter spingere alla grande una futura Vega top soprattutto con in nuovi titoli in arrivo, così come una 1080Ti su relativi schermi gsync. In entrambi i casi direi che sia un giusto ritorno di spesa :cool:
aled1974
12-06-2017, 22:45
non so cosa possa c'entrare col thread :boh: :stordita:, ma senza vsync o cap-frame non doveva essere il massimo da vedere ;)
ciao ciao
Legolas84
13-06-2017, 11:30
Sì, esatto....indubbio però è che tali schermi siano perfetti per poter spingere alla grande una futura Vega top soprattutto con in nuovi titoli in arrivo, così come una 1080Ti su relativi schermi gsync. In entrambi i casi direi che sia un giusto ritorno di spesa :cool:
Con GP102 potenza c'è nè tanta.... ma sicuramente averne di più non guasta.... ad esempio in Resident Evil 7 mi sono divertito a fare un po' di prove con i setting e devo dire che scalando la risoluzione nativa al rialzo si ha un bel guadagno nella pulizia della scena....
Con GP102 la posso scalare a 1.3 con tutti i setting al massimo e rimanere tra i 75 e i 100fps.... con GV104 magari si arriva a 1.8 per dire.... insomma più potenza c'è meglio è :D
Inviato dal mio iPhone utilizzando Tapatalk Pro
TigerTank
13-06-2017, 11:32
Con GP102 potenza c'è nè tanta.... ma sicuramente averne di più non guasta.... ad esempio in Resident Evil 7 mi sono divertito a fare un po' di prove con i setting e devo dire che scalando la risoluzione nativa al rialzo si ha un bel guadagno nella pulizia della scena....
Con GP102 la posso scalare a 1.3 con tutti i setting al massimo e rimanere tra i 75 e i 100fps.... con GV104 magari si arriva a 1.8 per dire.... insomma più potenza c'è meglio è :D
Ahahah beh tu sei un inscimmiato cronico ed è scontato che ti farai una gtx2080(o magari pure Sli) per poi cambiarla con una gtx2080Ti :ciapet: :sofico:
Il mining è ultra profittevole con qualsiasi scheda oramai, quindi i miners comprano qualsiasi cosa.
Su bitcoin talk ci sono foto di rig da 6 1080ti ogni 10 minuti.
Su che basi dici queste cose?
1) Che moneta mini
2) che scheda/e usi
3) quanto paghi la corrente
Ho un RIG da 6 RX480 e non e' ultra-profittevole, 1° non devi pagare la corrente, 2° devi stare sempre sul pezzo e capire quale moneta va minata settimana per settimana, e devi sperare che come per gli Eth vadano bene comuni schede video, altrimenti se e' come per i BitCoin le usi come fermacarte.
Motiva la tua affermazione di ultra-profittevole con qualsiasi scheda :) :)
Ciao
Legolas84
13-06-2017, 19:00
Ahahah beh tu sei un inscimmiato cronico ed è scontato che ti farai una gtx2080(o magari pure Sli) per poi cambiarla con una gtx2080Ti :ciapet: :sofico:
Passione :D ;)
Su che basi dici queste cose?
1) Che moneta mini
2) che scheda/e usi
3) quanto paghi la corrente
Ho un RIG da 6 RX480 e non e' ultra-profittevole, 1° non devi pagare la corrente, 2° devi stare sempre sul pezzo e capire quale moneta va minata settimana per settimana, e devi sperare che come per gli Eth vadano bene comuni schede video, altrimenti se e' come per i BitCoin le usi come fermacarte.
Motiva la tua affermazione di ultra-profittevole con qualsiasi scheda :) :)
Ciao
Il ROI si assesta a meno di 50 giorni a scheda con gli attuali prezzi, entro fine giugno ci saranno altre due ICO da più di 100 milioni di dollari complessivi, gli ETH andranno a ruba non c'è alcun trend in discesa (a parte se scoppia la bolla del mining, ma prima o poi capita :asd:).
Di corrente consumo 100 watt a scheda e sono fortemente tentato di usare anche quella in firma presa per gaming (anche se in verità voglio aggiungere una 570 mini alla rig visto che tanto questo pc ha sono un pci express). 100 watt sono 1,8 centesimi all'ora, 40 al giorno, 12 euro al mese, niente di che.
A proposito di mining, questo dovrebbe essere uno screen di Vega su Ethereum...Se è vero scordatevi di avere la minima chance di comprare Vega, mai (l'hashrate è circa 9 volte superiore a quello della 580 moddata):
https://scontent.fmnl4-1.fna.fbcdn.net/v/t1.0-9/19029717_10203580619431504_1823824124603343840_n.jpg?oh=de4cc8689af5f0db52b1d2342e5707cb&oe=59D2BB08
Legolas84
13-06-2017, 19:28
basta off topic? :rolleyes:
Ho linkato le prestazioni in mining (vere o presunte) di Vega nel mining, non vedo come sia un off topic, facendo anche riferimenti alla sua appetibilità ai non gamers.
Che ti piaccia o meno le gpu non si usano solo per giocare, ma anche per fare rendering, calcoli, deep learning (esempio: Youtube che mette automaticamente i sottotitoli), ecc.
edit: pensavo fossimo sul topic amd, scusatemi.
Legolas84
13-06-2017, 20:08
Ho linkato le prestazioni in mining (vere o presunte) di Vega nel mining, non vedo come sia un off topic, facendo anche riferimenti alla sua appetibilità ai non gamers.
Che ti piaccia o meno le gpu non si usano solo per giocare, ma anche per fare rendering, calcoli, deep learning (esempio: Youtube che mette automaticamente i sottotitoli), ecc.
Immagino che invece i tuoi acquisti in tema gpu (nvidia poi) siano perfettamente in topic sul thread amd ;)
letto ora l'edit allora edito anche io va...
Però veramente... di VEGA parlatene sul thread AMD, altrimenti si riempie di vaccate pure questo di thread e non è il caso...
Una 1080ti regge il 4k a 60fps?
Siccome a breve volevo prendere una tv 4k hdr (purtroppo i monitor con tali specifiche o non ci sono o costano davvero troppo) Sec voi cambiare ora la mia titan x (2015) con una 1080ti per poi magari ricambiarla con la futura 2080ti è da cretini? Voi come agireste? :)
Psycho77
13-06-2017, 23:47
Una 1080ti regge il 4k a 60fps?
Siccome a breve volevo prendere una tv 4k hdr (purtroppo i monitor con tali specifiche o non ci sono o costano davvero troppo) Sec voi cambiare ora la mia titan x (2015) con una 1080ti per poi magari ricambiarla con la futura 2080ti è da cretini? Voi come agireste? :)
Se intendi maxare e tenere i 60 fissi a 4k con i titoli più pesanti e recenti,no.
Come si dice a roma,nun gna fa.:asd:
Ti tocca una soluzione costosa di 2 1080 ti in sli,ma proprio se vuoi maxare tutto.
Ci sono giochi come rise of the tomb rider,batman ak,tw3 con hairworks o mass effect andromeda che son proprio mattoni.
Se vuoi tutto e subito sganci li sordi,oppure ti prendi una 1080 ti e setti i giochi con un po' di criterio per raggiungere i 4k e 60 frame senza problemi.
Io son rimasto al 1440p proprio per questo motivo,per poter maxare anche il futile e per tenere i 60 in ogni condizione.
Nei giochi più leggeri uso il dsr per arrivare al 4k,dipende dal carico computazionale del gioco.
Una 1080ti regge il 4k a 60fps?
Siccome a breve volevo prendere una tv 4k hdr (purtroppo i monitor con tali specifiche o non ci sono o costano davvero troppo) Sec voi cambiare ora la mia titan x (2015) con una 1080ti per poi magari ricambiarla con la futura 2080ti è da cretini? Voi come agireste? :) ciao è da un po che si aspetta la singola scheda video che va al max col 4k, e ancora non esiste, si deve arrivare a compromessi, ovviamente in tutti i giochi, dubito che volta lo possa fare, visto che dovrebbe andare il 50% in piu della 1080ti, io lo spero ma sono molto sciettico:)
ciao è da un po che si aspetta la singola scheda video che va al max col 4k, e ancora non esiste, si deve arrivare a compromessi, ovviamente in tutti i giochi, dubito che volta lo possa fare, visto che dovrebbe andare il 50% in piu della 1080ti, io lo spero ma sono molto sciettico:)
Tanto c'è gente che ti direbbe che anche a 1080p fai compromessi se aspetti altri 12 mesi.
Tanto c'è gente che ti direbbe che anche a 1080p fai compromessi se aspetti altri 12 mesi.il problema di fondo è che non si è mai contenti di quello che si ha:(
CiccoMan
14-06-2017, 07:38
il problema di fondo è che non si è mai contenti di quello che si ha:(
Io gioco a 3440x1440 e la 1080ti è semplicemente perfetta. Uso su tutti i titoli il preset massimo e non ho mai avuto problemi di framerate. Sinceramente non gioco con l'osd, gioco e basta, quindi non so dire di preciso average, max e min... e nemmeno mi interessa, mi faccio bastare la percezione di fluidità :sofico:
Certo, l'UHD è abbastanza più impegnativo dell'UWQHD e non saprei se a quella risoluzione avrei la stessa sensazione... però facendo qualche prova ho notato che spesso la vga sonnecchia, quindi suppongo che abbia ancora gas da dare per risoluzioni più elevate :D
Lunar Wolf
14-06-2017, 07:59
Edit:
Topic sbagliato.
Se uno si accontenta di non mettere preset estreme una ti basta é avanza.
Io gioco a 3440x1440 e la 1080ti è semplicemente perfetta. Uso su tutti i titoli il preset massimo e non ho mai avuto problemi di framerate. Sinceramente non gioco con l'osd, gioco e basta, quindi non so dire di preciso average, max e min... e nemmeno mi interessa, mi faccio bastare la percezione di fluidità :sofico:
Certo, l'UHD è abbastanza più impegnativo dell'UWQHD e non saprei se a quella risoluzione avrei la stessa sensazione... però facendo qualche prova ho notato che spesso la vga sonnecchia, quindi suppongo che abbia ancora gas da dare per risoluzioni più elevate :Dma infatti ,qui si parla di almeno 60 fps, tutto maxzato al massimo in 4k, poi se a te non interessa quanti fps fa la tua gpu, questo è un altra storia, comunque tu sei bravo a non farti sege mentali sia x gli fps e magari anche x le temperature della gpu , beato te:D
ma infatti ,qui si parla di almeno 60 fps, tutto maxzato al massimo in 4k, poi se a te non interessa quanti fps fa la tua gpu, questo è un altra storia, comunque tu sei bravo a non farti sege mentali sia x gli fps e magari anche x le temperature della gpu , beato te:D
In realtà molto dipende anche dai titoli, se vuoi maxare un mattone, per una 1080ti il massimo è 3440x1440, in 4K devi ottimizzare qua e là, filtri in primis... Ma giochi ugualmente bene :)
Penso che già dalla prossima gen con la 2080, i titoli attuali li maxi tutti in 4K, considerando che la 2080 andrebbe sempre il solito 25-30% dalla ti precedente + 15-20% da OC...
Ma tanto uscirà il nuovo mattone di turno e siamo sempre lì :sofico:
TigerTank
14-06-2017, 09:58
ma secondo quali astrusi calcoli? :sofico:
Beh ormai gli upgrade prestazionali calibrati sono quelli...
Ci sarà la x70 che andrà più o meno come la 1080Ti a seconda degli scenari, una x80 che staccherà grossomodo di un 25-30%. Una Titan che andrà un 50% in più dell'attuale ma costerà 2 reni e a seguire la x80Ti di nuovo con il suo 25-30% in più rispetto alla x80 e poco sotto alla Titan :D
Il giusto minimo perchè sia definibile upgrade, ma non troppo per preservare la generazione successiva. :fagiano:
TigerTank
14-06-2017, 10:20
Ma che c'entrano quei grafici? Oltretutto buttati lì a caso perchè non si capisce manco quale sia la base di riferimento.
Io parlo in generale di Maxwell, Pascal e Volta. Da Maxwell a Pascal è stato come ho scritto sopra e lo dico anche da possessore fisico di tali schede.
Probabilmente la cosa si ripeterà anche con le Volta perchè stacchi inferiori li credo improbabili. Nvidia è cara ma perlomeno un pò di sostanza c'è sempre e le schede viaggiano. Ma ovviamente d'altro canto limiteranno i massimi potenziali di architettura progettando e settando l'hardware a puntino, perchè hanno sempre una generazione successiva((o pure dei refresh aggiuntivi) da presentare, non so se mi spiego. :)
Comunque sono solo opinioni, in attesa dei futuri esiti concreti. Di certo se AMD si desse una mossa a presentare qualcosa di valido e concorrenziale, pure nvidia sarebbe spronata poi a rilanciare fornendo più prestazioni a parità di costi invece che cappare le schede. Con le Pascal hanno bloccato il bios modding del power limit e l'overvolt è ormai insignificante.
EDIT: ovviamente sottointendendo che sia impossibile fare confronti assoluti in quanto poi gli stacchi tra le vga possono anche essere piuttosto elastici a seconda dei singoli titoli e relativi motori di gioco/filtri/ecc...
NOPE.
Guarda che quegli screen lasciano il tempo che trovano... Tra il chippone di precedente gen e i chip nuovi x80 c'è sempre stato minimo ma minimo un salto del 20% a salire...
Per di più kepler vs Maxwell? :fagiano:
Basta vedere tra 980ti e 1080 che differenza c'è... O tra GTX 580 a 680/770
Giovamas
14-06-2017, 10:38
Beh ormai gli upgrade prestazionali calibrati sono quelli...
Ci sarà la x70 che andrà più o meno come la 1080Ti a seconda degli scenari, una x80 che staccherà grossomodo di un 25-30%. Una Titan che andrà un 50% in più dell'attuale ma costerà 2 reni e a seguire la x80Ti di nuovo con il suo 25-30% in più rispetto alla x80 e poco sotto alla Titan :D
Il giusto minimo perchè sia definibile upgrade, ma non troppo per preservare la generazione successiva. :fagiano:
Quoto Tiger. Io me ne sto alla finestra fino alla Volta ti. 2080ti o quel che sarà. Tornassi indietro sinceramente avrei preso la 2x1070 come te ma ormai... :) la mia strada è questa con il senno di poi posso dire che tergiversai troppo a rivendere la 980ti
Quarda che ho capito benissimo cosa stai dicendo. Il punto è che quello che dici è successo solo nel passaggio Maxwell 2.0 -> Pascal.
Siamo ben lontani dal poterci fare sopra una statistica e da questa una previsione, quando gli altri passaggi precedenti, in cui non c'è stato un cambio di processo, hanno raccontato una storia ben diversa, che è quella sommariamente rappresentata in quei grafici (il riferimento? è la scheda al 100%, ovviamente, cioè la nuova x80 che NON va il 25%-30% in più della precedente Ti, va poco più o poco meno).
Poi si può fare tutto, Volta 100 è 815mm^2, se tutti chip della linea Volta di tutte le fasce subiscono lo stesso incremento d'area la tua stima può realizzarsi di sicuro, non ho detto che è impossibile, ho detto che non è una cosa che puoi stimare partendo dall'unico caso in cui è successo e che presenta pure una differenza enorme con il passaggio Pascal -> Volta: non hai un cambio di processo.
Ma non è assolutamente vero una 980ti per pareggiare una 1080 reference deve essere cloccata a 1500/8000 come minimo ed è molto spinto come OC neanche e detto ci arrivino tutte la media è sui 1450... e una 1080 FE boosta al massimo sui 1733mhz e portandola a 2.1ghz in oc il distacco rimane sempre palese del 20-25%
Quoto Tiger. Io me ne sto alla finestra fino alla Volta ti. 2080ti o quel che sarà. Tornassi indietro sinceramente avrei preso la 2x1070 come te ma ormai... :) la mia strada è questa con il senno di poi posso dire che tergiversai troppo a rivendere la 980ti
Personalmente, meglio stare lontani dallo sli se si può... Gli upgrade personalmente li vedo sempre a pari fascia: 1080>2080 o 1080ti>2080ti, passare dalla 1080ti a 2080 fa avere si un certo margine di guadagno ma si annulla totalmente considerando l'esborso...
TigerTank
14-06-2017, 10:39
Quarda che ho capito benissimo cosa stai dicendo. Il punto è che quello che dici è successo solo nel passaggio Maxwell 2.0 -> Pascal.
Siamo ben lontani dal poterci fare sopra una statistica e da questa una previsione, quando gli altri passaggi precedenti, in cui non c'è stato un cambio di processo, hanno raccontato una storia ben diversa, che è quella sommariamente rappresentata in quei grafici (il riferimento? è la scheda al 100%, ovviamente, cioè la nuova x80 che NON va il 25%-30% in più della precedente Ti, va poco più o poco meno).
Poi si può fare tutto, Volta 100 è 815mm^2, se tutti chip della linea Volta di tutte le fasce subiscono lo stesso incremento d'area la tua stima può realizzarsi di sicuro, non ho detto che è impossibile, ho detto che non è una cosa che puoi stimare partendo dall'unico caso in cui è successo e che presenta pure una differenza enorme con il passaggio Pascal -> Volta: non hai un cambio di processo.
Ma sì infatti la mia è solo una stima, tenendo conto anche del fatto che Volta sarà la generazione del gaming sul sempre più diffuso 4K, per cui presumo che Titan a parte, la x80 dovrà essere "calibrata" almeno per avere prestazioni accettabili su 4K 60Hz con i nuovi titoli(e quindi un bel 25-30% in più della 1080Ti ci starebbe tutto) a cui seguirà poi la più performante Ti nel 2019.
No vabbe non sono il maniaco che deve settare tutto ad ultramega. Se devo togliere qualche cosa lo levo senza problemi. Ad esempio gia ora metto poco antialiasing perchè gia in 1440p ne sento poco l'esigenza figuriamoci in 4k. Per esempio levo spesso il dof o altri effettini che non mi interessano.
si ma non rimaneteci troppo male poi eh :sofico:
se hanno aumentato l'ipc o il clock del 30% ci può stare, oppure gv104 andrà grossomodo quanto gp102 che tra l'altro come già detto gp102 avrà il +40% di rops e +50% in raster rispetto a gv104 a parità di CC e PE, 30(28) vs 28... i dati mostrati in V100 ipotizzano questo scenario.
ubro hai riportato esempi di salti nodo, li lascerei perdere non sarò questo il caso, così come lascerei perdere il salto kepler → maxwell in quanto nvidia non è mica messa così male con pascal.
Questo è vero, diciamo che è proprio il discorso alla base che non fila, non si può semplicemente generalizzare...
Comunque con Volta è più complesso il ragionamento, nel passaggio Maxwell -> Pascal nvidia ha pompato tantissimo i clock e migliorato la compressione quindi stimare il salto era relativamente semplice, con volta invece i clock non è detto subiranno cambiamenti e potrebbe anche essere un semplice pompaggio HW...
Concordo che Kepler è un discorso a se ma vedere in un grafico generalizzato che dista del solo 5% da una 980 fa abbastanza ridere...
E' quello che dico da 3 o 4 post ;)
Il grafico con Kepler è del day one della 980, quando è uscita hai visto come andava. Poi hanno smesso di ottimizzare i driver per Kepler e sappiamo come è andata, ma nemmeno quella è una sicurezza di qualche tipo e dipende se Volta è effettivamente un cambio di paradigma tale da far verificare la stessa cosa su Maxwell e Pascal oppure no.io spero che la gpu volta piu potente vada di piu delle mie 2 titan x pascal , cosi è la volta buona che torno alla singola scheda:D
Legolas84
14-06-2017, 12:34
GV104 è destinata ad andare circa il 20-25% in più di GP102 imho....
Inviato dal mio iPhone utilizzando Tapatalk Pro
Ale55andr0
14-06-2017, 12:48
Se intendi maxare e tenere i 60 fissi a 4k con i titoli più pesanti e recenti,no.
Come si dice a roma,nun gna fa.:asd:
Ti tocca una soluzione costosa di 2 1080 ti in sli,ma proprio se vuoi maxare tutto.
Ci sono giochi come rise of the tomb rider,batman ak,tw3 con hairworks o mass effect andromeda che son proprio mattoni.
Se vuoi tutto e subito sganci li sordi,oppure ti prendi una 1080 ti e setti i giochi con un po' di criterio per raggiungere i 4k e 60 frame senza problemi.
Io son rimasto al 1440p proprio per questo motivo,per poter maxare anche il futile e per tenere i 60 in ogni condizione.
Nei giochi più leggeri uso il dsr per arrivare al 4k,dipende dal carico computazionale del gioco.
Si ma non lasciamo nemmeno intendere che ne faccia 20, cosi per dire ;)
Laddove non arriva ne fa 45- 50 che per me in 4k maxato sono accettabilissimi e restano fluidi, tolti quelli dotati di occhio bionico che affermano di vedere i cali da 60 a 59fps :eek:
TigerTank
14-06-2017, 12:51
si ma non rimaneteci troppo male poi eh :sofico:
Di parte mia ti dico che la cosa che mi fa più male è vedere AMD tirarla lunga con ste benedette Vega, sia a livello di interesse sia perchè dà spazio a nvidia per fare quel che gli pare a spese di noi tutti, tra prezzi pompati e cap fisici sulle schede.
GV104 è destinata ad andare circa il 20-25% in più di GP102 imho....
La stessa cosa che penso anch'io e infatti ho ipotizzato che probabilmente la x70 GV104 starà alla x80Ti GP102 come una delle mie 1070 è stata alla gtx980Ti.
Si ma non lasciamo nemmeno intendere che ne faccia 20, cosi per dire ;)
Laddove non arriva ne fa 45- 50 che per me in 4k maxato sono accettabilissimi e restano fluidi, tolti quelli dotati di occhio bionico che affermano di vedere i cali da 60 a 59fps :eek:
Quella è cosa molto personale, c'è chi non ha problemi pure a stare a 30fps e chi avendo un monitor da gaming da 100-144-165Hz, i 45-50 medi non li concepisce proprio :D
Ale55andr0
14-06-2017, 12:56
Di parte mia ti dico che la cosa che mi fa più male è vedere AMD tirarla lunga con ste benedette Vega, sia a livello di interesse sia perchè dà spazio a nvidia per fare quel che gli pare a spese di noi tutti, tra prezzi pompati e cap fisici sulle schede
This :(
Il "bello" è che una volta uscite, ammesso esista ancora l'homo sapiens, c'è il rischio che i miners spappolino la coppolazza della ceppazza (autocit. :O) rendendo praticamente immutato lo scenario...
E' quello che dico da 3 o 4 post ;)
Il grafico con Kepler è del day one della 980, quando è uscita hai visto come andava. Poi hanno smesso di ottimizzare i driver per Kepler e sappiamo come è andata, ma nemmeno quella è una sicurezza di qualche tipo e dipende se Volta è effettivamente un cambio di paradigma tale da far verificare la stessa cosa su Maxwell e Pascal oppure no.
In realtà non è che nvidia ha smesso di ottimizzare kepler anzi... Il problema è che i chipponi kepler hanno enormi limitazioni HW e non le puoi colmare semplicemente via driver... Qualche post indietro Mikael ne ha ampiamente spiegato le motivazioni e considera che la banda a disposizione dalla 780ti è talmente strozzata che è praticamente alla pari di quella della 770...
Ed è impossibile per Maxwell e Pascal si verifichino problemi simili dato che di fatto non hanno alcuna limitazione HW...
http://www.hwupgrade.it/forum/showpost.php?p=44767558&postcount=35492
http://www.hwupgrade.it/forum/showpost.php?p=44768678&postcount=35496
fraussantin
14-06-2017, 13:05
GV104 è destinata ad andare circa il 20-25% in più di GP102 imho....
Inviato dal mio iPhone utilizzando Tapatalk Pro
Solita storia insomma. Un passetto alla volta, passetto che costa 600, 700 cocuzze!
illidan2000
14-06-2017, 13:18
Sicuramente serve un qualcosa di fascia più alta, ma un monitor 144hz 1440p si può sfruttare comunque.
Non tutti giocano a giochi mattone, prendi quelli che giocano a overwatch, dota e compagnia bella 100 e passa fps a 1440p li fanno anche con una 580.
Anche perchè 144 fps a 1440p in certi giochi non li fai manco con una 1080ti, ma ci sono tante sfumature nel mezzo.
Sì, esatto....indubbio però è che tali schermi siano perfetti per poter spingere alla grande una futura Vega top soprattutto con in nuovi titoli in arrivo, così come una 1080Ti su relativi schermi gsync. In entrambi i casi direi che sia un giusto ritorno di spesa :cool:
ma dubito andrà più forte di una 1080ti
Non per sminuire nulla ma io a LoL facevo oltre 200fps con una 6950, e il monitor si ferma a 144 :>
LoL sicuramente non fa parte di quella categoria "certi giochi"
Prendendo le misure di GV100 e fatte le dovute proporzioni lo penso anche io.
Quello che mi chiedo è quanto costerà.
GV100 è tanto più grande di GP100, se anche GV104 sarà più grande di GP104 non costerà tanto quanto una GP102?
GP100 è da 610 mm2, GV100 sarà da 812 mm2 vorrei ben sperare che vada il 30% in più visto che è grande il 33% in più.
è fisicamente possibile avere un chippone così grosso? ci sono delle dispersioni elettriche e soprattutto interferenze non trascurabili
This :(
Il "bello" è che una volta uscite, ammesso esista ancora l'homo sapiens, c'è il rischio che i miners spappolino la coppolazza della ceppazza (autocit. :O) rendendo praticamente immutato lo scenario...
sbagli. se Vega è più efficiente di Pascal/Volta, i miners compreranno Vega... Non contano più di tanto le prestazioni assolute, ma le prestazioni per Watt
Si ma non lasciamo nemmeno intendere che ne faccia 20, cosi per dire ;)
Laddove non arriva ne fa 45- 50 che per me in 4k maxato sono accettabilissimi e restano fluidi, tolti quelli dotati di occhio bionico che affermano di vedere i cali da 60 a 59fps :eek:
solo se hai adaptive synch però!
No vabbe non sono il maniaco che deve settare tutto ad ultramega. Se devo togliere qualche cosa lo levo senza problemi. Ad esempio gia ora metto poco antialiasing perchè gia in 1440p ne sento poco l'esigenza figuriamoci in 4k. Per esempio levo spesso il dof o altri effettini che non mi interessano.
io butto tutte le ombre
fraussantin
14-06-2017, 13:21
Prendendo le misure di GV100 e fatte le dovute proporzioni lo penso anche io.
Quello che mi chiedo è quanto costerà.
GV100 è tanto più grande di GP100, se anche GV104 sarà più grande di GP104 non costerà tanto quanto una GP102?
GP100 è da 610 mm2, GV100 sarà da 812 mm2 vorrei ben sperare che vada il 30% in più visto che è grande il 33% in più.
costerà quanto la voglion far costare ! il processo produttivo ormai non è più nuovissimo , e le vecchie erano già abbondantemente sovrapprezzate.
se amd non sarà in competizione , potrebbero pure spararti 800 900 euro per la 2080
deadbeef
14-06-2017, 13:30
è fisicamente possibile avere un chippone così grosso? ci sono delle dispersioni elettriche e soprattutto interferenze non trascurabili
Nvidia ha richiesto a TSMC un pp particolare per la realizzazione dei chipponi volta
Giovamas
14-06-2017, 13:50
Personalmente, meglio stare lontani dallo sli se si può... Gli upgrade personalmente li vedo sempre a pari fascia: 1080>2080 o 1080ti>2080ti, passare dalla 1080ti a 2080 fa avere si un certo margine di guadagno ma si annulla totalmente considerando l'esborso...
Tiger è in SLI e Legolas a grande sorpresa è andato in single. Con la 1070 avevo l'occasione buona sia per comprare che per prendere ma ho perso l'affare. Sullo SLI non so dire perché non l'ho mai avuto; nel futuro chissà. Io farò come te ed aspetto la 2080ti ammortizzando la spesa della 1080ti tenendola un bel po' e giocando bene :)
fraussantin
14-06-2017, 14:06
Più aumenti il prezzo e minori sono le vendite, fino ad un certo punto ci guadagni comunque ma ad un certo punto cominci a perderci.
Paradossalmente meno costa e più possono farla pagare :sofico:
la regola di mercato è sempre la stessa , io fossi in loro sparerei alto, finchè si vendono bene , poi si cala , non il listino , ma il prezzo ai grossisti in modo fa farlo sempre sembrare un prodotto da molti soldi , ma in sconto BOMBA!!
io farei così.
costerà quanto la voglion far costare ! il processo produttivo ormai non è più nuovissimo , e le vecchie erano già abbondantemente sovrapprezzate.
se amd non sarà in competizione , potrebbero pure spararti 800 900 euro per la 2080
La 1080 quanto costava prima del price cut?
650/700 euro
fraussantin
14-06-2017, 14:10
La 1080 quanto costava prima del price cut?
650/700 euro
e la 980?
e la 980?
Marx era prezzata in modo decente, mi pare 500/550 le 980 e 350-380 le 970 (al lancio)
fraussantin
14-06-2017, 14:33
Marx era prezzata in modo decente, mi pare 500/550 le 980 e 350-380 le 970 (al lancio)
Perché c'era la 290.
Ora se vega è in competizione con volta, allora prob si regoleranno., ma se volta volerà alto e sarà la sola flagship da 4k poveri noi ( anzi voi..)
mikael84
14-06-2017, 15:12
gsync/freesync servono a questo ed in proporzione anche sulle fasce inferiori :>
In realtà il punto è proprio che ha smesso di ottimizzare per kepler. Facendolo una 780Ti andava quanto una 980, cosa che si può vedere nei benchmark al lancio di quest'ultima. Poi ha smesso per ovvi motivi e la 780Ti è rimasta al palo.
Se questo possa o meno accadere con Volta dipende da quanto cambia Volta rispetto a Pascal.
Ovviamente se GV104 fosse grosso come un GP102 non c'è nessuna difficoltà ad immaginarsi che possa andare uguale meglio, ma costa pure di più farlo, almeno quanto GP102.
Ma tu lavori in campo driver? Conosci perfettamente Kepler e Maxwell e sai pure i limiti architetturali:rolleyes:
Questa è la release di HWU, del debutto delle maxwell
http://www.hwupgrade.it/articoli/skvideo/4147/tomb_raider.png
http://www.hwupgrade.it/articoli/skvideo/4147/battlefield_4.png
Gv104 sarà circa 400mmq2, 78,5 per TPC più 256kb l2 e 16kbl1 unificato, più due TPC.;)
Legolas84
14-06-2017, 15:17
Ma tu lavori in campo driver? Conosci perfettamente Kepler e Maxwell e sai pure i limiti architetturali:rolleyes:
Questa è la release di HWU, del debutto delle maxwell
http://www.hwupgrade.it/articoli/skvideo/4147/tomb_raider.png
http://www.hwupgrade.it/articoli/skvideo/4147/battlefield_4.png
Gv104 sarà circa 400mmq2, 78,5 per TPC più 256kb l2 e 16kbl1 unificato, più due TPC.;)
Si ma poi la domanda è sempre quella... ovvero quanto andrà di più secondo te rispetto a GP102 :D
Ma niente te l'ho già chiesto e per ora non ci sono abbastanza elementi per valutarlo ;) io ho detto circa un 20/25% basandomi sulle differenze tra GM200 e GP104.... poi vedremo che riuscirà a combinare effettivamente NVIDIA :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
mikael84
14-06-2017, 15:21
quello che vi richiedo, secondo quali astrusi calcoli? :)
gv104 si stima che sarà circa 380~400mmq, mi sono fatto l'idea che secondo me nvidia è andata a riempimento dei GPC aggiungendo 2 TPC (senza considerare i tweak di volta interni agli SM) per alzare i clock di circa un 10% rispetto al gp102 usando meno raster/rops per risparmiare spazio e con i limiti dovuti dal silicio per consumare meno.
Voi guardate solo alle performance pure probabilmente, ma con gv104 andare come gp102 ma a 180watt significherebbe fare +40% in perf/watt, vicino a quelle dichiarate quindi.
maxwell insegna questo, più che le performance pure, aumenta drasticamente il perf/watt sullo stesso silicio.
Il lavoro via raster è uguale:) , ogni TPC produce un tot di triangoli via P.E, è diverso da AMD.
Il lavoro poligonale è identico, che siano 6 raster o 4 raster, anzi è molto meglio con meno, perchè ogni raster deve attraversare vari stadi di pipeline, sprecando cicli di clock.
Ogni P.E usa 5 stadi più 3 del raster, a questo aggiungi il lavoro del giga thread, che sarebbe minore, sprecando altri meno cicli.:).
Non solo questo, sicuramente hanno rivisto anche il polymorph engine rendendolo più efficiente (4,0?), di conseguenza il lavoro geometrico sarà superiore, sopratutto in culling.
Riguardo le rop's, quelle di Nvidia sono da z-buffer non da blending, quindi ad alte risoluzioni, hai praticamente in uso 1/4 di rop's. Le rop's Nvidia danno risultati migliori sopratutto in INT 8.:)
mikael84
14-06-2017, 15:37
Si ma poi la domanda è sempre quella... ovvero quanto andrà di più secondo te rispetto a GP102 :D
Ma niente te l'ho già chiesto e per ora non ci sono abbastanza elementi per valutarlo ;) io ho detto circa un 20/25% basandomi sulle differenze tra GM200 e GP104.... poi vedremo che riuscirà a combinare effettivamente NVIDIA :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
Molto dipenderà dal clock finale, almeno inizialmente, considerando che una 1080ti da review lavora a 1600 (senza PL) circa, sistemando il circuito elettrico, penso si possa boostare tranquillamente di più, con valori di OC più elevati.
Ora il core è davvero mal messo elettricamente, tanto da avergli introdotto 3 resistenze da 5,8 mhom da caduta.
I circuiti saranno interamente rivisti, rattoppando le connessioni lente ed inserendo migliori condensatori, facendo ciò, potrebbe non essere necessario bloccare il core dopo i 2100.:)
Dopo ci sono gli aspetti secondari, miglioramento geometrico, cache l1 più grande e unificata tra gli SM, con sino al 30% circa di migliorie.
Da vedere, la disposizione degli shader ed i cicli del warp, perchè potremmo eseguire un warp con la metà dei cicli, oppure avere il doppio delle istruzioni per cuda.
Questo sta a significare che un cuda potrebbe essere il doppio più efficiente, in quanto si dimezza il rapporto tra le unità funzionali (da 4:1 a 2:1) e le istruzioni raddoppiano.
I warp programmabili daranno una bella scossa anche in dx12.
C'è tanta carne al fuoco, però è impensabile stimare quanto possa andare.:p
In realtà il punto è proprio che ha smesso di ottimizzare per kepler. Facendolo una 780Ti andava quanto una 980, cosa che si può vedere nei benchmark al lancio di quest'ultima. Poi ha smesso per ovvi motivi e la 780Ti è rimasta al palo.
Se questo possa o meno accadere con Volta dipende da quanto cambia Volta rispetto a Pascal.
Kepler viene ancora supportato lato driver, questi non centrano nulla, nvdia ha la colpa di aver un fatto un architettura pessima che richiede un data programmazione per accedere a tutte le risorse computezionali, infatti alla buona nei titoli con le dovute ottimizzazioni dove possibile a seconda del motore usato, la 780ti se la gioca con 970, ma dati i colli di bottiglia della gpu, sopratutto lato banda, in altri scenari va meno di una 960 o pari a una 770... Ma nvidia non ha smesso di supportare nulla, questa storiella del legacy lascia il tempo che trova...
Hai scritto una cosa e il suo contrario nella stessa frase :>
Non ho scritto nulla di contrario, perchè bisogna considerare anche cosa stai elaborando e se l'architettura è concepita per quel genere di calcolo... Il driver può sopperire a lacune HW fino ad un certo punto, sopratutto considerando come Kepler gestisce la banda a disposizione: senza compressione e con un collegamento a un canale a vuoto, in pratica 384bit apparenti di fatto concettualmente una 780ti si ritrova la stessa banda della 770...
illidan2000
14-06-2017, 16:45
I warp programmabili daranno una bella scossa anche in dx12.
C'è tanta carne al fuoco, però è impensabile stimare quanto possa andare.:p
programmabili lato driver o lato applicativo?
mikael84
14-06-2017, 18:16
programmabili lato driver o lato applicativo?
Diciamo che dovrebbe essere meno indipendente dal driver e ben più flessibile.
Con Volta ogni thread lavora in maniera indipendente, massimizzando la parellizzazione.
Ogni thread ha il suo contatore e la chiamata, può lavorare su qualsiasi istruzione parallela, può aspettare in coda, può lavorare ad un'istruzione anzichè un'altra.
In sintesi, si può effettuare al meglio un lavoro parallelo e si può sfruttare al meglio l'architettura.
Con Pascal, i thread non sono indipendenti ma assegnati dal contatore, ciò significa che i percorsi divergenti, lasciano vari thread in idle.
In pratica
32 thread che lavorano con un contatore, che gestisce chiamate e tutto il resto (Pascal)
32 thread che fanno tutto in maniera indipendente (Volta)
Psycho77
14-06-2017, 18:19
Diciamo che dovrebbe essere meno indipendente dal driver e ben più flessibile.
Con Volta ogni thread lavora in maniera indipendente, massimizzando la parellizzazione.
Ogni thread ha il suo contatore e la chiamata, può lavorare su qualsiasi istruzione parallela, può aspettare in coda, può lavorare ad un'istruzione anzichè un'altra.
In sintesi, si può effettuare al meglio un lavoro parallelo e si può sfruttare al meglio l'architettura.
Con Pascal, i thread non sono indipendenti ma assegnati dal contatore, ciò significa che i percorsi divergenti, lasciano vari thread in idle.
In pratica
32 thread che lavorano con un contatore, che gestisce chiamate e tutto il resto (Pascal)
32 thread che fanno tutto in maniera indipendente (Volta)
Mikael,secondo te si avrà lo stesso boost notevole che abbiamo avuto da maxwell a pascal con Volta?
mikael84
14-06-2017, 18:30
Mikael,secondo te si avrà lo stesso boost notevole che abbiamo avuto da maxwell a pascal con Volta?
Attualmente, come detto anche a Legolas, è impossibile calcolare percentuali, molte cose (se confermate nei chip gaming) vanno viste sul "campo", e purtroppo non si conoscono neppure i boost effettivi.:)
Sicuramente, Nvidia la venderà come scheda top del 2018, quindi puoi già trarne delle conclusioni.:p
Psycho77
14-06-2017, 18:40
Attualmente, come detto anche a Legolas, è impossibile calcolare percentuali, molte cose (se confermate nei chip gaming) vanno viste sul "campo", e purtroppo non si conoscono neppure i boost effettivi.:)
Sicuramente, Nvidia la venderà come scheda top del 2018, quindi puoi già trarne delle conclusioni.:p
Grazie mille.:p
AceGranger
15-06-2017, 12:03
http://wccftech.com/nvidia-pascal-gpu-cryptocurrency-mining-price-specs-performance-detailed/
GPU specifiche per il mining a prezzi nettamente piu bassi delle corrispettive GAming.
1080 da 499 a 350 $
teoricamente dovrebbero andare bene anche per GPGPU di altro tipo.
http://wccftech.com/nvidia-pascal-gpu-cryptocurrency-mining-price-specs-performance-detailed/
GPU specifiche per il mining a prezzi nettamente piu bassi delle corrispettive GAming.
1080 da 499 a 350 $
teoricamente dovrebbero andare bene anche per GPGPU di altro tipo.
Ma hanno il connettore sli? Considerando il prezzo e l'assenza di uscite video, se ci fosse, non sarebbe un male accostarle alle normali versioni gaming :sofico:
Non ne vedo la convenienza onestamente.
Da miner se il mercato cripto crolla che cosa ci faccio con ste schede?
Non ci gioco e le rivendo con difficoltà. 150 dollari di differenza su una scheda simile sono 1-2 settimane di di mining.
L'unico buon motivo per prenderle sarebbe se avessero davvero un hashrate molto superiore alla controparte gaming.
Sono perplesso.
AceGranger
15-06-2017, 13:44
Ma hanno il connettore sli? Considerando il prezzo e l'assenza di uscite video, se ci fosse, non sarebbe un male accostarle alle normali versioni gaming :sofico:
credo di no, anche perchè lo SLI non serve in campo GPGPU
Non ne vedo la convenienza onestamente.
Da miner se il mercato cripto crolla che cosa ci faccio con ste schede?
Non ci gioco e le rivendo con difficoltà.
Sono perplesso.
credo vadano bene per qualsiasi uso GPGPU, quindi prima o poi la rivendi e visto che passi da 499 a 350 dollari non è poco.
CrapaDiLegno
15-06-2017, 15:44
Intanto che si aspetta Vega e Volta e le schede apposite per i miner i prezzi sono saliti alle stelle anche per Pascal...
Fortuna che ho preso la 1070 due settimane fa... 100 euro risparmiate...
Intanto che si aspetta Vega e Volta e le schede apposite per i miner i prezzi sono saliti alle stelle anche per Pascal...
Fortuna che ho preso la 1070 due settimane fa... 100 euro risparmiate...
Si, Polaris prosciugate e ora si sono buttati sulle verdi lol
credo vadano bene per qualsiasi uso GPGPU, quindi prima o poi la rivendi e visto che passi da 499 a 350 dollari non è poco.
Non mi sembra ci sia tutto sto mercato per il gpgu.
Senza contare che se le coin crashano ce ne saranno a iosa di queste schede in giro.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.