View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
E come hanno fatto? Nella foto che ho visto io non c'è proprio il chip ma solo il pcb
Quale foto? Comunque sono foto leak, quindi vanno prese con le pinze qualunque esse siano...
Per avere certezze bisogna solo attendere l'uscita :)
Thunder-74
29-06-2018, 09:32
Non che serva poi molto saperlo, ma... Lenovo avrebbe svelato la nomenclatura delle prossime nVidia, confermando l'ipotesi più gettonata... GTX 11xx
FONTE (https://wccftech.com/nvidia-geforce-11-series-geforce-gtx-1180-graphics-card-lenovo-spills/)
Scusa ma è una cagata di proporzioni astronomiche.
Si può fare un package largo un metro e montarci un die di 200mm2 al centro, quindi prendere le misure del die dalla posizione delle balls del bga non ha alcun senso.
Non te la prendere con me io ho solo riportato "l'articolo" da cui hanno ricavato le presunte dimensioni del die, lamentati con chi mette in giro questi rumors... :sofico:
Thunder-74
29-06-2018, 11:01
Forse al Gamescom potrebbe essere presentata la nuova GPU nVidia... (evento a Colonia/Germania dal 21 al 25 agosto)
Avrebbero infatti invitato i giornalisti per l'evento. Difficile pensare che vengano pagati dei viaggi per il solo scopo di far ammirare come i giochi presentati possano girare su HW nVidia.
FONTE (https://wccftech.com/nvidia-launching-next-generation-graphics-cards-at-gamescom-2018/)
Forse al Gamescom potrebbe essere presentata la nuova GPU nVidia... (evento a Colonia/Germania dal 21 al 25 agosto)
Avrebbero infatti invitato i giornalisti per l'evento. Difficile pensare che vengano pagati dei viaggi per il solo scopo di far ammirare come i giochi presentati possano girare su HW nVidia.
FONTE (https://wccftech.com/nvidia-launching-next-generation-graphics-cards-at-gamescom-2018/)
Penso sia altamente probabile, le voci di una presentazione ad Agosto si sentivano già da un pò con la fine dell'E3 :stordita:
Biscottoman
29-06-2018, 13:52
Io dico solo che ci serve tutta la potenza necessaria vedendo già la pre-aplha di bf5 (sebbene per l'appunto sia solo pre-alpha) :D :D :D
Ibrasve81
29-06-2018, 15:10
Penso sia altamente probabile, le voci di una presentazione ad Agosto si sentivano già da un pò con la fine dell'E3 :stordita:
Non ho seguito gli scorsi lanci....Se è effettivamente cosi' solitamente quanto passa tra il dire e il fare?
Thunder-74
29-06-2018, 15:12
Previsto calo dei prezzi sulle vga per luglio... 20% in meno...
https://www.techpowerup.com/245606/due-to-reduced-demand-graphics-cards-prices-to-decline-20-in-july-nvidia-postponing-next-gen-launch
Inviato dal mio iPad utilizzando Tapatalk
Non ho seguito gli scorsi lanci....Se è effettivamente cosi' solitamente quanto passa tra il dire e il fare?
da qualche settimana a qualche mese.
Inoltre c'è differenza fra un lancio vero e uno effettivo.
Cioè possono pure lanciare la nuova gpu, ma se per due mesi è solo founders editionz e ci son 100'000 schede al mondo che lancio è?
Se viene lanciata ma non ci sono i modelli custom (come con le 290x di amd) ma che lancio è?
Sicuro a settembre sapremo di che morte moriremo.
Comunque curioso come tutte le news parlino di eccessi d'inventario eppure io non veda da nessuna parte 570 a 170 euro come ad aprile 2017, ma le veda sempre partire da 250 euro.
Io 254 euro ci ho pagato la mia RX 580 8GB custom Aorus a maggio 2017, non certo una rx 570 mini pulse da 4gb. Figuriamoci 13 mesi dopo.
Ricordo quando volevo acquistare la mia Aorus ero in dubbio con una 1070 a 365 euro nuova (un umile Zotac), ora la stessa scheda viene 420 euro?
Se la domanda era bassa i prezzi erano più bassi o forse in Italia siamo sfortunati.
mikael84
29-06-2018, 15:32
minckxia non ci credo, di nuovo tiarate fuori le vga pro :asd: ma almeno FINGETE di leggere? :doh:
...a ogni modo io nel mio pianeta GAMER vedo solo che una 1080ti straccia la vega 64 nella maggior parte dei casi e degli scenari e che fa la stessa bandwidth della rivale (che monta su le memorie diddio)... pur avendo il bus castrato da 384 a 352bit :asd: :rotfl:
Da un certo punto hai ragione (ho letto gli ultimi commenti), però non è così semplice come la fai tu:p
AMD per arrivare ad una simile banda, oltre all'efficienza doveva scrivere un bus ddr5 liscio da ben 512bit (ddr5x le ha utilizzate solo nvidia) con 16 controller da 1gb, e di conseguenza ben 8mb di l2.
Quindi 16gb sul pro e 16 sul gaming, aumentando consumi, complessità e PCB che avrebbe sforato i 500mmq2.
Nvidia gioca sulla compressione elevatissima, non sulla BW pura come accade sui chip compute. Gli basta tenere una discreta BW effettiva, per poi utilizzare la compressione elevatissima.
Per evitare le HBM, Micron ha inizialmente aumentato il prefetch a ben 16n, 64 byte in lettura e scrittura, contro gli 8n, 32 byte delle classiche ddr5.
Questo fa si che si perda in latenza sul WCK che nelle ddr5 raddoppiava la BW, qua la quadruplica.
Non solo, si possono creare problemi con la l2 dove l'accesso è solitamente a 32 byte, questo alla lunga può creare problemi d'accesso sulla stessa l2, e di conseguenza sei costretto ad utilizzare più larghezza BW.
Alcuni dati mostrano i chip 1080 andare meno delle 1070 su compressioni estreme (scenari cmq quasi impossibili per uso comune).
Le HBM hanno il vantaggio di poter scrollare i singoli canali, e non saturarsi, però serve anche la tecnologia compute, come nvlink condiviso sulle porte, altrimenti passi sempre dal pci express.
Cmq per farla breve, 2 stack HBM riproducono un bus da 256 bit
4 da 512bit.:)
Per i prezzi, dovremmo essere sui 175$ tra HBM ed interposer + 40/50$ di elettronica (fasi mosfet etc)
8gb di ddr5 costano sui 50/70$.
Le ddr5x hanno dichiarato in fase di produzione prezzi più o meno simili.
mikael84
29-06-2018, 15:39
Su HWU stanno diventando pigri a copiare xD
https://segmentnext.com/2018/06/28/nvidia-next-generation-gtx-1180-ti/
Gli SM di Volta sono molto più complessi di quelli Pascal, sicuramente il chip sarà grosso,bisogna vedere la composizione interna.
Pascal introduceva solo la FP64 ed Nvlink, qua parliamo di SM suddivisi per raggiungere il tot. di istruzioni e dentro l'SM troviamo i tensor, le INT32 ed un nuovo rapporto LDS:)
Previsto calo dei prezzi sulle vga per luglio... 20% in meno...
https://www.techpowerup.com/245606/due-to-reduced-demand-graphics-cards-prices-to-decline-20-in-july-nvidia-postponing-next-gen-launch
Inviato dal mio iPad utilizzando Tapatalk
Trovassi una 1080ti a buon prezzo, arrivederci ai 7nm. :)
Trovassi una 1080ti a buon prezzo, arrivederci ai 7nm. :)
Quanto buono? Ci sto facendo un pensierino anch'io.
Ton90maz
29-06-2018, 16:14
Io lo dissi un milione di pagine fa che l'aspettativa che consumasse meno, fosse più piccolo e andasse di più che girava qui era folle vista l'architettura di tipo evolutivo e lo stesso processoSono anche aspettative demenziali. Più consuma e scalda meglio è, voglio una muscle car americana, non una panda ecoschifo :sofico:
Così fanno schifo nel mining e nel computing mirato al basso consumo
mikael84
29-06-2018, 16:21
Quanto buono? Ci sto facendo un pensierino anch'io.
Dipende dal modello che trovi e shop (per me solo amazon o evga-Galax). Sotto i 600 euro ci potrei fare un pensierino.
Oppure, se si vuol risparmiare, sul mercatino. Tanto con l'uscita delle nuove, le svendono.;)
Gli SM di Volta sono molto più complessi di quelli Pascal, sicuramente il chip sarà grosso,bisogna vedere la composizione interna.
Pascal introduceva solo la FP64 ed Nvlink, qua parliamo di SM suddivisi per raggiungere il tot. di istruzioni e dentro l'SM troviamo i tensor, le INT32 ed un nuovo rapporto LDS:)
Infatti fin quando non escono le schede è difficile sbilanciarsi, è facile farsi un aspettativa parziale del chip ma da qui a capirne tutti i dettagli ce ne passa e per questi dovremmo per forza di cose attendere...
Trovassi una 1080ti a buon prezzo, arrivederci ai 7nm. :)
:sofico:
Thunder ha già segnalato un -20% da luglio sui prezzi del nuovo, secondo me se si occhia bene verso agosto ci scappa pure l'affare :fagiano:
Non mi lamentavo con te tranquillo :D
Che poi la misura del die è verosimile secondo me è andata così:
Redatore1: In questo documento Nvidia c'è scritto che il die della 1180 sarà di 676mm2 sarebbe un bello scoop pubblicarlo.
Redatore2: Si ma non possiamo pubblicarlo abbiamo appena firmato l'NDA con Nvidia che vieta di pubblicare qualsiasi informazione per 5 anni a meno che non provenga da terze parti.
R1: Beh sai che facciamo? Prendiamo la foto della scheda nuda trapelata ieri, ci inventiamo due conti a caso, facciamo quattro righe con pain per far vedere come abbiamo calcolato l'area e diciamo che l'abbiamo scoperta in quel modo :D
Work-around level over 9000! :rotfl:
:sofico:
Non so perchè ma un pensierino su qualcosa di simile l'ho fatto anche io :fagiano:
Comunque che il die ricalcasse le dimensioni di Maxwell era sicuro infondo parliamo di quasi lo stesso pp rispetto pascal ma il fatto che sia più grosso non è che porti a maggiori consumi/calore, nvidia tara sempre i chip per rientrare in quella data soglia il più delle volte sacrificando lievemente i clock...
mikael84
29-06-2018, 16:56
eh, a pieno regime ddr6, le 2GB@16g con 256bit@512gb/s 16GB, si o quasi perché allora consideriamo le hbm2 aquabolt da 2.4g che con 2 stack da 8GB si arriva a 2048bit@614gb/s 16GB, ma attualmente ci sono le 12g e le 14g in produzione e si arriva quindi 384 e 448 gb/s con 8GB totali e 16GB se si usano le samsung ma non so se sono in produzione o no.
ad oggi:
gddr6 12g-14g-(16g) con bus 256bit, 8 controller (8/16GB) si hanno 384-448-(512) gb/s
hbm2 1.6g-1.9g-2.4g con bus 2048bit, 2 controller (8/16GB) si hanno 410-486-614 gb/s, e le 1.6g-1.9g si sono da inizio 2017.
ma le gddr6@16g nel 2019.
per i costi di 1 stack 8GB hbm2 direi molto caro :eek: ,ma dove li hai presi?
Non uno stack ma tutta la memoria. Ne parlavano ampiamente su Gamersnexus.
Il problema delle HBM è che per compute sono essenziali, per il funzionamento a singolo canale, solo 2n di prefetch e garantiscono efficienza e larghissima ampiezza di banda.
Le ddr5x su una Tesla avrebbero garantito 700 gb/s su un gigante 512bit, quindi avresti dovuto tagliare i 2 canali, e scendere a 384bit anche li.
Sui chip gaming, è sempre relativo al bus alla fine, oggi basta una buona compressione, e tiri avanti anche con BW più bassa.
Su AMD questo non era possibile, le HBM sono state essenziali, il vero problema è stato l'esordio con i 4gb di fury.
fireradeon
29-06-2018, 18:48
Previsto calo dei prezzi sulle vga per luglio... 20% in meno...
https://www.techpowerup.com/245606/due-to-reduced-demand-graphics-cards-prices-to-decline-20-in-july-nvidia-postponing-next-gen-launch
Inviato dal mio iPad utilizzando Tapatalk
Hanno una valanga di chip invenduti a causa della fine del picco del mining. Era ora, ormai i prezzi erano folli.
Ho letto che alcuni dicono che le prossime 2080 dovrebbero costare anche più di 1000 euro? Spero non intendano per la versione non custom, altrimenti siamo rovinati, fosse vero il gaming su PC sarebbe morto!
Ale55andr0
29-06-2018, 20:25
Da un certo punto hai ragione (ho letto gli ultimi commenti), però non è così semplice come la fai tu:p
AMD per arrivare ad una simile banda, oltre all'efficienza doveva scrivere un bus ddr5 liscio da ben 512bit (ddr5x le ha utilizzate solo nvidia) con 16 controller da 1gb, e di conseguenza ben 8mb di l2.
Quindi 16gb sul pro e 16 sul gaming, aumentando consumi, complessità e PCB che avrebbe sforato i 500mmq2.
Nvidia gioca sulla compressione elevatissima, non sulla BW pura come accade sui chip compute. Gli basta tenere una discreta BW effettiva, per poi utilizzare la compressione elevatissima.
Per evitare le HBM, Micron ha inizialmente aumentato il prefetch a ben 16n, 64 byte in lettura e scrittura, contro gli 8n, 32 byte delle classiche ddr5.
Questo fa si che si perda in latenza sul WCK che nelle ddr5 raddoppiava la BW, qua la quadruplica.
Non solo, si possono creare problemi con la l2 dove l'accesso è solitamente a 32 byte, questo alla lunga può creare problemi d'accesso sulla stessa l2, e di conseguenza sei costretto ad utilizzare più larghezza BW.
Alcuni dati mostrano i chip 1080 andare meno delle 1070 su compressioni estreme (scenari cmq quasi impossibili per uso comune).
Le HBM hanno il vantaggio di poter scrollare i singoli canali, e non saturarsi, però serve anche la tecnologia compute, come nvlink condiviso sulle porte, altrimenti passi sempre dal pci express.
Cmq per farla breve, 2 stack HBM riproducono un bus da 256 bit
4 da 512bit.:)
Per i prezzi, dovremmo essere sui 175$ tra HBM ed interposer + 40/50$ di elettronica (fasi mosfet etc)
8gb di ddr5 costano sui 50/70$.
Le ddr5x hanno dichiarato in fase di produzione prezzi più o meno simili.
... ma così mi convinco ancora di più (:asd:) che, ora come ora e a medio termine, le hbm, di fatto, nelle vga gaming, non ci servono a un piffero in rapporto a costi e volumi rispetto a memorie meno costose e più "facili" da implementare.
...A chi più su parlava dell mc, lo so benissimo che occupa più spazio di quello delle hbm, ma con chip a 7nm e relativi i livelli di miniaturizzazione non vedo i vostri motivi di pianto, vi ricordo che gli mc da 512bit totali li abbiamo avuti sui 28 nanometri, ven-tot-to, e in una architetturua che intrinsecamente (e anche col 384bit) beveva come una spugna!! anche facendo le proporzioni e lo scaling "mentale" degli spazi occupati e di quanto ci si potrebbe ficcar dentro in quello spazio, cosa credete di perdere a causa dell'mc, 96 rops o 3000cc/sp? o di consumare 50w in più? :sofico: quando i tempi diverrano maturi, le si implementerà, ma oggi sostengo e continuo a sostenere che non ce ne facciamo una beneamata, delle hbm, se i loro vantaggi che attualmente NON fanno una differenza DAVVERO sensibile, devono costare sia in termini economici che di disponibilità
PS: comunque vedo che stai su una 1080 pure tu ora, ti ricordavo ancora con la 980ti :)
Ale55andr0
29-06-2018, 20:39
Sui chip gaming, è sempre relativo al bus alla fine, oggi basta una buona compressione, e tiri avanti anche con BW più bassa.
Su AMD questo non era possibile, le HBM sono state essenziali, il vero problema è stato l'esordio con i 4gb di fury.
ohhh, perfetto :cool:
Piedone1113
29-06-2018, 20:55
... ma così mi convinco ancora di più (:asd:) che, ora come ora e a medio termine, le hbm, di fatto, nelle vga gaming, non ci servono a un piffero in rapporto a costi e volumi rispetto a memorie meno costose e più "facili" da implementare.
...A chi più su parlava dell mc, lo so benissimo che occupa più spazio di quello delle hbm, ma con chip a 7nm e relativi i livelli di miniaturizzazione non vedo i vostri motivi di pianto, vi ricordo che gli mc da 512bit totali li abbiamo avuti sui 28 nanometri, ven-tot-to, e in una architetturua che intrinsecamente (e anche col 384bit) beveva come una spugna!! anche facendo le proporzioni e lo scaling "mentale" degli spazi occupati e di quanto ci si potrebbe ficcar dentro in quello spazio, cosa credete di perdere a causa dell'mc, 96 rops o 3000cc/sp? o di consumare 50w in più? :sofico: quando i tempi diverrano maturi, le si implementerà, ma oggi sostengo e continuo a sostenere che non ce ne facciamo una beneamata, delle hbm, se i loro vantaggi che attualmente NON fanno una differenza DAVVERO sensibile, devono costare sia in termini economici che di disponibilità
PS: comunque vedo che stai su una 1080 pure tu ora, ti ricordavo ancora con la 980ti :)
Guarda che non è una faccenda nvidia vs amd se si parla di gddr vs hbm.
si tratta di una questione puramente tecnica.
Da un lato ci son vantaggi, ma anche dall'altro.
Se poi qualcuno così esperto potrebbe dire a parità di pp la superfice dei rispettivi controller ram sulla gpu e il relativo costo per pezzo ( perchè aumentando la superfice totale del chip diminuisce anche la resa percentuale) ti renderesti conto che la differenza di costo totale della vga è davvero irrisorio tra la stessa vga con controller gddr e hbm ( probabilmente molto sotto al 20% se consideriamo nel computo anche i costi di progettazione ed ingegnerizzazione del pcb)
AceGranger
29-06-2018, 21:30
Guarda che non è una faccenda nvidia vs amd se si parla di gddr vs hbm.
si tratta di una questione puramente tecnica.
Da un lato ci son vantaggi, ma anche dall'altro.
Se poi qualcuno così esperto potrebbe dire a parità di pp la superfice dei rispettivi controller ram sulla gpu e il relativo costo per pezzo ( perchè aumentando la superfice totale del chip diminuisce anche la resa percentuale) ti renderesti conto che la differenza di costo totale della vga è davvero irrisorio tra la stessa vga con controller gddr e hbm ( probabilmente molto sotto al 20% se consideriamo nel computo anche i costi di progettazione ed ingegnerizzazione del pcb)
credo si tratti di gran pippe mentali.
se nVidia ha le HBM lato pro, e ha il monopolio delle prestazioni, e ha le GDDR sulle gaming di fascia alta e Pro, e ha pure li il monopolio delle prestazioni, bè, c'è poco da stare qui a parlare di cosa sia idealmente nel mondo dei balocchi la soluzione tecnicamente migliore...
la relta è che le HBM possono essere belle quanto uno voglia, ma se vengono implementate di merda, tanto meglio tenersi le GDDR... e nVidia ha dimostrato che la soluzione migliore era quella di mettere le GDDR affiancate da un ottimo lavoro con la compressione nelle gaming, e le HBM affiancate dall'nVlink nel computing, perchè anche nel Pro le Quadro hanno tutte le GDDR tranne 1 ( che ha pure lei l'nVlink che è l'unico motivo per acqusitare questa Quadro ), e vanno comunque mediamente meglio delle FirePro con le HBM....
quindi di cosa stiamo parlando ? che sulla carta, se prendi solo il valore della banda le HBM sono "migliori" ? ok, e quindi ?
AceGranger
29-06-2018, 21:48
Non uno stack ma tutta la memoria. Ne parlavano ampiamente su Gamersnexus.
Il problema delle HBM è che per compute sono essenziali, per il funzionamento a singolo canale, solo 2n di prefetch e garantiscono efficienza e larghissima ampiezza di banda.
Le ddr5x su una Tesla avrebbero garantito 700 gb/s su un gigante 512bit, quindi avresti dovuto tagliare i 2 canali, e scendere a 384bit anche li.
Sui chip gaming, è sempre relativo al bus alla fine, oggi basta una buona compressione, e tiri avanti anche con BW più bassa.
Su AMD questo non era possibile, le HBM sono state essenziali, il vero problema è stato l'esordio con i 4gb di fury.
bè anche la continuazione con Vega non è che sia stata delle migliori, con la banda ferma solo a 484GB/s con nVidia che è arrivata con 732 GB/s con Pascal, 900 GB/s con Volta e 653 con la Titan Volta....
alla fine con Vega hanno fatto un chip che è mediocre in gaming, mediocre nel Pro con qualche punta ok, e vogliamo dire "sottotono" per non dire inutile nel computing ?
aled1974
29-06-2018, 21:53
Se una scheda video costa troppo ricordatevi che non è un obbligo passare alla generazione successiva, ne tanto meno comprare per forza la turbo iper top di gamma. :sofico:
Io giochi girano lo stesso, magari non in 4k con ombre ultra e vxao ma girano.
P.S: anzi forse farebbe bene uno stop dalla crescita della ptenza delle gpu visto che ci sono giochi recenti che hanno grafica simile a giochi di 3-4 anni fa ma pesano il triplo :mad:
Una pausa per forzare ad ottimizzare sarebbe l'ideale.
concordo
però temo che la pausa ottimizzazione sia già in atto da anni: ovvero ogni generazione console che esce frena l'ottimizzazione (ma anche lo sviluppo) dei giochi pc tenendo tutto ancorato verso il basso e nel passato
appunto per spremere al meglio (ottimizzare) per le console e chissene dei pc, tanto li c'è forza bruta sufficiente a vendere prodotti alpha/beta programmati coi piedi :muro:
ciao ciao
P.S.
una cosa che mi sono chiesto già alla passata generazione di gpu
tutti a fare aaaah e ooooh sui pcb minuscoli dati dai nuovi processi produttivi o dalle nuove ram, ma poi cosa cambia nel mondo gaming se con le Pascal abbiamo schede con dissipatori da 2,5 o 3 slot di occupazione per quasi 30cm di lunghezza? :boh:
AceGranger
29-06-2018, 22:08
P.S.
una cosa che mi sono chiesto già alla passata generazione di gpu
tutti a fare aaaah e ooooh sui pcb minuscoli dati dai nuovi processi produttivi o dalle nuove ram, ma poi cosa cambia nel mondo gaming se con le Pascal abbiamo schede con dissipatori da 2,5 o 3 slot di occupazione per quasi 30cm di lunghezza? :boh:
la domanda vera che dovresti farti è a che azzo ti serve avere una GPU mini se poi il 99% del mondo del gaming vuole un case medio/grosso per farci stare di tutto di piu fra HDD ventole e radiatori, anche perchè ai nuovi pp, nuove ram con PCB piu piccoli mica è corrisposta una riduzione del TDP.... va solo a finire che il PCB è piu piccolo ma il dissipatore sborda per poter tenere a bada i TDP.
mikael84
29-06-2018, 23:39
bè anche la continuazione con Vega non è che sia stata delle migliori, con la banda ferma solo a 484GB/s con nVidia che è arrivata con 732 GB/s con Pascal, 900 GB/s con Volta e 653 con la Titan Volta....
alla fine con Vega hanno fatto un chip che è mediocre in gaming, mediocre nel Pro con qualche punta ok, e vogliamo dire "sottotono" per non dire inutile nel computing ?
AMD è diverso, è stata costretta.
Non avendo ddr5x, l'unica soluzione era montare un gigantesco 512bit con 16 canali ram, ed aumentare la l2 da 4mb a 8 mb (AMD vega è come se fosse una 4 GPC nVidia).
Il bus di Vega, equivale letteralmente ad un 256 bit dd5, non avrebbero mai soddisfatto la BW.
Nvidia adotta le HBM per i chip compute, ma con 4 stack, ovvero 3 canali per 6 GPC più 2 a vuoto. In questo modo copre la banda di 4 stack e relativa l2, + 32 rop's inutili.
Le HBM tralasciando i prefetch, le varie latenze t, sono essenziali, dove hai possibilità di lavorare a singolo canale.:)
Il problema di AMD, oltre alla BW, sta nelle emulazioni delle unità funzionali.
Per emulare una Titan xp a 1850, servirebbero 18tf e 600gb/s:)
Piedone1113
29-06-2018, 23:42
credo si tratti di gran pippe mentali.
edit
Ma perchè mi parli del dito se ti sto indicando la luna?
Io ho scritto:
Guarda che non è una faccenda nvidia vs amd se si parla di gddr vs hbm.
si tratta di una questione puramente tecnica.
ti renderesti conto che la differenza di costo totale della vga è davvero irrisorio tra la stessa vga con controller gddr e hbm ( probabilmente molto sotto al 20% se consideriamo nel computo anche i costi di progettazione ed ingegnerizzazione del pcb)
In parole povere, se mi sono spiegato male:
Se un produttore x ( esempio Intel) ti fa la stessa vga con la stessa architettura, ma la prima con controller gddr e 16 gb di ram, la seconda con controller hbm e sempre 16 gb probabilmente la differenza di costo della scheda finita ( incluso dissipatori, fasi di alimentazioni e costo di progettazione-testing) avremmo una differenza di costo per il produttore inferiore al 20%.
Che poi a me frega una mazza paragonare due vga se parlo della sola ram.
Come se io domandassi se mi converrebbe passare sul mio e1280 da 16 a 32 gb e tu mi rispondessi ma lascia perdere perchè un ryzen 170 va di più con 8 gb di ram.
mikael84
29-06-2018, 23:50
... ma così mi convinco ancora di più (:asd:) che, ora come ora e a medio termine, le hbm, di fatto, nelle vga gaming, non ci servono a un piffero in rapporto a costi e volumi rispetto a memorie meno costose e più "facili" da implementare.
...A chi più su parlava dell mc, lo so benissimo che occupa più spazio di quello delle hbm, ma con chip a 7nm e relativi i livelli di miniaturizzazione non vedo i vostri motivi di pianto, vi ricordo che gli mc da 512bit totali li abbiamo avuti sui 28 nanometri, ven-tot-to, e in una architetturua che intrinsecamente (e anche col 384bit) beveva come una spugna!! anche facendo le proporzioni e lo scaling "mentale" degli spazi occupati e di quanto ci si potrebbe ficcar dentro in quello spazio, cosa credete di perdere a causa dell'mc, 96 rops o 3000cc/sp? o di consumare 50w in più? :sofico: quando i tempi diverrano maturi, le si implementerà, ma oggi sostengo e continuo a sostenere che non ce ne facciamo una beneamata, delle hbm, se i loro vantaggi che attualmente NON fanno una differenza DAVVERO sensibile, devono costare sia in termini economici che di disponibilità
No Alessandro, è vero per Nvidia, che tra compressione 2:1 con colori adiacenti, puoi mantenere una BW elevatissima, purtroppo non è così con AMD.
Il bus di AMD, è un simil 256 bit a livello di BW ddr5/x (un 4gpc nvidia)
Per utilizzare su Vega una simile banda, dovevi stampare i chip a 512bit.
Praticamente 8 GPC nVidia.
Le ddr5 non soddisfano i requisiti delle AMD.
PS: comunque vedo che stai su una 1080 pure tu ora, ti ricordavo ancora con la 980ti :)
Te ne accorgi ora:p , probabile che a breve la firma cambia.
2076 ad 1volt:p
Thunder-74
30-06-2018, 21:44
Hanno una valanga di chip invenduti a causa della fine del picco del mining. Era ora, ormai i prezzi erano folli.
Ho letto che alcuni dicono che le prossime 2080 dovrebbero costare anche più di 1000 euro? Spero non intendano per la versione non custom, altrimenti siamo rovinati, fosse vero il gaming su PC sarebbe morto!
Guarda, per ingannare l’attesa, mi sono preso una ps4 usata da un amico è un po’ di esclusive da giocare (the last of us/horizon/uncharted4). Dite quello che volete, ma certi titoli meritano di essere giocati a prescindere dal numero di frames a video o altro...
Inviato dal mio iPad utilizzando Tapatalk
Piedone1113
02-07-2018, 10:20
non ho capito in che senso "tutta la memoria"
il resto si è chiaro ;)
io ho preso banalmente il die di polaris e di vega, con una banale polilinea in autocad mi riporta che 1 controller gddr5 32b occupa 4mmq in polaris mentre in vega 1 controller hbm2 1024b occupa 10mmq.
con 1 controller gddr5 colleghi un massimo di 1GB@32gbss mentre con le gddr6 1/2GB@64gb/s max, mentre con 1 controller hbm2 colleghi minino 4GB@205gb/s fino a 8GB@307gb/s.
Quindi diciamo hbm2 16 gb 600gb/s 20 mm2
gddr6 16 gb, 32 mm2, 550 gb/s ( senza calcolare però la complessità maggiore lato cu nel collegarsi ad 8 controller invece che due.
quindi da questo punto di vista c'è un netto ed ineluttabile vantaggio per hbm o sbaglio?
AceGranger
02-07-2018, 11:10
AMD è diverso, è stata costretta.
Non avendo ddr5x, l'unica soluzione era montare un gigantesco 512bit con 16 canali ram, ed aumentare la l2 da 4mb a 8 mb (AMD vega è come se fosse una 4 GPC nVidia).
Il bus di Vega, equivale letteralmente ad un 256 bit dd5, non avrebbero mai soddisfatto la BW.
Nvidia adotta le HBM per i chip compute, ma con 4 stack, ovvero 3 canali per 6 GPC più 2 a vuoto. In questo modo copre la banda di 4 stack e relativa l2, + 32 rop's inutili.
Le HBM tralasciando i prefetch, le varie latenze t, sono essenziali, dove hai possibilità di lavorare a singolo canale.:)
Il problema di AMD, oltre alla BW, sta nelle emulazioni delle unità funzionali.
Per emulare una Titan xp a 1850, servirebbero 18tf e 600gb/s:)
si ma infatti hanno sbagliato all'origine a progettarla in questo modo.
ma le GDDR5X erano esclusiva di nVidia ?
Eh, ma ancora non l'hanno capito che il bus di Vega è come fosse un bus di 256bit gddr :asd:
lo diciamo soltanto da un anno :sofico:
Ma tanto mi sono reso conto ormai che è inutile spiegargliele le cose che legge o capisce solo quello che vuole, va dritto per la sua idea e non la cambia :D
in realta lo abbiamo capito benissimo, ed è per quello che è da Fury che diciamo che è un progetto del c@zzo :sofico:.
bagnino89
02-07-2018, 11:27
Da come scrivete mi pare che non lo abbiate capito affatto, altro chè va :asd: e lo riconfermi.
Le hbm2 hanno garantito ad amd la stessa banda che avrebbero garantito 512bit di gddr5, dato che le gddr5x erano esclusiva nVidia e le gddr6 lontane anni luce, senza dover fare un Die ulteriormente più grande e avido di consumi di quanto non lo sia già per i clock tirati a default.
dire che è come fosse un 256bit gddr5 come spazio, ma è come fosse un imc gddr6 non 5 ben 2 anni prima, banda doppia e consumi/spazio dimezzati.
Lui intende progetto del c@77o nel senso che l'architettura AMD è sbilanciatissima e non si capisce perché abbia bisogno di tutta questa maledetta banda passante rispetto ad Nvidia... Se ho capito cosa intendesse dire.
bagnino89
02-07-2018, 11:38
Perchè l'architettura amd è così, guarda che pure nVidia ci sta stretta con la banda, (la memoria è almeno 5 anni che è un problema altrimenti non si sarebbero messi li a sviluppare la compressione colore) bastano a mala pena le gddr5x, e domani servono le gddr6 anche a lei.
Volta o Turing Gaming che siano senza gddr6 non esce, altrimenti l'avremmo già visto con le gddr5x 3-6 mesi fa.
Appunto, devono rivedere l'architettura in AMD secondo me. La faccio facile, vero, però i limiti rispetto alla controparte mi sembrano evidenti... Parlo lato gaming.
No, non hai capito. Progettarla nell'altro modo avrebbe richiesto un 512b. Cioè consumi pazzeschi e di conseguenza prestazioni peggiori di quelle attuali per rientrare nel budget termico.
Lui parlava di progetto dell'architettura in sé, non del controller della memoria.
Thunder-74
02-07-2018, 11:52
Negozio Vietnamita propone pre-order GTX 1180:
Si dice che il negozio sia molto attendibile
GPU: GT104
3584 CUDA cores
Memory type: GDDR6 Micron - new architecture
Size: 16GB
Memory BUS: 256-bit
Memory Speed: 14.0 Gbps
~$1530
Data 28 settembre...
FONTE (http://www.guru3d.com/news-story/vietnamese-store-put-up-preorder-for-asus-rog-strix-1180s.html)
TigerTank
02-07-2018, 12:20
Per me è un tarocco, e ti spiego perchè: troppo spazio a destra e sinistra del secondo 1, per me hanno cancellato lo 0 di questa (http://www.prokoo.com/images/SchedeVideo2017/90YV09M1-M0NM00.jpg) foto, sostituendolo con un clone dell'1 ma appunto troppo spaziato :asd:
Biscottoman
02-07-2018, 12:21
Negozio Vietnamita propone pre-order GTX 1180:
Si dice che il negozio sia molto attendibile
GPU: GT104
3584 CUDA cores
Memory type: GDDR6 Micron - new architecture
Size: 16GB
Memory BUS: 256-bit
Memory Speed: 14.0 Gbps
~$1530
Data 28 settembre...
FONTE (http://www.guru3d.com/news-story/vietnamese-store-put-up-preorder-for-asus-rog-strix-1180s.html)
Avevo letto la notizia e visto le immagini di relativi screen, ma mi sembra un fake piuttosto evidente o meglio le immagini sono chiaramente photoshoppate e le specs sono quelle relative ai leaks più datati. Si vedrà...
TigerTank
02-07-2018, 12:24
L'unica cosa veritiera potrebbe essere il prezzo :D
Ahahahah speriamo di no :mc: :D
Ale55andr0
02-07-2018, 12:34
Negozio Vietnamita propone pre-order GTX 1180:
Si dice che il negozio sia molto attendibile
GPU: GT104
3584 CUDA cores
Memory type: GDDR6 Micron - new architecture
Size: 16GB
Memory BUS: 256-bit
Memory Speed: 14.0 Gbps
~$1530
Data 28 settembre...
FONTE (http://www.guru3d.com/news-story/vietnamese-store-put-up-preorder-for-asus-rog-strix-1180s.html)
allora ne prendo due :O
...se fate una colletta per me :stordita:
Ale55andr0
02-07-2018, 12:38
...cmq bus a 256 significherebbe anche 8 oltre che 16 gigi di ram e con le 14Gbps si suppone 448Gb/s di bandwidth?
Photoshoppata, pure male, meglio andare al mare :sofico:
Thunder-74
02-07-2018, 13:09
Si, anche nell'articolo viene detto che le foto sono photoshoppate.
Ho riportato la notizia che può essere tutto o niente, per ingannare l'attesa di info ufficiali :D
AceGranger
02-07-2018, 13:49
Da come scrivete mi pare che non lo abbiate capito affatto, altro chè va :asd: e lo riconfermi.
Le hbm2 hanno garantito ad amd la stessa banda che avrebbero garantito 512bit di gddr5, dato che le gddr5x erano esclusiva nVidia e le gddr6 lontane anni luce, senza dover fare un Die ulteriormente più grande e avido di consumi di quanto non lo sia già per i clock tirati a default, quindi ciccia manco Vega10 usciva.
dire che è come fosse un 256bit gddr5 come spazio, ma è come fosse un imc gddr6 non 5 ben 2 anni prima, banda doppia e consumi/spazio dimezzati.
scusa puoi mettere i link delle news che affermano questa cosa.
potro sbagliarmi, ma non ho mai letto news in questo senso e anche ora cercando su google non ho trovato affermazioni in merito.
La stessa Micron quando ha presentato le GDDR5X mica ha detto che era un partnership con nVidia, erano rivolte a "tutti" i produttori e sono pure diventate uno standard JEDEC...
news di settembre 2015 di TECHPOWERUP
https://www.techpowerup.com/217027/gddr5x-puts-up-a-fight-against-hbm-amd-and-nvidia-mulling-implementations
"According to a Golem.de report, both AMD and NVIDIA are mulling GPUs that support GDDR5X, so it's likely that the two could reserve expensive HBM2 solutions for only their most premium GPUs, and implement GDDR5X on their mainstream/performance solutions, to keep costs competitive."
news di Ottobre 2015 di GURUof3D
http://www.guru3d.com/news-story/graphics-card-memory-gddr5x-to-make-an-appearance.html
"This info is derived from mydrivers.com who also states that both AMD and NVIDIA are working on GDDR5X support. "
detto cio, AMD è stata "costretta" a usarle perchè ormai aveva gia programmato che Vega sarebbe derivata direttamente da Fiji che aveva le HBM...
AMD ha puntato prematuramente sulle HBM, e credo sia palese visto come è uscita...., perchè doveva compensare l'architettura inferiore di Fiji rispetto ad nVidia, perchè a casa mia all'epoca c'erano le GDDR5 per entrambe....
come hanno segato Bulldozer, hanno segato Fiji e Vega non è altro che il diretto successore.
ps. Ottimo acquisto allora :D
ehhhhh, capita di sbagliare .... sicuramente non persevererò e arriverà Volta/Turing
TigerTank
02-07-2018, 14:28
Si, anche nell'articolo viene detto che le foto sono photoshoppate.
Ho riportato la notizia che può essere tutto o niente, per ingannare l'attesa di info ufficiali :D
Che tristezza sta gente :asd:
Ogni volta saltano fuori sti "pesci di nvidia d'aprile" :sofico:
Che poi magari quest'anno, vista la moda, presentano vga con plastiche dei dissipatori completamente trasparenti e una moltitudine di led erreggibbì! :cool:
X-ray guru
02-07-2018, 14:48
credo si tratti di gran pippe mentali.
Forse non vi capite o qui tutti vogliono avere sempre ragione. :)
Spero che nessuno obietti che le HBM sono tecnologicamente meglio delle GDDR.
E' chiaro che nel mondo reale bisogna pensare non solo alla "chicca tecnologica".
AceGranger
02-07-2018, 15:01
Ma che è sta mania dei link? non sono mica google io :D e non l'avevo detto io oltretutto sono passati 2 anni vado a memoria ma ricordo solo che si era detto così almeno inizialmente, ad esempio se ne produci poche inizialmente infatti pure le pascal 1080 lo earno e richiedi tutti gli slot possibili di gddr5x amd rimaneva con niente in mano, ma poi scusa l'architettura la sviluppi prima non è che aspetti che escano memorie nuove che forse, ma, sai, oltretutto arrivavano già da fiji e infatti hanno sviluppato l'hbcc che occupa un tot nel Die di Vega10, ma dimezzando i controller passando da 4 a 2 mantenendo la stessa banda...
ah se non lo sai tu che lo scrivi.... comunque... è na cagata.
Oltretutto con le gddr5x amd avrebbe dovuto usare almeno 384bit(le 10g da 480gb/s) usando quindi 4 controller in più però da collegare a vuoto dato che non ha 6 Geo come nVidia.
le hbm1 sono premature, le hbm2 assolutamente no fatevene una ragione, ben 2 anni prima (2 controller da 8-16GB@490gb-s) fanno quello che faranno le gddr6 il prossimo anno (8 controller da 8-16GB@512gb-s) e anche meglio (- spazio e consumi), non devi paragonare le architetture ma le memorie, non c'è paragone.
si ma io stavo parlando dell'architettura, sei tu che hai quotato un mio post facendo una crociata sulle HBM :asd:.
tu stai dicendo che AMD ha usato le HBM2 perchè , visto l'architettura che si ritrovano, erano l'unica soluzione per lei per la banda e ok, fin qui ci siamo, sono daccordo, ma quello che dicevo io è che hanno palesemente segato la progettazione da Fiji che li ha portati a questa situazione....
che le HBM sulla carta siano migliori, non credo che nessuno abbia da obiettare, le l'ho pure scritto.... che invece il percorso scelto da AMD sia stato buono, bè, su li ci si puo discutere eccome....
Forse non vi capite o qui tutti vogliono avere sempre ragione. :)
Spero che nessuno obietti che le HBM sono tecnologicamente meglio delle GDDR.
E' chiaro che nel mondo reale bisogna pensare non solo alla "chicca tecnologica".
puo essere la prima, sicuramente la seconda.
Che poi le HBM2 sono entrate sul mercato con GP100, Vega è uscita un anno e mezzo dopo, mi sembra ardito pensare che sia colpa di AMD che non ha pianificato bene la mass production.
se non ricordo male le date sono arrivate prima con Intel selle Xeon PHI
Thunder-74
02-07-2018, 15:01
Comunque AMD si sta dando da fare... forse Polaris 30 a 12nm entro fine anno... dovrebbe garantire un 15% di prestazioni in più su Polaris 20
FONTE (https://www.overclock3d.net/news/gpu_displays/amd_rumoured_to_release_12nm_polaris_30_and_7nm_vega_20_in_q4_2018_q1_2019/1)
Speriamo che questo possa far smuovere "Black Jacket" per rilascio di qualche notizia...
Il nabbo di turno
02-07-2018, 15:15
Comunque AMD si sta dando da fare... forse Polaris 30 a 12nm entro fine anno... dovrebbe garantire un 15% di prestazioni in più su Polaris 20
FONTE (https://www.overclock3d.net/news/gpu_displays/amd_rumoured_to_release_12nm_polaris_30_and_7nm_vega_20_in_q4_2018_q1_2019/1)
Speriamo che questo possa far smuovere "Black Jacket" per rilascio di qualche notizia...
Si sta dando da fare e polaris non vanno bene nella stessa frase...
Thunder-74
02-07-2018, 17:59
Però ragazzi con voi non c'è gusto, non c'è una notizia che vi piace :D :D :D
mikael84
02-07-2018, 18:39
si ma infatti hanno sbagliato all'origine a progettarla in questo modo.
ma le GDDR5X erano esclusiva di nVidia ?
Il problema delle ddr5x non è l'esclusiva di una o dell'altra, ma la piedinatura diversa.
Per utilizzarle devi creare 2 PCB praticamente.
Nvidia si è trovata costretta ad utilizzarle, altrimenti si trovava limitata in banda, e per ovviare a questo, doveva collegare un canale aggiuntivo simil 1060.
AMD ha scelto di utilizzare le standard ddr5, ma con tagli e versioni diverse.
Altrimenti doveva creare 2 PCB, uno per la 480/580, uno per la 470:)
Per me è un tarocco, e ti spiego perchè: troppo spazio a destra e sinistra del secondo 1, per me hanno cancellato lo 0 di questa (http://www.prokoo.com/images/SchedeVideo2017/90YV09M1-M0NM00.jpg) foto, sostituendolo con un clone dell'1 ma appunto troppo spaziato :asd:
Già leggere 16gb Micron, ora come ora, mi ha fatto passare la voglia di aprire il link:p
...cmq bus a 256 significherebbe anche 8 oltre che 16 gigi di ram e con le 14Gbps si suppone 448Gb/s di bandwidth?
Esatto:)
Se è uno "shrink" non vedo come, le GDDR5 hanno il top bin a 8gbps, se con lo shrink guadagni frequenza sul core quelle continuano a farti tappo e usare special bins come le 9Gbps ha poco senso economico su una fascia media come quella, secondo me (come un processo più spinto come è il caso del 12 rispetto al 14)
Le binnate non le puoi mettere su AMD, andrebbero in errore con quel controller. Ormai l'unica strada è adottare completamente le ddr6:)
Comunque AMD si sta dando da fare... forse Polaris 30 a 12nm entro fine anno... dovrebbe garantire un 15% di prestazioni in più su Polaris 20
FONTE (https://www.overclock3d.net/news/gpu_displays/amd_rumoured_to_release_12nm_polaris_30_and_7nm_vega_20_in_q4_2018_q1_2019/1)
Speriamo che questo possa far smuovere "Black Jacket" per rilascio di qualche notizia...
L'obbiettivo di AMD è prendere la fascia medio-bassa, che con Nvidia verrà coperta dalla 1160, ci vorrà ben altro che 15%, ma un chip tutto nuovo
Thunder-74
03-07-2018, 07:08
cut...
L'obbiettivo di AMD è prendere la fascia medio-bassa, che con Nvidia verrà coperta dalla 1160, ci vorrà ben altro che 15%, ma un chip tutto nuovo
A me sembra più una prova generale dei 7nm...
EDIT: ops... ricordavo male :fagiano: ... vabbè dai, GPU da scaffalone...
paolox86
03-07-2018, 07:41
Dai ragazzi facciamo tutti un bello SLI di serie 10, altrimenti questi non finiranno mai le scorte e ci toccherà aspettare il 2019
Arrow0309
03-07-2018, 07:52
Dai ragazzi facciamo tutti un bello SLI di serie 10, altrimenti questi non finiranno mai le scorte e ci toccherà aspettare il 2019
Ehhehehe, a chi lo dici, ho tutti i requisiti e le Txp non sono male, se solo funzionasse pure coi giochi. :O
Biscottoman
03-07-2018, 09:21
Dai ragazzi facciamo tutti un bello SLI di serie 10, altrimenti questi non finiranno mai le scorte e ci toccherà aspettare il 2019
Ora come ora tutti sembrerebbe essere certi sul fatto che vedremo ste benedette schede nuove al gamescom visti tutti gli inviti mandati da nvidia (senza particolari ragioni) agli addetti stampa delle relative testate giornalistiche.
Il nabbo di turno
03-07-2018, 09:34
Prima voglio un bel taglio di prezzi delle attuali, vedo prezzi che non stanno ne in cielo ne in terra, non solo sulle top di gamma, ma schede come la 1050 ti a quasi 200 euro non devono esistere...
Eh, ma se un rumor ti dice che non le vendono più allora è vero :sisi:
Se la domanda era bassa i rivenditori abbassavano i prezzi, evidentemente non è così bassa.
Il nabbo di turno
03-07-2018, 11:18
Eh, ma se un rumor ti dice che non le vendono più allora è vero :sisi:
Se la domanda era bassa i rivenditori abbassavano i prezzi, evidentemente non è così bassa.
In america i prezzi iniziano a tornare nel ragionevole, una 1080 su newegg con 500/520 dollari ce l'hai a casa, rispetto a periodi come febbraio/marzo in cui una 1070 andava sopra i 600 dollari tranquillamente siamo già in una situazione molto diversa.
Per le radeon è già più difficile, di vega ce ne sono poche(ne producono abbastanza di meno) quindi tengono di più il prezzo, però le 570/580, soprattutto le 4gb, si trovano facilmente anche qui(su amazon una xfx 580 4gb c'è a 270 spedita)...
aled1974
03-07-2018, 12:21
sembra abbiano cambiato idea http://sg.h2gaming.vn/rog-strix-gtx-1180-16gb (trsl https://translate.google.it/translate?hl=it&sl=vi&u=http://sg.h2gaming.vn/rog-strix-gtx-1180-16gb&prev=search ) ;)
ok i rumors, ok i rumors pazzi, ma davvero un negozio vietnamita può essere così tanto autorevole da indicare al mondo intero rumors da prendere per oro colato?
che poi, facciano quel che vogliono, ma Reddit prima e Guru3D poi (guru3d !!! ???? :eek:) lo rilancino senza un minimo di controllo sulla fonte o senza porsi alcuna domanda porta a pensare che a livello "giornalistico" o comunque di siti "specializzati" siamo arrivati al delirio totale
ci credo che poi nvidia ci sguazza tra gpp e gpp2.0 :doh: :muro: :cry:
ciao ciao
AceGranger
03-07-2018, 13:38
non mi sembrava sto problemone, nVidia con gp104 l'ha fatto le 1070 utilizzano le gddr5 mentre la 1080 le gddr5x.
Per me c'è dell'altro, non può essere soltanto un problema di pcb diverso per amd.
la 1070 e 1080 costano molto di piu e spendere un po di piu per le vram della 1080 puo valerne la pena per venderle meglio; mettere ram piu costose nella fascia bassa ha poco senso.
in base ai prezzi: sub 350 è media, sub 200 è bassa, sub 500 è alta, resto è enthusiast.
Poi il fatto che ti ritrovi chip come 1070 e 1080 che sono di fascia media in fascia alta o addirittura enthusiast è un altro paio di maniche.
mikael84
03-07-2018, 14:41
Si butta tutto nel calderone :D
Perchè della 1160 si sa qualcosa?
Visto l'andazzo mi aspetto una 1070 con qualche MHz in più o giù di li prendendo le misure dalle voci sulla 1180.
AMD è di più difficile inquadratura questa volta perchè non si sa praticamente nulla di eventuali nuove schede e quello che si sa non si sa inquadrarlo.
Cioè si è parlato di vega 7nm che sembra però essere instinct, navi 7nm di cui non si sa nulla e adesso polaris 30 di cui però non sappiamo il collocamento; potrebbe per esempio slittare di fascia come è successo a Tahiti, a Pitcairn e ad altre.
Se polaris 30 fosse un lieve shrik della 480/580 ma si chiamasse 670?
Sarebbe in linea con il presunto incremento di prestazioni delle linea Nvidia, tutto sta poi a vedere cosa propongono nelle fasce più alte per sostituire Vega.
Ovviamente sono solo ipotesi.
La 1160 sarà composta da 2 GPC più un canale di collegamento, ed in rapporto mantiene le proporzioni di Pascal-Maxwell.
Non è detto che prenda completamente la 1080, ma potrebbe essere una via di mezzo.
AMD per pareggiare tale scheda necessità di almeno 9/9,5 TF e 384 gb/s
1450 /3072st almeno, per essere competitiva.:)
Tirare fuori altro clock, o BW non serve a nulla, significherebbe bruciarsi anche la fascia bassa o medio bassa.
Questo rumors mi pare una boiata cmq.
non mi sembrava sto problemone, nVidia con gp104 l'ha fatto le 1070 utilizzano le gddr5 mentre la 1080 le gddr5x.
Per me c'è dell'altro, non può essere soltanto un problema di pcb diverso per amd.
Quale altro, nVidia le ha utilizzate solo nelle gp104 400 e nelle gp102, non solo, ci sono chip quadro gp102 in ddr5 (mai visti in gaming).
Le ddr5x di Micron sono state lanciate a piccolo margine, giusto per colmare il gap con le HBM.
Nvidia ha creato due PCB diversi per GP102 e GP104.
Il GP104, senza le ddr5x doveva creare un collegamento aggiuntivo:)
Ora con le ddr6, tutti i chip saranno nativi ddr6.:)
AceGranger
03-07-2018, 14:51
La 580 è fascia bassa?
Quindi:
1060 6GB
1060 3GB
1050 Ti
1050
1030 G5
1030 D4
Che sono?
Medio-Bassa, Bassa e Entry lvl ?
poi va bè, chiamale come ti pare, il succho è che non sono la fascia alta dove servono le 5X e dove economicamente non impatta il fato di avere 2 PCB e doppia memoria.
amon.akira
03-07-2018, 14:52
1080 e 1070 non hanno lo stesso PCB? :confused:
sono entrambe 104, 102 la ti
mikael84
03-07-2018, 14:55
1080 e 1070 non hanno lo stesso PCB? :confused:
No, uno è fatto apposta per le ddr5x ed uno per le ddr5 lisce.:)
Cambia la piedinatura delle ram.:)
Nvidia ha realizzato due PCB appositi sia in sul GP102 che sul GP104
Ton90maz
03-07-2018, 15:01
Ancora non avete capito le fasce? :sofico:
Titan XP = fascia alta
1080 ti = medio-alta
1080 = media
1070 ti = cesso
1070 = medio-bassa
1060 = fascia bassa
1060 3 GB = fascia bassissima
1050 Ti = fascia sei uno sfigato
1050 = fascia ahahahah
1030 = fascia vergognati di esistere
AceGranger
03-07-2018, 15:05
Quindi nvidia ha 6 schede per la fascia basse e entry e 3 per la fascia media e alta?
Ripensaci ;)
a casa mia sono 5
1070
1070Ti
1080
1080Ti
Titan
mikael84
03-07-2018, 15:16
questo altro intendo, non è che amd non ha utilizzato le gddr5x perché doveva fare 2 pcb, ma perché c'erano troppe poche gddr5x e le ha prese tutte nvidia arrivando prima, per tanto la 480 non ha le gddr5x e Vega hanno fatto che mettere direttamente le hbm2 dato che poi sono partiti da 2 anni di sviluppo su quello e non butti via tutto e inventandosi pure l'hbcc in Vega.
Con AMD non rientravano proprio nel progetto.
La 480 è stata sviluppata per due tagli ram, uno con le ultime 8 gb/s e l'altra con le vecchie 7 gb/s (MC da 512mb).
Utilizzando il medesimo PCB.
Le ddr5x non hanno MC da 512mb, quindi niente versione a 4gb.:)
Dovevano fare teoricamente come nVidia, PCB ddr5x 8gb e PCB 8gb ddr5 256 gb/s.
AceGranger
03-07-2018, 15:36
stiamo dicendo la stessa cosa :D
potevi benissimo fare 480 con gddr5x 8GB@320gb/s e 470 con gddr5 4GB@224gb/s e se proprio volevi un altro taglio una 480 con gddr5 4/8GB@256gb/s...
non l'hanno fatto perché non c'erano abbastanza gddr5x o gliele davano a prezzi esagerati per una scheda da 250-300€ come dice Ace, rispetto il prezzo di vendita delle 1080 da 700€ dove sicuramente hai più margini per gestire il costo delle gddr5x.
La cosa certa è che non gli conveniva per nulla usare le gddr5x in Vega rispetto che le hbm2, per tutta una serie di motivi già dette mille volte...
all'inizio le GDDR5X devono essere costate un po; credo che il prezzo delle 10 Gbps si sia abbassato e stabilizzato con l'arrivo della seconda generazione a 11 Gbps ( e le Top 11.4 per la titan )
mikael84
03-07-2018, 15:37
stiamo dicendo la stessa cosa :D
potevi benissimo fare 480 con gddr5x 8GB@320gb/s e 470 con gddr5 4GB@224gb/s e se proprio volevi un altro taglio una 480 con gddr5 4/8GB@256gb/s...
non l'hanno fatto perché non c'erano abbastanza gddr5x o gliele davano a prezzi esagerati per una scheda da 250-300€ come dice Ace, rispetto il prezzo di vendita delle 1080 da 700€ dove sicuramente hai più margini per gestire il costo delle gddr5x.
La cosa certa è che non gli conveniva per nulla usare le gddr5x in Vega rispetto che le hbm2, per tutta una serie di motivi già dette mille volte...
Sono scelte progettuali, fai un PCB ed adatti le ram, anche nVidia ha fatto così, sulla fascia medio/ medio bassa.
Per fare ciò che dici, devi creare due PCB in quella fascia, oppure levare il taglio da 4gb sulla 480.
In quella fascia è inutile, anche nVidia non ha adottato le ddr5x sulla 1060, e facendolo a patto di perdere un tantino di prestazioni, poteva stampare il chip a 157mmq, quanto una 460 più o meno.:fagiano:
Thunder-74
03-07-2018, 15:50
E' uscita questa indiscrezione in merito alla possibilità che un'azienda, del valore di 20 Miliardi di $, possa fallire per colpa dell'impossibilità, da parte di Intel, di produrre chip a 10nm...
FONTE (https://www.overclock3d.net/news/systems/intel_s_10nm_woes_rumoured_to_crush_a_20_billion_tech_giant/1)
Brutta storia... speriamo di no per i dipendenti e per un eventuale ripercussione sul mercato tecnologico...
mikael84
03-07-2018, 15:50
la rx480 avrebbe giovato delle gddr5x da 320gb/s, evidentemente non gli conveniva.
Non capisco la faccina :fagiano: , guarda che gp107 1050ti è grande 132mmq, di poco più grande di P11 rx460 che è 123mmq :asd:
...inizi a perdere i colpi mikael :p
Probabilmente non gli serviva:p
GP107 è grande 132mmq2, perchè rispetto alla 1060 da 2 GPC nominali perderebbe solo 4 TPC.
157 - 22 circa (4 TPC) = 135mmq2 circa:p
Ancora non avete capito le fasce? :sofico:
Titan XP = fascia alta
1080 ti = medio-alta
1080 = media
1070 ti = cesso
1070 = medio-bassa
1060 = fascia bassa
1060 3 GB = fascia bassissima
1050 Ti = fascia sei uno sfigato
1050 = fascia ahahahah
1030 = fascia vergognati di esistere
Ho la 1030 :sob:
killeragosta90
03-07-2018, 19:37
Ragazzi scusate se arrivo con la più classica delle domande del thread, ma non avendo più seguito il thread e notizie in merito chiedo....si conosce una presunta data per la prossima Nvidia di fascia alta? (presunta GTX 1180)
Chiedo perché un mio collega (capo) sarebbe interessato a farsi un bel pc da gaming, era interessato alla 1080Ti ma visto il periodo gli ho detto che forse la migliore cosa sarebbe attendere la nuova architettura....quanto manca? :stordita:
Le fasce sono date dal prezzo.
QFT.
mikael84
03-07-2018, 23:16
infatti te l'ho scritto :read:
Era solo per dire che se critichi la rx460 sulle dimensioni allora pure la 1050ti non è messa bene in confronto a questa ipotetica 1060 da 128bit :p
ps. sai che quando scrivo SM nelle architetture gaming è sottointeso che penso ai TPC :D
La 1050ti è nettamente superiore alla 460 (dati TPU siamo quasi al 35/40%). E' una scheda che non ha concorrenza.
Il problema di questa scheda è sempre lo stesso, non utilizzare tutta l'architettura, 24 rop's su 32, ecco perchè bisogna battersi sugli 8 GPC a scalare.
La 1060 scritta su un 157mmq con ddr5x (160gb/s) andrebbe poco meno una 480 o pari una 480.
Cmq le ddr5x, offrono una banda superiore con un prefetch doppio ed il doppio dei cicli nei passaggi WCK.
AMD avrebbe fatto pena nel mining, con quelle latenze, mentre in gaming, non sempre offrono il massimo
https://s8.postimg.cc/cpx8ogiut/Immagine.png:)
aled1974
04-07-2018, 07:29
Ragazzi scusate se arrivo con la più classica delle domande del thread, ma non avendo più seguito il thread e notizie in merito chiedo....si conosce una presunta data per la prossima Nvidia di fascia alta? (presunta GTX 1180)
Chiedo perché un mio collega (capo) sarebbe interessato a farsi un bel pc da gaming, era interessato alla 1080Ti ma visto il periodo gli ho detto che forse la migliore cosa sarebbe attendere la nuova architettura....quanto manca? :stordita:
probabilmente da settembre in poi per le FE e subito dopo (ottobre?) per le custom
ma per le 1180Ti in tanti qui pronosticano estate 2019 :stordita:
ciao ciao
killeragosta90
04-07-2018, 16:35
L'ultima ipotesi è presentazione al Gamescom, che però è una scelta inusuale, quindi boh (poi bisogna vedere quando va sul mercato dopo il lancio)
probabilmente da settembre in poi per le FE e subito dopo (ottobre?) per le custom
ma per le 1180Ti in tanti qui pronosticano estate 2019 :stordita:
ciao ciao
Grazie mille! Riferisco! :)
Ma ancora con questi bench a 1080?
La 1050ti la vuoi usare a 4k?
La 1050 è una scheda che non dovrebbe esistere proprio nel lineup :)
nessuno29
04-07-2018, 18:45
Ma ancora con questi bench a 1080?
Direi che un buon 95% gioca tra il full Hd e le risoluzioni inferiori,quindi si direi ancora col 1080.
amon.akira
04-07-2018, 20:08
E di quelli il 95% lo fa a 60hz
a volte si è costretti, specialmente se si è senza gsync, esempio rise of tomb raider, oppure proprio oggi ho messo fallout4 e a 1440p maxato scendevo a 55fps ed ero all inizio...chissà dopo...e quando si è senza gsync scendere sotto gli hz significa stutter, quindi 1080p 60hz maxato anche questo, l importante è avere encefalogramma piatto come frametime :)
:fagiano: Ma di che state parlando e perche' ? :confused:
Una 1060 con 2/4GB di RAM sarebbe stato un suicidio commerciale, con la diretta concorrente che ne ha 4/8.
Thunder-74
05-07-2018, 11:59
Vai con l'angolo delle NEWS...
nVidia avrebbe già in stock più di un milione di nuove Schede Next-Gen e attenderebbe di ridurre la giacenza dell'attuale generazione.
Inoltre la provincia cinese di Sichuan è stata colpita da una forte inondazione, la regione da sola rappresenta quasi il 70% delle attività "minerarie"...
https://cdn.wccftech.com/wp-content/uploads/2018/07/Mining-Flood.jpg
Queste aziende potrebbero optare per l'acquisto di nuove configurazioni che stimoleranno un aumento della domanda di schede grafiche e che potrebbero alleviare alcuni problemi di inventario per NVIDIA... oppure (aggiungo io), potrebbero attendere le nuove?
FONTE (https://wccftech.com/nvidia-million-next-gen-geforce-gaming-gpus/)
bitcoin non si mina con le gpu.
le altre monete non sono più ormai così profittevoli da investirci. La manna del mining è bella che finita.
Thunder-74
05-07-2018, 12:28
bitcoin non si mina con le gpu.
le altre monete non sono più ormai così profittevoli da investirci. La manna del mining è bella che finita.
Meglio così
Inviato dal mio iPhone X utilizzando Tapatalk
mikael84
05-07-2018, 14:29
Nessuno dice che la 1050ti non sia superiore alla 460, anche se con la 560 correggono un po' il tiro attivando tutte le CU che prima erano esclusiva Apple (rx465 full) e il vantaggio si assesta sul 25% https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-fps-1920-1080
,
ma non è quello il punto, ma sul fatto che se critichi le dimensioni di P11 rispetto a un ipotetica 1060 128bit gddr5x allora anche gp107 offrirebbe molto meno per pochi spiccioli di mmq in meno e allo stesso modo anche una 1060 con le gddr5x farebbe ancora più schifo nel mining rispetto a 480/580 e oltretutto si ritroverebbe soltanto con 4GB di memoria, nVidia non ne avrebbe mai messi 8 di GB su una scheda del genere e a quel prezzo.
Comunque anche se è teoria, sarebbe stato poi davvero assurdo vedere le gddr5x sulla 1060 128bit mentre vedere le gddr5 sulla 1070, un non-sense, senza considerare l'approvvigionamento scarso delle gddr5x e il costo di ammortamento elevato su un chip così piccolo e poco costoso come MSRP.
Stiamo parlando di pura teorica naturalmente;)
Non è che critico P11 e le dimensioni, ma per 25mmq2 circa, un GP106 full sarebbe praticamente allineato ad una P11, con prestazioni nettamente superiori e consumi simili. La vera fascia di riferimento sarebbe potuta essere quella.
Le ddr5x costano quanto le ddr5 a detta di micron, cambia il prefetch alla fine, ed il doppio WCK, con le dovute latenze.
Con queste ram avresti creato in soli 157mmq2 la rivale della 480 4gb praticamente. Un chip solo 25mmq2 da P11.
Chiaro che commercialmente l'obbligo dei 192b era scontato, sia per garantire più BW che Ram, posizionandola a tutti gli effetti come la rivale della 480/580:)
Non a caso la 1050ti, pari dimensioni della P11, è una 1060 laserata con clock mediamente più basso, ed in molti modelli piombata a 1922 per le resistenze.;)
Vai con l'angolo delle NEWS...
nVidia avrebbe già in stock più di un milione di nuove Schede Next-Gen e attenderebbe di ridurre la giacenza dell'attuale generazione.
Con le nuove partiranno probabilmente dalle quadro, quindi in base agli scarti, potrebbero lanciare sia il GT104 che una Titan derivante dal GT102.
X-ray guru
10-07-2018, 14:47
Di sicuro i 4k 120 Hz non li reggerà, con i giochi settati al massimo.
Poi lui da solo costerà come 2 PC di alto livello...
ma pure di più-- il 27 pollici costa 2600 euro a quanto dicono
TigerTank
10-07-2018, 16:20
Eh sì, in quanto novità costeranno un botto...per avere magari di nuovo problemi vari di bleeding e glow :mc:
amon.akira
10-07-2018, 16:39
Eh sì, in quanto novità costeranno un botto...per avere magari di nuovo problemi vari di bleeding e glow :mc:
non penso siano ips ma va
TigerTank
10-07-2018, 19:13
non penso siano ips ma va
Pure i va hanno i loro problemi, se poi per va si intende ahva, allora sono sempre ips :D
Pure i va hanno i loro problemi, se poi per va si intende ahva, allora sono sempre ips :D
Per avere un senso dovrebbe costare meno di una TV OLED 120hz VRR.
Anche perchè se prendono una TV 65'' VA 4k 120hz VRR da 1700€ come la Samsung Q6F, (https://www.rtings.com/tv/reviews/samsung/q6fn-q6f-q6-2018) ci tolgono sintonizzatore e feature SMART TV e ci mettono un modulo Gsync, non possono farla pagare 5000€!
Anche se conoscendoli sarebbero capacissimi di farlo... :doh:
TigerTank
10-07-2018, 20:36
Per avere un senso dovrebbe costare meno di una TV OLED 120hz VRR.
Anche perchè se prendono una TV 65'' VA 4k 120hz VRR da 1700€ come la Samsung Q6F, (https://www.rtings.com/tv/reviews/samsung/q6fn-q6f-q6-2018) ci tolgono sintonizzatore e feature SMART TV e ci mettono un modulo Gsync, non possono farla pagare 5000€!
Anche se conoscendoli sarebbero capacissimi di farlo... :doh:
La via di mezzo accettabile, se proprio la soluzione gsync fosse troppo esosa, sarebbe una buona tv a 120Hz nativi. Sempre meglio che i 60 classici senza sincronizzazione dinamica. Comunque vediamo un pò...prima di tutto bisogna vedere e quantificare le reali prestazioni delle nuove vga in arrivo e relativi nuovi giochi in parallelo.
La via di mezzo accettabile, se proprio la soluzione gsync fosse troppo esosa, sarebbe una buona tv a 120Hz nativi. Sempre meglio che i 60 classici senza sincronizzazione dinamica. Comunque vediamo un pò...prima di tutto bisogna vedere e quantificare le reali prestazioni delle nuove vga in arrivo e relativi nuovi giochi in parallelo.
Io dato che oramai il VRR è uno standard di fatto dell'HDMI 2.1, spero vivamente che nVidia si decida a supportarlo, dopotutto il Gsync lo può comumque mantenere come un VRR più avanzato dedicato ai giocatori più esigenti.
Anche perchè se un domani AMD riuscisse finalmente a tirare fuori una GPU di fascia alta degna di competere (come io spero vivamente), rischerebbe di rimanere indietro.
Il modulo gsync hdr cosa 500€, tanto per la cronaca :D
Ma sintonizzatore TV, hardware/software Smart TV, processore video (che nelle TV di fascia alta soltiamente è quello che influisce parecchio sul prezzo) che vengono "rimossi", quanto costerebbero?
E poi cosa farà in più questo modulo GSync HDR, che una TV con HDMI 2.1 e VRR non sarebbe in grado di fare, a parte il "solito" frame duplicato quando il framerate scende sotto la capacità minima del pannello?
Thunder-74
12-07-2018, 13:19
Ho capito, se non immetto io qualche news anche "fake" :fagiano:, questo thread si inchioda.... :D
Ultima in ordine di tempo...
Ipotetico bench di una "2080Ti" su Ashes of The Singularity...
Puzza di fake per n-motivi . Le prestazioni sarebbero scarse causa mancanza dei drivers ottimizzati, perché fa il medesimo punteggio variando da DX12 crazy/ low o Vulkan...
Riporto giusto per "chiacchierare" su qualche cosa... però desta interesse per due motivi. (riporto dall'articolo tradotto..) Uno è che la scheda è elencata come consegna speciale per GSS. Questa è la prima volta che guardiamo un nome così insolito associato a una carta Geforce...GSS è l'abbreviazione di GRUS Sparse Solver che è un romanzo solutore diretto sparse che esegue simultaneamente il calcolo CPU / GPU. Ciò potrebbe essere correlato a ciò poiché NVIDIA è nota per fornire ai ricercatori i loro prodotti inediti, prima del mercato stesso.
Due il bench è stato rimosso...
https://cdn.wccftech.com/wp-content/uploads/2018/07/2018-07-11_18-59-47.png
FONTE (https://wccftech.com/nvidia-geforce-gtx-2080-ti-benchmark-leak/)
E giustamente una "2080ti" la testano a 1080 :sofico:
Premetto che non ho aperto il link :Prrr:
mikael84
12-07-2018, 14:17
Ho capito, se non immetto io qualche news anche "fake" :fagiano:, questo thread si inchioda.... :D
Non è che si inchioda, sono news senza senso. Quel sito è un clickbait che si beve di tutto, come 3dcenter, dove non hanno neppure capito i cuda che avrà GT102/104;)
Quello è un bench inutile anche in 4k
https://www.gamersnexus.net/images/media/2017/GPUs/titan-v/titan-v-aots-cpu-bottleneck-bench.png
Thunder-74
12-07-2018, 15:00
Non è che si inchioda, sono news senza senso. Quel sito è un clickbait che si beve di tutto, come 3dcenter, dove non hanno neppure capito i cuda che avrà GT102/104;)
Quello è un bench inutile anche in 4k
https://www.gamersnexus.net/images/media/2017/GPUs/titan-v/titan-v-aots-cpu-bottleneck-bench.png
Hai ragione Mike, ma ormai di certo sono rimaste solamente poche cose... tipo che:
il massimo dell'innovazione in campo HW sono l'introduzione dei led RGB.. .adesso anche i cavi di alimentazione LINK (http://www.guru3d.com/news-story/lian-li-releases-strimer-you-know-that-rgb-24-pin-extension-cable.html)e gli SSD LINK (http://www.guru3d.com/articles-pages/teamgroup-t-force-delta-rgb-250gb-ssd-review,1.html) :doh:
oppure che se vuoi fare i soldi, non serve più minare l'ethereum, ma basta trovare una falla nei processori intel ( 100.000$ LINK (https://www.techpowerup.com/245910/new-spectre-variant-hits-intel-cpus-company-promises-quarterly-microcode-updates) ) :doh: :doh:
Hai ragione Mike, ma ormai di certo sono rimaste solamente poche cose... tipo che:
il massimo dell'innovazione in campo HW sono l'introduzione dei led RGB.. .adesso anche i cavi di alimentazione LINK (http://www.guru3d.com/news-story/lian-li-releases-strimer-you-know-that-rgb-24-pin-extension-cable.html)e gli SSD LINK (http://www.guru3d.com/articles-pages/teamgroup-t-force-delta-rgb-250gb-ssd-review,1.html) :doh:
oppure che se vuoi fare i soldi, non serve più minare l'ethereum, ma basta trovare una falla nei processori intel ( 100.000$ LINK (https://www.techpowerup.com/245910/new-spectre-variant-hits-intel-cpus-company-promises-quarterly-microcode-updates) ) :doh: :doh:
Scusa ma una bug bounty per bug simili è più che doverosa.
Anzi, 100'000 sono anche pochi.
Biscottoman
12-07-2018, 19:41
Dai alimento un po' il thread con i soliti discorsi senza dati certi ma sempreverdi e che possano essere utili anche per chi magari segue il thread da poco per ricapitolare un po' la situazione: alla fine dei conti è ormai facile che vedremo l'annuncio della probabile 1180 tra un mese circa, dopo tutta la serie di leak che abbiamo visto negli ultimi 2-3 mesi che aumento di prestazioni in percentuale vi aspettate (o vorreste) dalla 1180 e dalla 1170 rispetto alla 1080 ti e perchè no anche da un'ipotetico modello Titan?
TigerTank
12-07-2018, 20:03
Dai alimento un po' il thread con i soliti discorsi senza dati certi ma sempreverdi e che possano essere utili anche per chi magari segue il thread da poco per ricapitolare un po' la situazione: alla fine dei conti è ormai facile che vedremo l'annuncio della probabile 1180 tra un mese circa, dopo tutta la serie di leak che abbiamo visto negli ultimi 2-3 mesi che aumento di prestazioni in percentuale vi aspettate (o vorreste) dalla 1180 e dalla 1170 rispetto alla 1080 ti e perchè no anche da un'ipotetico modello Titan?
Il solito aumento del 20-25% della 1180 sulla 1080Ti.
Ma più che altro...voglio la reference con il dissipatore dotato di lucine erreggibbì! :asd:
Dai alimento un po' il thread con i soliti discorsi senza dati certi ma sempreverdi e che possano essere utili anche per chi magari segue il thread da poco per ricapitolare un po' la situazione: alla fine dei conti è ormai facile che vedremo l'annuncio della probabile 1180 tra un mese circa, dopo tutta la serie di leak che abbiamo visto negli ultimi 2-3 mesi che aumento di prestazioni in percentuale vi aspettate (o vorreste) dalla 1180 e dalla 1170 rispetto alla 1080 ti e perchè no anche da un'ipotetico modello Titan?
Personalmente mi aspetto una 1180 allineata alla 1080ti, una 1170 a 5% dalla 1080. Non penso 1180 andrà molto più veloce di 1080ti, anzi, lo ritengo piuttosto improbabile. Il massimo massimo che credo è +15%, ma sarebbe anche tanto.
Credo che i chip saranno nuovamente chip di fascia media venduti a prezzi high, ma comunque minori di questa generazione. Insomma, Nvidia cercherà di fare i chip più piccoli ed economici possibili da vendere al maggior ricavo possibile.
E dato il fatto che il numero di utenti che possiedono una 1070 o superiore su steam è poco meno dell'8% e il 95% e oltre del mercato ha dalla 1070 in giù, di fatto queste 1160, 1170, 1180 saranno comunque un sostanziale upgrade per il 95% del mercato. Nvidia può solo che cercare di fare il massimo spendendo il minimo possibile.
Quello che mi aspetto sarà anche una mostruosa linea base con 1150/1150ti allineate ad una 980 o meglio in prestazioni. Ma penso anche che le lanceranno molto più tardi (6 mesi almeno).
Questo darebbe anche la possibilità ad Nvidia di lanciare una serie 12xx in un futuro non troppo distante semplicemente facendo chip più grandi e accoppiandogli qualche altra miglioria in frequenze/memorie ma senza fare nulla di che e campare felici fino al 2022 almeno investendo il minimo indispensabile. Questo gli permetterebbe anche di fare una nuova titan/1180ti di dimensioni e prezzo mostruosi. Cosa che succede quando c'è un monopolio in ambito gpu, come quello che c'è stato per quasi 10 anni in ambito cpu, dove in 5-6 generazioni di i7 le prestazioni effettive cambiavano con il contagocce.
Il solito aumento del 20-25% della 1180 sulla 1080Ti.
Ma più che altro...voglio la reference con il dissipatore dotato di lucine erreggibbì! :asd:
Attenzione che di precedenti ne abbiamo solo 2, di cui uno con un salto di processo produttivo che ha quasi dimezzato la densità. La 980 certamente, alla release, non andava minimamente a +20% dalla 780ti.
Questo è vero nel caso di Maxwell, Pascal, ma va anche detto che Pascal è uscita di fabbrica molto più tirata di Maxwell (dove fare +40% di frequenza non era neanche impossibile, su Pascal te lo sogni).
Non dimentichiamo che 1080 vs 980ti entrambe occate al massimo si passano dal 20 al 30%:
https://www.overclock.net/forum/225-hardware-news/1601896-overclockersclub-overclock-showdown-gtx-980ti-vs-gtx-1070-vs-gtx-1080-a.html
TigerTank
12-07-2018, 20:50
I confronti si fanno sempre tra references presentate con frequenze di fabbrica, indipendentemente che si pensi che di loro siano tirate o meno.
Poi chiaro che si può solo calcolare una media approssimativa poichè con i vari giochi possono uscire le situazioni più disparate con distacchi dal minimo al consistente. Io mi aspetto di nuovo un +20-25% medio della X80 dalla precedente Ti e una 1170 che grossomodo si allinea.
Discorso overclock poi meglio lasciarlo perdere, quello è un plus che introduce ulteriore varietà di situazioni :D
mikael84
12-07-2018, 23:19
Personalmente mi aspetto una 1180 allineata alla 1080ti, una 1170 a 5% dalla 1080. Non penso 1180 andrà molto più veloce di 1080ti, anzi, lo ritengo piuttosto improbabile. Il massimo massimo che credo è +15%, ma sarebbe anche tanto.
Ti aspetti male.
1)Come puoi dire che la 1180 sarà allineata alla 1080ti. Secondo te nVidia ti vende una scheda equivalente, chi se la prenderebbe?:p
Basta clockarla a 2ghz ed hai quasi il 25%
https://s33.postimg.cc/kmyh8ga8f/lkgfdsa.png
A questo aggiungi, i thread schedulati, un passo abissale in dx12, latenze decisamente migliori. 2 GPC sprecano tanti cicli. L1 ed l2 migliorata.
Non ci sarà proprio paragone, sopratutto se implementeranno un nuovo motore P.E.;)
Ogni raster deve percorrere 8 stadi per il backfaceculling.
Se poi ti aspetti un +15% tra 1180 e 1080ti significa che in casi estremi una 1170 va meno di un 20% dalla prima
2) La 1170 5% la 1080, non scherziamo.
La 1170 sarà lanciata in modo da ostacolare la 1080ti.
Già di base è ben superiore, parliamo di un range che passa da 2688 a 3400cc, più ram a 12gb/s su un 256b e relativa compressione, con altri 8 stadi risparmiati in geometria.
Aggiungi i thread paralleli dove un SM pascal perde 1/4 di risorse per thread in idle per via del contatore impostato al SM.
Dal link proposto, una 1080 a 1900 ed 11 gb/s prende un 10%;)
https://tpucdn.com/reviews/MSI/GTX_1080_Gaming_X_Plus_11_Gbps/images/perfrel_2560_1440.png
Una 1170 parte da 2688 minimo ed 11 gb/s più compressione e latenze;)
La 1160 di conseguenza, +40/50% dalla 1060;)
A numeri teorici è una simil 1070 con latenze e BW nettamente superiori, se poi schedulando i thread, la differenza sarà ben più elevata:)
Thunder-74
13-07-2018, 05:49
Scusa ma una bug bounty per bug simili è più che doverosa.
Anzi, 100'000 sono anche pochi.
Doverosissima, l’enfasi la ponevo sulla situazione disastrosa di Intel, al punto che può diventare una fonte di guadagno...
Discorso salti di prestazioni delle nuove Gtx, sono d’accordo con Tiger : +20/25 rispetto al precedente modello. Però leggo che Mikael prevede un salto maggiore, questo mi fa ben sperare 😊
In sostanza Mike, tu prevedi che possa avvenire come fu con il passaggio da Maxwell a Pascal... una 1070 che andava ad affiancare le prestazioni della 980ti e una 1080 con un +20% sulla 980ti ... giusto?
Inviato dal mio iPhone X utilizzando Tapatalk
appleroof
13-07-2018, 10:10
Ti aspetti male.
1)Come puoi dire che la 1180 sarà allineata alla 1080ti. Secondo te nVidia ti vende una scheda equivalente, chi se la prenderebbe?:p
Basta clockarla a 2ghz ed hai quasi il 25%
https://s33.postimg.cc/kmyh8ga8f/lkgfdsa.png
A questo aggiungi, i thread schedulati, un passo abissale in dx12, latenze decisamente migliori. 2 GPC sprecano tanti cicli. L1 ed l2 migliorata.
Non ci sarà proprio paragone, sopratutto se implementeranno un nuovo motore P.E.;)
Ogni raster deve percorrere 8 stadi per il backfaceculling.
Se poi ti aspetti un +15% tra 1180 e 1080ti significa che in casi estremi una 1170 va meno di un 20% dalla prima
2) La 1170 5% la 1080, non scherziamo.
La 1170 sarà lanciata in modo da ostacolare la 1080ti.
Già di base è ben superiore, parliamo di un range che passa da 2688 a 3400cc, più ram a 12gb/s su un 256b e relativa compressione, con altri 8 stadi risparmiati in geometria.
Aggiungi i thread paralleli dove un SM pascal perde 1/4 di risorse per thread in idle per via del contatore impostato al SM.
Dal link proposto, una 1080 a 1900 ed 11 gb/s prende un 10%;)
https://tpucdn.com/reviews/MSI/GTX_1080_Gaming_X_Plus_11_Gbps/images/perfrel_2560_1440.png
Una 1170 parte da 2688 minimo ed 11 gb/s più compressione e latenze;)
La 1160 di conseguenza, +40/50% dalla 1060;)
A numeri teorici è una simil 1070 con latenze e BW nettamente superiori, se poi schedulando i thread, la differenza sarà ben più elevata:)
Mi stai convincendo a prendere una 1160 di sto passo :asd:
TigerTank
13-07-2018, 10:48
Mi stai convincendo a prendere una 1160 di sto passo :asd:
Non sarebbe male come ripiego se lo scopo finale è una 1180Ti :D
Ahahah scherzi a parte, nel tuo caso almeno una 1170.
mikael84
13-07-2018, 11:27
Doverosissima, l’enfasi la ponevo sulla situazione disastrosa di Intel, al punto che può diventare una fonte di guadagno...
Discorso salti di prestazioni delle nuove Gtx, sono d’accordo con Tiger : +20/25 rispetto al precedente modello. Però leggo che Mikael prevede un salto maggiore, questo mi fa ben sperare
In sostanza Mike, tu prevedi che possa avvenire come fu con il passaggio da Maxwell a Pascal... una 1070 che andava ad affiancare le prestazioni della 980ti e una 1080 con un +20% sulla 980ti ... giusto?
Inviato dal mio iPhone X utilizzando Tapatalk
Sinceramente non prevedo simili stacchi, però i rapporti sono sempre proporzionati a Pascal.
Ad esempio, una 1160, partirebbe per caratteristiche un tantino sopra la 1070, sopratutto lato BW e titoli a favore.
Considerando che tra la 1070 e la 1060 arriviamo ad un quasi +40% (50% ALU), possiamo quindi stimare che una 1170 (laserata simil 1070, altrimenti i valori cambiano) con un + 35/40% si allineerebbe ad una 1080ti reference su per giù (-5+5).
Ora aggiungi +20% (identica differenza che scorre tra 1070 e 1080).
Questi sono calcoli a spanne, senza entrare sul tecnico.
Dopo bisogna vedere i giochi testati, se già cominci a testare giochi favorevoli, come Doom, DX12, Touring aumenterà il margine.:)
Io però non capisco una cosa, ma se la 1080ti è +30% dalla 1080, come fa una 1180 ad andare +25% dalla 1080 già a stock? significa che la 1180 fa >60% sulla 1080 e non 40~50%...uhm
1080 100%
1080ti 130%
1180 163%(+25% sulla 1080ti)
mi sembra un enormità a pari silicio, anche se è un Tock e aumentano le dimensione del Die fino a 400mmq, non credi?
ps. purtroppo non vedo più le immagini da "postimg" causa firewall, vedo il link al momento del quote ma non me la fa aprire e quando postate non vedo proprio se mettete immagini da li, se riusciste ad utilizzare un altro sito ve ne sarei grato :)
pps adesso la vedo! mah, 1580mhz una 1080ti?... ma che valori sono io ero rimasto a 1750/1800 medi della FE? :D
+25% difficile, molto dipende dai clock finali.
Tra una 1170 laserata ed una 1180 full ci passa il 20% medio, per raggiungere un +25, la 1170 dovrebbe battere la 1080ti reference del 5%, e per me è difficile realizzarlo.
+20% è ipotizzabile, se poi la 1170 sta sotto la 1080ti di un 5%, arrivi ad un +15%
Ricordando però, che bisogna sempre vedere i giochi che testano.
La Titan V ha mostrato come in alcuni giochi la differenza Vulkan/dx12 era netta.
Probabile che la metteranno in risalto in qualche modo:read:
Riguardo la 1080ti, ha un TDP più basso della norma, e boosta molto bassa.
A livello di review parliamo di clock sui 1650mhz e 1750/1800 con PL a 300watt (+20%)
Mi stai convincendo a prendere una 1160 di sto passo :asd:
Se mi legge JHH mi assume nel reparto marketing :D
Cmq per te una 1170 è già un buon salto
appleroof
13-07-2018, 12:00
Non sarebbe male come ripiego se lo scopo finale è una 1180Ti :D
Ahahah scherzi a parte, nel tuo caso almeno una 1170.
Sinceramente non prevedo simili stacchi, però i rapporti sono sempre proporzionati a Pascal.
Ad esempio, una 1160, partirebbe per caratteristiche un tantino sopra la 1070, sopratutto lato BW e titoli a favore.
Considerando che tra la 1070 e la 1060 arriviamo ad un quasi +40% (50% ALU), possiamo quindi stimare che una 1170 (laserata simil 1070, altrimenti i valori cambiano) con un + 35/40% si allineerebbe ad una 1080ti reference su per giù (-5+5).
Ora aggiungi +20% (identica differenza che scorre tra 1070 e 1080).
Questi sono calcoli a spanne, senza entrare sul tecnico.
Dopo bisogna vedere i giochi testati, se già cominci a testare giochi favorevoli, come Doom, DX12, Touring aumenterà il margine.:)
+25% difficile, molto dipende dai clock finali.
Tra una 1170 laserata ed una 1180 full ci passa il 20% medio, per raggiungere un +25, la 1170 dovrebbe battere la 1080ti reference del 5%, e per me è difficile realizzarlo.
+20% è ipotizzabile, se poi la 1170 sta sotto la 1080ti di un 5%, arrivi ad un +15%
Ricordando però, che bisogna sempre vedere i giochi che testano.
La Titan V ha mostrato come in alcuni giochi la differenza Vulkan/dx12 era netta.
Probabile che la metteranno in risalto in qualche modo:read:
Riguardo la 1080ti, ha un TDP più basso della norma, e boosta molto bassa.
A livello di review parliamo di clock sui 1650mhz e 1750/1800 con PL a 300watt (+20%)
Se mi legge JHH mi assume nel reparto marketing :D
Cmq per te una 1170 è già un buon salto
Si, come avete capito stavo scherzando :D
Punto la 1170 anche se, visto che ormai non cambio ogni sei mesi come una volta, voglio prima vedere la differenza in termini di prestazioni/prezzo con la 1180 per decidere.... Che ne pensate?
TigerTank
13-07-2018, 12:23
Si, come avete capito stavo scherzando :D
Punto la 1170 anche se, visto che ormai non cambio ogni sei mesi come una volta, voglio prima vedere la differenza in termini di prestazioni/prezzo con la 1180 per decidere.... Che ne pensate?
Penso che non resti che aspettare e vedere prezzi e prestazioni :)
La 1180 la eviterei se nell'ottica di cedere poi alla scimmia della TI del 2019.
Salvo che già calcoli di restare per altri 2 anni con il monitor che hai, a quel punto una 1180 potrebbe benissimo bastare fino alla gen. successiva, alla quale farai il prossimo salto di risoluzione.
milledue e via :O
Scherzi a parte io mi farò il PC nel black Friday, quindi la 1180 è d'obbligo.
TigerTank
13-07-2018, 14:28
Ma che dite, si aspetta l'erede della 1080ti e siamo apposto :D
Eh ma apple è fermo alla gtx980Ti e ha margine di sfruttamento del suo monitor, dunque non credo possa aspettare il 2019 :D
amon.akira
13-07-2018, 14:29
alla fine lo stacco sarà simile
1080 -> 1180 +50% grezzo
1080ti -> 1180ti idem
bisogna solo scegliere che tipo di balzo si vuol fare se di uno step (+25%) o 2.
poi vabbe qualche chicca nuova sempre ci sarà, tipo l rtx su metro a febbraio se lo si vuole attivare bisognare prendere le nuove.
mikael84
13-07-2018, 14:38
Si, come avete capito stavo scherzando :D
Punto la 1170 anche se, visto che ormai non cambio ogni sei mesi come una volta, voglio prima vedere la differenza in termini di prestazioni/prezzo con la 1180 per decidere.... Che ne pensate?
20% Apple. 25% massimo di picco dove altre parti dell'architettura, rop's/BW aiutano (dipende da gioco a gioco).
A livello di prezzi, sicuramente la 1170 sarà il best (con i prezzi attuali)
Penso che non resti che aspettare e vedere prezzi e prestazioni :)
La 1180 la eviterei se nell'ottica di cedere poi alla scimmia della TI del 2019.
Salvo che già calcoli di restare per altri 2 anni con il monitor che hai, a quel punto una 1180 potrebbe benissimo bastare fino alla gen. successiva, alla quale farai il prossimo salto di risoluzione.
La 1180 sarebbe il mio upgrade ideale, però verrà proposta come enthusiast inizialmente, e quindi non mi ispira, considerando la TI nel 2019.
1080ti a poco o 1170 per poi passare nel 2020 ai 7nm. :fiufiu:
TigerTank
13-07-2018, 14:57
La 1180 sarebbe il mio upgrade ideale, però verrà proposta come enthusiast inizialmente, e quindi non mi ispira, considerando la TI nel 2019.
1080ti a poco o 1170 per poi passare nel 2020 ai 7nm.:fiufiu:
Esatto, per ora la penso allo stesso modo. ;)
Thunder-74
13-07-2018, 15:59
io direi di valutare in base alla necessità/prezzi.
Per questo, personalmente, aspetto direttamente la 1180ti. Oltretutto salire a "piccoli" passi non mi da gusto..:sofico:
io direi di valutare in base alla necessità/prezzi.
Per questo, personalmente, aspetto direttamente la 1180ti. Oltretutto salire a "piccoli" passi non mi da gusto..:sofico:
Condivido, infatti passerò dalla 1030 alla 1180 :O
Giovamas
13-07-2018, 16:29
20% Apple. 25% massimo di picco dove altre parti dell'architettura, rop's/BW aiutano (dipende da gioco a gioco).
A livello di prezzi, sicuramente la 1170 sarà il best (con i prezzi attuali)
La 1180 sarebbe il mio upgrade ideale, però verrà proposta come enthusiast inizialmente, e quindi non mi ispira, considerando la TI nel 2019.
1080ti a poco o 1170 per poi passare nel 2020 ai 7nm. :fiufiu:
io prenderò la 1180 :) Stavolta non prendo la Ti al netto di scimmie ovviamente. Mi va di avere una nuova tecnologia immediatamente disponibile
Thunder-74
13-07-2018, 16:32
Condivido, infatti passerò dalla 1030 alla 1180 :O
Azzopé... come mettere il NOS ad una Fiat 600 .... :D
Inviato dal mio iPhone X utilizzando Tapatalk
appleroof
13-07-2018, 16:48
Penso che non resti che aspettare e vedere prezzi e prestazioni :)
La 1180 la eviterei se nell'ottica di cedere poi alla scimmia della TI del 2019.
Salvo che già calcoli di restare per altri 2 anni con il monitor che hai, a quel punto una 1180 potrebbe benissimo bastare fino alla gen. successiva, alla quale farai il prossimo salto di risoluzione.
Si credo proprio che questo monitor me lo terrò ancora a lungo, da qui l'idea di abbinarci una 1180 da tenere anch'essa a lungo, vediamo...
20% Apple. 25% massimo di picco dove altre parti dell'architettura, rop's/BW aiutano (dipende da gioco a gioco).
A livello di prezzi, sicuramente la 1170 sarà il best (con i prezzi attuali)
cut
20/25% non è pochissimo devo dire, pensavo ad un gap leggermente ridotto così non avrei avuto dubbi che buttarmi sulla 1070 :D
come giustamente sottolineate però tutto inutile senza sapere i prezzi, vedremo quando usciranno :)
Ton90maz
13-07-2018, 17:06
20% Apple. 25% massimo di picco dove altre parti dell'architettura, rop's/BW aiutano (dipende da gioco a gioco).
A livello di prezzi, sicuramente la 1170 sarà il best (con i prezzi attuali)
La 1180 sarebbe il mio upgrade ideale, però verrà proposta come enthusiast inizialmente, e quindi non mi ispira, considerando la TI nel 2019.
1080ti a poco o 1170 per poi passare nel 2020 ai 7nm. :fiufiu:
Se va a finire come quell’aborto della 1070 best buy un par de balle, salvo non intendi al day one, per cui tutto è gomfiato e buonanotte.
appleroof
13-07-2018, 18:46
Se va a finire come quell’aborto della 1070 best buy un par de balle, salvo non intendi al day one, per cui tutto è gomfiato e buonanotte.
🤔
TigerTank
13-07-2018, 19:39
Se va a finire come quell’aborto della 1070 best buy un par de balle, salvo non intendi al day one, per cui tutto è gomfiato e buonanotte.
Talmente aborto che io le sto usando ancora adesso con molta soddisfazione :D
Il problema è stato il mining che ha fatto alzare di molto i prezzi, soprattutto sulle 1070 in quanto le più idonee. Tant'è che poi nvidia si è inventata la 1070Ti :D
Io aspetto con interesse di vedere la 1170...poi certo, se questa fosse troppo castrata, a risparmio(tipo pcb cheap delle gtx970) e magari con dei rimasugli di ddr5x invece che con le nuove ddr6, allora la scarterei al volo.
mikael84
13-07-2018, 23:47
io direi di valutare in base alla necessità/prezzi.
Per questo, personalmente, aspetto direttamente la 1180ti. Oltretutto salire a "piccoli" passi non mi da gusto..:sofico:
Fai bene Thunder, tanto con i chip gaming in raster si avrà un bel aumento.
Resta un pochino da vedere se tutti quei cuda GT102, non creano un leggero problema su alcuni motori.
Sulla Titan V, oltre il problema raster, si crea anche il problema allocazione delle ALU utilizzate.:)
io prenderò la 1180 :) Stavolta non prendo la Ti al netto di scimmie ovviamente. Mi va di avere una nuova tecnologia immediatamente disponibile
Fai bene, salvo spese assurde però. Non buttatevi alla prima 1180.
Appena ne sappiamo di più ne discutiamo.:)
Si credo proprio che questo monitor me lo terrò ancora a lungo, da qui l'idea di abbinarci una 1180 da tenere anch'essa a lungo, vediamo...
20/25% non è pochissimo devo dire, pensavo ad un gap leggermente ridotto così non avrei avuto dubbi che buttarmi sulla 1070 :D
come giustamente sottolineate però tutto inutile senza sapere i prezzi, vedremo quando usciranno :)
20/25% sono buoni. Fai conto che una 1180 vs 980ti default (reference), si passeranno almeno il 90%.
In linea di massima, aspettati quasi di raddoppiare le prestazioni, in 1440p 21:9
Con la 1170 leva l 20%:)
Se va a finire come quell’aborto della 1070 best buy un par de balle, salvo non intendi al day one, per cui tutto è gomfiato e buonanotte.
Perchè aborto? Che ha di sballato?
Se è per il prezzo, dipende da altri fattori, ma definirla aborto, pare come un fail ingegneristico.
Attualmente c'è qualcosa di migliore su tale fascia?
Talmente aborto che io le sto usando ancora adesso con molta soddisfazione :D
Il problema è stato il mining che ha fatto alzare di molto i prezzi, soprattutto sulle 1070 in quanto le più idonee. Tant'è che poi nvidia si è inventata la 1070Ti :D
Io aspetto con interesse di vedere la 1170...poi certo, se questa fosse troppo castrata, a risparmio(tipo pcb cheap delle gtx970) e magari con dei rimasugli di ddr5x invece che con le nuove ddr6, allora la scarterei al volo.
No Tiger ddr5 lisce non ne vedrai più:p Ormai si punta sulle ddr6.
Ormai non tengono più, c'è chi investe sulle HBM e chi sulle ddr6, che altro non sono che delle ddr5 a 16n con doppio WCK.:)
Ton90maz
14-07-2018, 03:20
Tutti che cadono sempre nello stesso bait :asd:
Il motivo è l'unico che conta: il prezzo. Mica intendo che saltano i vrm o che la ventola parte in aria e decapita la suocera.
Di meglio nella sua fascia? Il problema è che non esiste la sua fascia, è morta.
Thunder-74
14-07-2018, 08:29
Tutti che cadono sempre nello stesso bait :asd:
Il motivo è l'unico che conta: il prezzo. Mica intendo che saltano i vrm o che la ventola parte in aria e decapita la suocera.
Di meglio nella sua fascia? Il problema è che non esiste la sua fascia, è morta.
Perdonami, ma i fattori che hanno determinato il prezzo delle vga sono contingenti ad un periodo storico particolare, al punto che tutti i modelli di fascia medio/alta a salire , ne sono stati coinvolti. Posso capire se fai un discorso sul rapporto prezzo/prestazioni, quando il prezzo però è determinato dal costo del progetto stesso. E non è il caso della 1070, se pensi al suo prezzo reale, non influenzato dal mercato. Voglio dire , abbiamo osannato la 980ti per le sue performance , quando uscì la 1070, costava meno, consumava meno, aveva due giga in più, con prestazioni di poco superiori alla 980ti. Io di aborto non parlerei... poi per carità, ognuno ha le sue idee.
Inviato dal mio iPhone X utilizzando Tapatalk
ma la 1070 non è stata vittima della sua stessa versione m? In linea di massima la pascal meno conveniente secondo me.
Poi paragonare la 980ti una 28 che tutt oggi gareggia con le 16 non è un buon esempio anche per la sua storia.
ps. io di vangate di guano sulla ti gm200 me ne ricordo specie all uscita di pascal asdasd
o che la ventola parte in aria e decapita la suocera.
mia al day one! :O
Ti aspetti male.
1)Come puoi dire che la 1180 sarà allineata alla 1080ti. Secondo te nVidia ti vende una scheda equivalente, chi se la prenderebbe?
Il 95% del mercato che ha una scheda inferiore ad una 1070 ad esempio.
C'è molto di più da considerare delle prestazioni, c'è anche il prezzo. Tutti i vostri ragionamenti su mmq, cc, ecc lasciano il tempo che trovano essendo basati su rumors tutt'altro che affidabili.
Io ho la mia opinione e dubito altamente che la 1180 vada molto più veloce di una 1080ti. +15% massimo che predico è un bel salto. Nvidia vorrà guadagnare il massimo dei soldi con il minimo sforzo, quindi vendendo nuovamente chip di fascia media (1170 e 1180) più piccoli ed economici possibile. Questo gli darebbe anche l'opportunità di lanciare un altra architettura 18-24 mesi dopo di dimensioni maggiori beneficiando del nodo più maturo nel caso Navi si rivelasse competitiva. Insomma, massimo guadagno minimo sforzo. Ma chi glielo fa fare a lanciare schede che vadano così più veloce dell'attuale offerta che ha già stravenduto? Se riescono a produrre chip che gli costino ancor meno e vendano allo stesso prezzo han fatto bingo.
2) La 1170 5% la 1080, non scherziamo.
La 1170 sarà lanciata in modo da ostacolare la 1080ti.
Già di base è ben superiore, parliamo di un range che passa da 2688 a 3400cc, più ram a 12gb/s su un 256b e relativa compressione, con altri 8 stadi risparmiati in geometria.
Aggiungi i thread paralleli dove un SM pascal perde 1/4 di risorse per thread in idle per via del contatore impostato al SM.
Dal link proposto, una 1080 a 1900 ed 11 gb/s prende un 10%;)
https://tpucdn.com/reviews/MSI/GTX_1080_Gaming_X_Plus_11_Gbps/images/perfrel_2560_1440.png
Una 1170 parte da 2688 minimo ed 11 gb/s più compressione e latenze;)
La 1160 di conseguenza, +40/50% dalla 1060;)
A numeri teorici è una simil 1070 con latenze e BW nettamente superiori, se poi schedulando i thread, la differenza sarà ben più elevata:)
Ti ripeto, tutto interessante ma basato su fanta informazioni e niente di ufficiale.
Il 95% del mercato che ha una scheda inferiore ad una 1070 ad esempio.
C'è molto di più da considerare delle prestazioni, c'è anche il prezzo.
penso tu ti contraddica da solo sinceramente, chi ha una scheda al di sotto della 1070 difficilmente acquista una scheda come la 1180, proprio per il salto enorme come fascia di prezzo, a maggior ragione se nei primi 9-10 mesi verrà proposta come top attuale fino a che non uscirà la 1180ti
C'è poco da girarci intorno per renderla interessante a chi punta solitamente alla fascia alta/enthusist almeno un 15-20% minimo di scalino dalla top passata lo devi creare, altrimenti non c'è modo di creare interesse e le precedenti serie ne sono la conferma
In che modo ne sarebbero conferma?
La 980 non è che andasse molto più veloce della 780ti alla release, anzi, era nel 10 % di range.
Io ribadisco la mia idea, default vs default dubito altamente la 1180 andrà più di un 15% della 1080ti.
Il salto sarebbe già astronomico per chi viene da una 1080 (quasi 40% di boost).
Per chi vorrà upgradare una 1080ti aspetterà ovviamente gt102 o come si chiamerà.
mikael84
14-07-2018, 14:30
Il 95% del mercato che ha una scheda inferiore ad una 1070 ad esempio.
C'è molto di più da considerare delle prestazioni, c'è anche il prezzo. Tutti i vostri ragionamenti su mmq, cc, ecc lasciano il tempo che trovano essendo basati su rumors tutt'altro che affidabili.
Io ho la mia opinione e dubito altamente che la 1180 vada molto più veloce di una 1080ti. +15% massimo che predico è un bel salto. Nvidia vorrà guadagnare il massimo dei soldi con il minimo sforzo, quindi vendendo nuovamente chip di fascia media (1170 e 1180) più piccoli ed economici possibile. Questo gli darebbe anche l'opportunità di lanciare un altra architettura 18-24 mesi dopo di dimensioni maggiori beneficiando del nodo più maturo nel caso Navi si rivelasse competitiva. Insomma, massimo guadagno minimo sforzo. Ma chi glielo fa fare a lanciare schede che vadano così più veloce dell'attuale offerta che ha già stravenduto? Se riescono a produrre chip che gli costino ancor meno e vendano allo stesso prezzo han fatto bingo.
Ti ripeto, tutto interessante ma basato su fanta informazioni e niente di ufficiale.
Non è nulla di ufficiale, ma ti sei risposto da solo.
Se una 1180 va un +15% sulla 1080ti, significa che la 1170 totalmente laserata (simil 1070) va un -5% dalla TI. La differenza è 20% tra le due.
I rapporti matematici sono quelli, non puoi sfuggire.:)
Ti faccio un altro esempio.
La 1160 avrà 1792cc, con un misero 100mhz in più prende la 1070 (+38% circa dalla 1060).
A questo aggiungi
-Latenze minori del gigathread
-thread schedulati, quindi architettura che in dx12 o Vulkan può essere spremuta al massimo, senza thread in idle dettati dal contatore warp (32 thread simultanei)
-l2 maggiore (2,3mb contro 1,5mb che è un ottima per i conservative), più una l1 ottimizzata
-BW che passa da 256gb/s a 288 gb/s(taglio più basso 12gb/s), dove verrà effettuata un'altra compressione sicuramente, guadagnando da un 10% ad un 30% (mediamente 20%).
Come vedi, una 1160 è in grado di battere tranquillamente una 1070;)
Da 1160 a 1170 devi aggiungere un 38% almeno, perchè i rapporti sono precisi e identici a Pascal (+ 50% ALU).
Non sono fantainformazioni, il chip nVidia deriva da quello HPC;)
Ton90maz
14-07-2018, 15:09
Perdonami, ma i fattori che hanno determinato il prezzo delle vga sono contingenti ad un periodo storico particolare, al punto che tutti i modelli di fascia medio/alta a salire , ne sono stati coinvolti. Posso capire se fai un discorso sul rapporto prezzo/prestazioni, quando il prezzo però è determinato dal costo del progetto stesso. E non è il caso della 1070, se pensi al suo prezzo reale, non influenzato dal mercato. Voglio dire , abbiamo osannato la 980ti per le sue performance , quando uscì la 1070, costava meno, consumava meno, aveva due giga in più, con prestazioni di poco superiori alla 980ti. Io di aborto non parlerei... poi per carità, ognuno ha le sue idee.
Inviato dal mio iPhone X utilizzando TapatalkI prezzacci demenziali c’erano anche quando il resto del mercato (1060 e 580/480 incluse) aveva in genere prezzi normalissimi, ed era normale portare a casa una 1080 ti a 700 euro o una 1080 a 500 euro o poco più, e senza tirare fuori i noti siti andati a quel paese, altrimenti scendiamo ancora di più. Eppure sta 1070 nemmeno dai vat player scendeva sotto i 360 euro, e parlo delle versioni minicesse (con le 1080 non mini a 460 euro). Il prezzo di listino è sempre stato alto, a questo si è aggiunta la pollaggine di gente che, non importa cosa compri, basta che spenda quei 450 euro di budget prefissato. Tanto che per la prima volta le schede di fascia ultra e alta hanno avuto un miglior rapporto qualità prezzo dello scarto (ok che anche la 1080 ti lo è ma in quel caso non c’è una titan a 50 euro in più). E mi girano le balle perchè hanno cannato proprio la fascia che ritenevo più conveniente (grazie anche alle baraccheon SV).
Non è nulla di ufficiale, ma ti sei risposto da solo.
Se una 1180 va un +15% sulla 1080ti, significa che la 1170 totalmente laserata (simil 1070) va un -5% dalla TI. La differenza è 20% tra le due.
I rapporti matematici sono quelli, non puoi sfuggire.:)
Ti faccio un altro esempio.
La 1160 avrà 1792cc, con un misero 100mhz in più prende la 1070 (+38% circa dalla 1060).
A questo aggiungi
-Latenze minori del gigathread
-thread schedulati, quindi architettura che in dx12 o Vulkan può essere spremuta al massimo, senza thread in idle dettati dal contatore warp (32 thread simultanei)
-l2 maggiore (2,3mb contro 1,5mb che è un ottima per i conservative), più una l1 ottimizzata
-BW che passa da 256gb/s a 288 gb/s(taglio più basso 12gb/s), dove verrà effettuata un'altra compressione sicuramente, guadagnando da un 10% ad un 30% (mediamente 20%).
Come vedi, una 1160 è in grado di battere tranquillamente una 1070;)
Da 1160 a 1170 devi aggiungere un 38% almeno, perchè i rapporti sono precisi e identici a Pascal (+ 50% ALU).
Non sono fantainformazioni, il chip nVidia deriva da quello HPC;)
Voglio proprio vedere, secondo me siete eccessivamente ottimisti.
Ben venga che abbiate ragione, figuriamoci, ma continuo a credere che siate eccessivamente ottimisti. Da un punto di vista meramente economico Nvidia non ha alcun guadagno a rilasciare chissà che schede chissà quanto performanti. Ha interesse a rilasciare chip più piccoli possibile che vadano quel tanto in più per campare altri anni. Così come ha fatto nell'era g80-g92/g200.
Io non vedo alcun motivo per cui debbano mettersi in competizione con se stessi quando possono tranquillamente sedersi sugli allori e rilasciare una serie di dimensioni maggiori qualora la concorrenza lo richiedesse. Ti vendono due chip da 300 mmq in fascia media brandizzati x70/x80 e stanno apposto e continuano a contare i soldi con le pale. Io personalmente aspetto una 1150ti con prestazioni fra la 1060 e 1070 e mi eclisso dal mondo dell'hardware per qualche anno.
Tanto gioco a 1080p/60hz e proprio non trovo motivo per upgradare.
techsaskia
14-07-2018, 17:11
Voglio proprio vedere, secondo me siete eccessivamente ottimisti.
Ben venga che abbiate ragione, figuriamoci, ma continuo a credere che siate eccessivamente ottimisti. Da un punto di vista meramente economico Nvidia non ha alcun guadagno a rilasciare chissà che schede chissà quanto performanti. Ha interesse a rilasciare chip più piccoli possibile che vadano quel tanto in più per campare altri anni. Così come ha fatto nell'era g80-g92/g200.
Io non vedo alcun motivo per cui debbano mettersi in competizione con se stessi quando possono tranquillamente sedersi sugli allori e rilasciare una serie di dimensioni maggiori qualora la concorrenza lo richiedesse. Ti vendono due chip da 300 mmq in fascia media brandizzati x70/x80 e stanno apposto e continuano a contare i soldi con le pale. Io personalmente aspetto una 1150ti con prestazioni fra la 1060 e 1070 e mi eclisso dal mondo dell'hardware per qualche anno.
Tanto gioco a 1080p/60hz e proprio non trovo motivo per upgradare.
la storia si ripete, ormai le performance le fanno a tavolino, 1180 + 15-20% rispetto alla 1080Ti, 1170 + 5% rispetto alla 1080Ti.
la storia si ripete, ormai le performance le fanno a tavolino, 1180 + 15-20% rispetto alla 1080Ti, 1170 + 5% rispetto alla 1080Ti.
Si, ma mica lo decidete voi il tavolino, inoltre potrei citarne molti di casi in cui non è andata così.
Abbiamo solo due generazioni di titanium prima di questa.
Dalla 780ti alla 980 non ci passava nemmeno il 10%.
Dalla 980ti alla 1080 si, ma c'era anche un quasi un dimezzamento del nodo. E giusto per ricordarvelo oc vs oc neanche 1080 vs 980ti si passavano un 30% (com'era normale che fosse una 1080 aveva meno rops, meno tmu, meno cuda..):
https://www.overclock.net/photopost/data/1514273/2/25/2540aa63_Capture.PNG
La ti si confronta sempre con la ti. La 1180 sarà un chip di fascia media, non enthusiast (di alto avrà solo il prezzo, come gp104). Confrontarla con la 1080ti lascia il tempo che trova. Sparate cifre che non si vedevano nemmeno fra 580-680 o 680-780, con la differenza che ora prendete una titanium.
Vi auguro con tutto il cuore che abbiate ragione se ste schede vi servono ma vi preparo per la delusione, così come era lampante che Vega sarebbe stato un flop (semplicemente fury occata) e così è stato anche in quel caso.
Ci rivediamo alla review delle schede, e voglio sentire ognuno di voi che sta sempre a farsi i calcoletti teorici poi dire "avevi ragione Vul".
techsaskia
14-07-2018, 17:39
Tanto gioco a 1080p/60hz e proprio non trovo motivo per upgradare.
il motivo sarebbe quello di smettere di giocare a 1080P che ormai è una risoluzione da cellulare. :sofico:
mikael84
14-07-2018, 18:50
Si, ma mica lo decidete voi il tavolino, inoltre potrei citarne molti di casi in cui non è andata così.
Abbiamo solo due generazioni di titanium prima di questa.
Dalla 780ti alla 980 non ci passava nemmeno il 10%.
Chiaro, cambio netto di architettura
2048cc schedulati contro 2880cc con relative dipendenze.;)
Qua hai la stessa architettura, come spiegato sul post mio sopra.
Devi solo aggiungere le ripartizioni.
Ad esempio. Da 1160 vs 1170 ci passerà la stessa percentuale relativa vista in 1060 vs 1070 (50% delle ALU) e 33% in BW.
Dalla 980ti alla 1080 si, ma c'era anche un quasi un dimezzamento del nodo. E giusto per ricordarvelo oc vs oc neanche 1080 vs 980ti si passavano un 30% (com'era normale che fosse una 1080 aveva meno rops, meno tmu, meno cuda..):
Da 1080 a 980 (stessa architettura) hai integrato meno cuda, e più clock, raggiungendo un buon margine.
Se tu sai di base che una scheda ti boosta a 1860 + DC, puoi calcolarti che quella scheda va un tot più di una 980ti che reference boosta a basso Asic a 1164 + DC.
Non è fantasticare, sono dati reali (poi percentuale più o percentuale meno siamo li)
Sparate cifre che non si vedevano nemmeno fra 580-680 o 680-780, con la differenza che ora prendete una titanium.
Stesso discorso
La 580 era un 4 GPC + due collegamenti
La 680 un 4 GPC senza collegamenti con gli SMX dotati di dipendenze e rapporti diversi.
Tra 680 e 780 stessa cosa, ancora diversità architetturali, che non vado a spiegare. dovrei farci una recensione per spiegare le differenze:sofico:
Vi auguro con tutto il cuore che abbiate ragione se ste schede vi servono ma vi preparo per la delusione, così come era lampante che Vega sarebbe stato un flop (semplicemente fury occata) e così è stato anche in quel caso.
Scusa Vul, io sono disponibile con tutti, ti quoto sempre, anche se potrei evitare, ma cerco il dialogo con tutti.
Però, in un forum tecnico, se tu mi parli di Vega= Fury occata, mi cascano a terra.
Ci sono tante modifiche che mi ci vorrebbero 3 pagine di review per parlarne;) altro che Fury occata.
Ale55andr0
14-07-2018, 19:30
Ci sono tante modifiche che mi ci vorrebbero 3 pagine di review per parlarne;) altro che Fury occata.
il problema è che tutte quelle modifiche hanno portato a prestazioni... da fury occata :p
Il nabbo di turno
14-07-2018, 20:25
il motivo sarebbe quello di smettere di giocare a 1080P che ormai è una risoluzione da cellulare. :sofico:
Chissà perchè non leggo di questi commenti quando testano le cpu...
killeragosta90
14-07-2018, 21:15
io prenderò la 1180 :) Stavolta non prendo la Ti al netto di scimmie ovviamente. Mi va di avere una nuova tecnologia immediatamente disponibile
Quotone! Stessa cosa che farò io, è dal 2015 che non cambio vga...è un record per quanto mi riguarda :stordita:
o che la ventola parte in aria e decapita la suocera.
mia al day one! :O
:asd: :asd:
TigerTank
14-07-2018, 22:32
Sti pezzenti che vogliono ancora giocare 1080p...
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Ancora un pò che salgono prezzi di vga e monitor da gaming, mi sa che conviene tornare alla fullHD per giocare :asd:
Thunder-74
15-07-2018, 07:42
Chi si chiede del perché vengano usate res basse in sede di recensione delle CPU, è per creare una condizione nella quale non è la gpu a limitare le prestazioni ma lo è la CPU e capire a questo punto le reali capacità della stessa, rispetto ad altre cpu. ;)
Inviato dal mio iPhone X utilizzando Tapatalk
Legolas84
15-07-2018, 09:57
Ci sono varie fasce di CPU anche a 1440p..... basta guardare qui:
https://www.techpowerup.com/reviews/Intel/Pentium_Gold_G5600/14.html
Dipende poi ovviamente da gioco a gioco ma ad esempio tra 2600X e 8700K comincia ad esserci una differenza interessante in ambito gaming soprattutto se uno ha pannelli a refresh più alti di 60hz....
Ibrasve81
15-07-2018, 10:14
Ci sono varie fasce di CPU anche a 1440p..... basta guardare qui:
https://www.techpowerup.com/reviews/Intel/Pentium_Gold_G5600/14.html
Dipende poi ovviamente da gioco a gioco ma ad esempio tra 2600X e 8700K comincia ad esserci una differenza interessante in ambito gaming soprattutto se uno ha pannelli a refresh più alti di 60hz....
Ma è buono questo sito?
Lo sappiamo, però va letta con intelligenza la cosa.
Non ha senso poi dire che il processore X è meglio per il gaming perchè fa più fps con una 1080ti in fullhd, perchè in fullhd una 1080ti non la usa quasi nessuno.
Invece mi sembra che tu (e molti altri) non abbiano molto chiaro la cosa:
1 Si testa un componente quindi si eliminano i colli di bottiglia altrove, altrimenti che senso ha ? Non e' per vedere a 640 qual e' la CPU piu' veloce...
2 Semplificando, a livello computazionale, quello che e' oggi un full hd per la 1080ti un domani sara' il 1440p per la 1180ti o un full hd per la 1170
Lo scenario che si presenta oggi in 1080 si presentera' un domani con schede piu' potenti in 1440p e con questi test evinci le prestazioni futuri di tali CPU a refresh alti con GPU piu' potenti.
Esempio: Una CPU che oggi "fatica" a tirare una 1080 in full hd @144hz/fps un domani con le nuove GPU iniziera' ad avere problemi anche a 1440p e la forbice sulla differenza di prestazione su resoluzioni piu' basse sara' destinata ad aumentare.
Se si cambia CPU ogni anno o si gioca col vsyncino a 30fps ovviamente cambia poco ma se vuoi tirare fuori anni da una CPU per gaming a certi refresh ti serve IPC e possibilmente una buona occabilita'.
I vari 2500k e successori sono li' a dimostrarlo, c'e' gente che li ha ancora sotto, mentre cambiavo il 6800k mi e' capitato dopo tot anni di fare test con 3770k e 4790k e con una 1080 a 2200mhz, le differenze fra le CPU a 4ghz e 5ghz erano enormi anche in 1440p.
Fine temino e OT, buona domenica.
Il nabbo di turno
15-07-2018, 16:26
Ci sono varie fasce di CPU anche a 1440p..... basta guardare qui:
https://www.techpowerup.com/reviews/Intel/Pentium_Gold_G5600/14.html
Dipende poi ovviamente da gioco a gioco ma ad esempio tra 2600X e 8700K comincia ad esserci una differenza interessante in ambito gaming soprattutto se uno ha pannelli a refresh più alti di 60hz....
è difficile trovare una cpu che faccia brutta figura a 1440p, perfino un 8350k, quindi un vecchio 7600k/6600k, riesce a reggere il passo di cpu ben più prestanti a quella risoluzione,ed è una cpu che a stock a stento batte un i3 8100/r3 2200g...
Poi se si va a vedere i minimi e il frame time ci sono sorprese, se poi uno ci tiene aperta roba in background con alcune cpu la situazione è drammatica.
Un i5 8400 è molto più sciolto nei vari tasks rispetto agli i5 di vecchia gen, anche questo influisce sull'esperienza.
Già l'i7 grazie all'ht è più resistente, però l'8700k a parità di clock per forza bruta sembra anni luce avanti alle vecchie versioni.
sgrinfia
15-07-2018, 20:49
Più di tante parole , c è solo evidenza :
https://www.youtube.com/watch?v=q1-K_AU9pKI
Più di tante parole , c è solo evidenza :
https://www.youtube.com/watch?v=q1-K_AU9pKI
scusa ma non capisco evidenza di cosa? ho visto il filmato ed il gioco è inguardabile sembra una PS1, è evidentemente inadeguato come configurazione.
scusa ma non capisco evidenza di cosa? ho visto il filmato ed il gioco è inguardabile sembra una PS1, è evidentemente inadeguato come configurazione.
Q8200 + 7770 1GB...
Un notebook da 400€ con 8250u e 930mx farebbe di meglio e senza sacrificare le texture :fagiano:
sgrinfia
15-07-2018, 23:08
Con questo video che rappresenta un vecchio coreduoquad (4core)di base che gira ha soli 2.33ghz , si voleva dimostrare che mal'grato la vecchia e bassa frequenza riusciva a far giocare con un gioco moderno esoso di risorse della cpu e della vga .
Il fatto che la grafica non sia soddisfacente è dovuto che l'utente a una scheda video minimale , però si nota come la "vecchia" cpu riesca ancora a fare il suo sporco lavoro ,rammento che sia la cpu e la vga non rientrano nei requisiti minimi dell gioco
sistema utente-
Cpu - Core2Quad Q8200 ( 4 cores)
Ram - 4gb ddr2
Gpu - AMD redeon 7770 HD 1Gb
Windows 10 64bit
GPU drivers Crimson Edition 17.7.2
Minimi dell gioco. system requirements -
OS: 64bit-versions of Windows 7, Windows 8, or Windows 10
Processor: Intel i5 3570K / AMD FX-8350
Memory: 8 GB RAM
Graphics: GTX 770 with 2GB VRAM / Radeon R9 280X 3GB (DX11)
Network: Broadband Internet connection
Storage: 30 GB available space
Sound Card: DirectX Compatible soundcard
sgrinfia
15-07-2018, 23:27
Qui lo stesso core 2 quad q8200 che spinge al 99% una bellissima GTX 1050Ti 4Gb con il gioco in questione a 1920x1080 .
https://www.youtube.com/watch?v=8HwdkeREXGk
Un tempo avevo un Q9450@3.8ghz quindi confermo la bontà di queste cpu, e capisco il tuo discorso.
Il fatto in se è che oggi ci ritroviamo con engine batusti che non sfruttano correttamente più di 4 core, e alcuni hanno anche problemi nel gestire l'HT e SMT il che riduce di molto il potenziale delle cpu e rende anche una differenza lieve dell'IPC consistente in una situazione limite come una 1080ti a 1080p, tra un sandy e un coffee a numeri siamo intorno al 25% di differenza a pari clock/core, e la percentuale di differenza si riduce anche con le patch di sicurezza, infatti sembra che le cpu più recenti ne risentano maggiormente del calo prestazionale rispetto a quelle precedenti...
Per come la vedo io, se si deve giocare la priorità dell'upgrade va a monitor e GPU, non vedo il senso di investire su una gpu top gamma e rimanere ancorati a una bassa risoluzione, è come se 3 anni fa si pretendesse di giocare a 1440x900 o 1280x720 con una 980ti...
Per chi deve assemblare da 0 è un conto e oggi può tirare su un'ottima macchina, ma per chiunque abbia tenuto un sandy/ivy fino ad oggi conviene tenerselo stretto per almeno 2-3 anni aggiornando a qualcosa di più corposo come DDR5 e PCI-E 4.0 se si considera l'enorme esborso per una piattaforma nuova senza contare la Guerra Fredda tra AMD e Intel in ambito cpu dove nel giro di un anno siamo passati da avere 4c/8t a 8c/16t...
nessuno29
16-07-2018, 05:26
Ci sono varie fasce di CPU anche a 1440p..... basta guardare qui:
https://www.techpowerup.com/reviews/Intel/Pentium_Gold_G5600/14.html
Dipende poi ovviamente da gioco a gioco ma ad esempio tra 2600X e 8700K comincia ad esserci una differenza interessante in ambito gaming soprattutto se uno ha pannelli a refresh più alti di 60hz....
Differenza interessante? -5% a 100 euro in meno...
sgrinfia
16-07-2018, 08:03
Un tempo avevo un Q9450@3.8ghz quindi confermo la bontà di queste cpu, e capisco il tuo discorso.
Il fatto in se è che oggi ci ritroviamo con engine batusti che non sfruttano correttamente più di 4 core, e alcuni hanno anche problemi nel gestire l'HT e SMT il che riduce di molto il potenziale delle cpu e rende anche una differenza lieve dell'IPC consistente in una situazione limite come una 1080ti a 1080p, tra un sandy e un coffee a numeri siamo intorno al 25% di differenza a pari clock/core, e la percentuale di differenza si riduce anche con le patch di sicurezza, infatti sembra che le cpu più recenti ne risentano maggiormente del calo prestazionale rispetto a quelle precedenti...
Per come la vedo io, se si deve giocare la priorità dell'upgrade va a monitor e GPU, non vedo il senso di investire su una gpu top gamma e rimanere ancorati a una bassa risoluzione, è come se 3 anni fa si pretendesse di giocare a 1440x900 o 1280x720 con una 980ti...
Per chi deve assemblare da 0 è un conto e oggi può tirare su un'ottima macchina, ma per chiunque abbia tenuto un sandy/ivy fino ad oggi conviene tenerselo stretto per almeno 2-3 anni aggiornando a qualcosa di più corposo come DDR5 e PCI-E 4.0 se si considera l'enorme esborso per una piattaforma nuova senza contare la Guerra Fredda tra AMD e Intel in ambito cpu dove nel giro di un anno siamo passati da avere 4c/8t a 8c/16t...
Sono assolutamente d'accordo, non per niente mi tengo stretti i miei due pc (Fx8320E & I7 3960X).
Quello che volevo dire era che ,si, che una cpu più potente assicura fotogrammi in più a parità di scheda video ma è ancora quest'ultima a fare la differenza .
Ricordo la mia amata HD 6950 , faceva la "spola"tra il pc mio che era un Q8200 e quello di mio fratello I5 2400, bè si giocava bene con entrambe la configurazioni ,magari con l'I5 cerano quei 10 fps in più......ma alla fine si giocava bene con entrambe.;),poi se si parla di risoluzioni alte ho perlomeno sopra il full hd .....il peso della vga e fondamentale.
illidan2000
16-07-2018, 08:35
Sono assolutamente d'accordo, non per niente mi tengo stretti i miei due pc (Fx8320E & I7 3960X).
Quello che volevo dire era che ,si, che una cpu più potente assicura fotogrammi in più a parità di scheda video ma è ancora quest'ultima a fare la differenza .
Ricordo la mia amata HD 6950 , faceva la "scola"tra il pc mio che era un Q8200 e quello di mio fratello I5 2400, bè si giocava bene con entrambe la configurazioni ,magari con l'I5 cerano quei 10 fps in più......ma alla fine si giocava bene con entrambe.;),poi se si parla di risoluzioni alte ho perlomeno sopra il full hd .....il peso della vga e fondamentale.
spola?
sgrinfia
16-07-2018, 10:03
spola?
Movimento continuo di va e vieni da un luogo all'altro
|| Fare la spola, di persona o mezzo di trasporto, andare avanti e indietro continuamente da un luogo a un altro: è tutto il giorno che faccio la s. da un ufficio all'altro
|| SPORT Gioco di spola, lavoro di spola, nel calcio, gioco affidato a uno o più giocatori di centrocampo, che spostandosi continuamente avanti e indietro coordinano l'azione di attacco e difesa.
Si insomma ho scritto male.
rubenalf86
16-07-2018, 10:08
Sono assolutamente d'accordo, non per niente mi tengo stretti i miei due pc (Fx8320E & I7 3960X).
Quello che volevo dire era che ,si, che una cpu più potente assicura fotogrammi in più a parità di scheda video ma è ancora quest'ultima a fare la differenza .
Ricordo la mia amata HD 6950 , faceva la "scola"tra il pc mio che era un Q8200 e quello di mio fratello I5 2400, bè si giocava bene con entrambe la configurazioni ,magari con l'I5 cerano quei 10 fps in più......ma alla fine si giocava bene con entrambe.;),poi se si parla di risoluzioni alte ho perlomeno sopra il full hd .....il peso della vga e fondamentale.
già
il motivo sarebbe quello di smettere di giocare a 1080P che ormai è una risoluzione da cellulare. :sofico:
Non ci sono monitor più grandi che mi piacciano/siano accessibili.
I padelloni da 27" o più non mi piacciono, ad ogni cambio monitor il risultato è che devo porre il monitor sempre più lontano.
Aspetto un 24" massimo da 1440p freesync 144hz per cambiare monitor che però non sia ips (non mi piacciono i neri degli ips) ad un prezzo umano.
Scusa Vul, io sono disponibile con tutti, ti quoto sempre, anche se potrei evitare, ma cerco il dialogo con tutti.
Però, in un forum tecnico, se tu mi parli di Vega= Fury occata, mi cascano a terra.
Ci sono tante modifiche che mi ci vorrebbero 3 pagine di review per parlarne;) altro che Fury occata.
Clock to clock si comportano in maniera quasi identica:
https://images.hardocp.com/images/articles/1505156973f8us74pr9b_4_2.png
https://images.hardocp.com/images/articles/1505156973f8us74pr9b_5_1.png
https://images.hardocp.com/images/articles/1505156973f8us74pr9b_6_1.png
https://images.hardocp.com/images/articles/1505156973f8us74pr9b_6_2.png
https://images.hardocp.com/images/articles/1505156973f8us74pr9b_7_1.png
https://images.hardocp.com/images/articles/1505156973f8us74pr9b_8_1.png
https://images.hardocp.com/images/articles/1505156973f8us74pr9b_9_1.png
Stesse identiche spec, solo più bw per vega.
Stessa cosa per Gamer's Nexus con Vega anche più dietro clock to clock.
Puoi fissarti quanto vuoi su certi dettagli tecnici e scrivere 3 pagine di review, ma alla fine le due schede a parità di clock si comportano in maniera pressochè identica con Fury spesso e volentieri sopra a vega nei minimi.
Questi sono i fatti e queste sono le cose in base alle quali valutiamo una gpu.
Non è che i tuoi calcoli e discorsi sulle differenze architetturali, rops, tmu, ecc possano negare l'evidenza del fatto che vega sia e si comporti come una fury occata.
Ale55andr0
16-07-2018, 12:16
Dovresti farti un giro sui thread radeon e spiegarlo ai "guru"... :rolleyes:
Io a parte non scendere in profondità o saperne come te nell'architettura (rimango volutamente più in superficie :p ) non so essere convincente come te evidentemente, ma sai quante volte mi sono scontrato con vul, alessandro, ultimate, ecc su questo discorso... ho perso il conto :D
io non ho mai detto che sono la stessa architettura, ho solo detto, sintetizzando questi ultimi mesi, "che ennessima sola han tirato fuori dopo eoni di attesa" :read:
Andy1111
16-07-2018, 12:26
Vul il confronto che hai postato tu è stato fatto il 12 settembre 2017 con la Vega appena uscita e con driver molto acerbi, ho una vega 56 dai primi giorni di settembre del 2017 quindi so bene a cosa mi riferisco. Vorrei proprio vedere un confronto fatto ora con glii ultimi driver 18.7.1 che sono ottimi
sgrinfia
16-07-2018, 12:46
Non ci sono monitor più grandi che mi piacciano/siano accessibili.
I padelloni da 27" o più non mi piacciono, ad ogni cambio monitor il risultato è che devo porre il monitor sempre più lontano.
Aspetto un 24" massimo da 1440p freesync 144hz per cambiare monitor che però non sia ips (non mi piacciono i neri degli ips) ad un prezzo umano.
Penso che un 27' sia il massimo per pc, più grandi sono disastrosi ,visto la esigua lontananza quando si gioca.
Su un 24' a 1440p ho dei dubbi dovuti alla quantità di pixel su una superfice cosi piccola :stordita:
sgrinfia
16-07-2018, 12:48
Un tempo avevo pubblicato i bench fatti con lo xeon X5460 (fondamentalmente un Q9650) e una RX480, ma non so se si trovano ancora, probabilment ele immagini sono sparite perchè quel diavolo di host cambia i link.
Peccato , mi sarebbe piaciuto vederle, questi incroci passato vs presente ..mi intrigano .
Penso che un 27' sia il massimo per pc, più grandi sono disastrosi ,visto la esigua lontananza quando si gioca.
Su un 24' a 1440p ho dei dubbi dovuti alla quantità di pixel su una superfice cosi piccola :stordita:
Quindi 1080, 24": risoluzione cellulare.
1440p, 24": troppi pixel in poco spazio.
Decidetevi :asd:
rubenalf86
16-07-2018, 13:31
Quindi 1080, 24": risoluzione cellulare.
1440p, 24": troppi pixel in poco spazio.
Decidetevi :asd:
24’ è perfetto
[Thread Ufficiale] Aspettando le nuove vga nVidia
Un tempo avevo pubblicato i bench fatti con lo xeon X5460 (fondamentalmente un Q9650) e una RX480, ma non so se si trovano ancora, probabilment ele immagini sono sparite perchè quel diavolo di host cambia i link.
Penso che con una RX 480 strozzi abbastanza...
Ottime cpu sicuramente ma oltre una 1050ti la vedo dura...
Ricordo bene che quelle cpu non erano facilissime da tenere a 4Ghz e scaldavano come se non ci fosse un domani, oggi come oggi dovrebbero andare come un G4900 (2c/2t) quindi nulla di eccezionale, ormai anche sui notebook entry level con la gen 8 abbiamo 4c/8t :p
Il best buy dei poveri per me rimane il socket 1366, con l'X5650 venduto sui 25-30€ e parliamo di un 6c/12t con prestazioni in MT livellate a un i5 8400 e con una bw interessante dato il tri-channel e per una cpu di 10 anni fa sa ancora il fatto suo se si gioca a 1440p :fagiano:
bagnino89
16-07-2018, 13:51
[Thread Ufficiale] Aspettando le nuove vga nVidia
:asd:
Ale55andr0
16-07-2018, 13:51
Si si va bene, adesso fai finta di nulla solo perché "l'ha detto Mikael"... ma abbi il buon senso di ammettere che ti sbagli, per una volta, e non diventare come Vul...
e no, sti CAZZI :read:, ora mi trovi il post in cui ho detto che è la stessa architettura :read: abbiate voi il buon senso di smettere di arrampicarvi sugli specchi a difesa di un dannato pezzo di silicio :muro:
:asd:
'Tacci loro edition :D
rubenalf86
16-07-2018, 13:54
'Tacci loro edition :D
:D :D :D
Vul il confronto che hai postato tu è stato fatto il 12 settembre 2017 con la Vega appena uscita e con driver molto acerbi, ho una vega 56 dai primi giorni di settembre del 2017 quindi so bene a cosa mi riferisco. Vorrei proprio vedere un confronto fatto ora con glii ultimi driver 18.7.1 che sono ottimi
Scusa ma ciò che scrivi è puramente aneddotale.
A meno che tu non abbia fatto un confronto clock to clock vega vs fury con vecchi e nuovi driver il tuo commento lascia il tempo che trova.
Puoi dire che le prestazioni di fury non siano migliorate anch'esse nella stessa misura con i driver nuovi clock to clock? Perchè gli Adrenaline di dicembre migliorarono le performance anche di Fury (e non solo nel gaming).
Guarda ormai a parlare con Vul ci abbiamo perso le speranze, solo Mikael ci prova ancora :D
Ah beh, capirai.
Stiamo su un forum di hardware e poi ogni volta che vi si postano i numeri non avete nulla da dire. Vega e Fury clock to clock mostrano lo stesso ipc e performance ma lanciate frasette e frecciatine. Poi oh, Vega c'ha i primitive shaders e tante altre scemenze sulle slide. Poi quando si trocca di vedere le prestazioni non è altro che fury occata.
bagnino89
16-07-2018, 14:18
Dai, basta dire che sia Fury che Vega sono architetture con evidenti colli di bottiglia lato gaming, siamo tutti felici e possiamo chiuderla qui :asd:
TigerTank
16-07-2018, 14:32
Questo è Vega (https://en.wikipedia.org/wiki/Vega_(Street_Fighter)#/media/File:SSFVega.png) e questo è Fury (https://www.usajacket.com/wp-content/uploads/2017/10/Nick-Fury-The-Avengers-Coat.jpg).
Mi sembra chiaro che siano diversi, ora torniamo ad aspettare le nuove vga nvidia :sofico:
AceGranger
16-07-2018, 14:49
eccone un altro :asd:
Vega non ha nessun collo, come architettura di base è paragonabile alla 1080 e infatti vanno mediamente uguali e in base al gioco meglio una o meglio l'altra ma sempre di poco:
4 Raster/Geo
64 Rops
256 vs 160 TMU
(4096)3072 vs 2560 sp/cc (1/4 di sp usati per emulazione sfu nei giochi dove serve)
ma clock Medi diversi:
1.5ghz vs 1.8ghz
e memorie diverse
480 vs 320/350gb/s
Il problema è che per mmq AMD nella fascia alta occupa più spazio e quindi watt (+55%~)
485mmq 295watt vs 315mmq 180watt, è come fosse una 1080ti con prestazioni da 1080,
quasi un nodo di differenza dovuto al lavoro che fece nVidia con Maxwell, cosa che però nella fascia media non succede in modo così marcato 230 vs 200mmq e 150/180 vs 120watt.
cioè, se è come una 1080Ti ma va come una 1080, a casa mia o è un'architettura di merda per il gaming o ha colli di bottiglia in ambito gaming, scegli tu :asd:
amon.akira
16-07-2018, 14:54
cioè, se è come una 1080Ti ma va come una 1080, a casa mia o è un'architettura di merda per il gaming o ha colli di bottiglia in ambito gaming, scegli tu :asd:
se costasse come una 1080 tutto tornerebbe però, ah già poi rimane il consumo quindi dovrebbe costare meno :P
bagnino89
16-07-2018, 14:57
... è come fosse una 1080ti con prestazioni da 1080 ...
Ottimo lavoro di AMD insomma, soprattutto dopo un anno dall'uscita di Pascal :asd:
Detto questo, non sono un esperto di architetture e nemmeno mi interessa, io confronto semplicemente costi, consumi, temperature, prestazioni, e mi sembra che Vega, sin dall'uscita, sia stata fallimentare praticamente in tutti questi aspetti rispetto alle controparti Nvidia.
cioè, se è come una 1080Ti ma va come una 1080, a casa mia o è un'architettura di merda per il gaming o ha colli di bottiglia in ambito gaming, scegli tu :asd:
:asd:
bagnino89
16-07-2018, 15:11
Nell'architettura è come una 1080, nelle dimensioni e quindi watt una 1080ti.
Benissimo, alla luce di questo ti chiedo: secondo te è considerabile un bel lavoro da parte di AMD ad un anno dall'uscita di Pascal?
An old classic:
https://www.youtube.com/watch?v=ylWHvrCtczk
Ale55andr0
16-07-2018, 15:14
Ma falla finita, magari non avrai usato letteralmente quelle parole chi se lo ricorda, ma il senso dei tuoi discorsi e battute era ed è quello.
A parte che siamo nel thread nVidia, ma nel thread radeon ne abbiamo parlato decine di volte, che ti inventi ora...
Praticamente non hai risposto cvd. Facciamo che la finisci di mettere in bocca alla gente robe che non ha detto dando risposte qualunquistiche basate sui "è risaputo" (qui o nell'altro thread è uguale.). Il senso dei miei post é ribadito sopra e non necessita di ulteriori interpretazioni personalizzate...
Ton90maz
16-07-2018, 15:19
eccone un altro :asd:
Vega non ha nessun collo, come architettura di base è paragonabile alla 1080 e infatti vanno mediamente uguali e in base al gioco meglio una o meglio l'altra ma sempre di poco:
4 Raster/Geo
64 Rops
256 vs 160 TMU
(4096)3072 vs 2560 sp/cc (1/4 di sp usati per emulazione sfu nei giochi dove serve)
ma clock Medi diversi:
1.5ghz vs 1.9ghz
e memorie diverse
480 vs 320/350gb/s
Il problema è che per mmq AMD nella fascia alta occupa più spazio e quindi watt (+55%~)
485mmq 295watt vs 315mmq 180watt, è come fosse una 1080ti con prestazioni da 1080,
quasi un nodo di differenza dovuto al lavoro che fece nVidia con Maxwell, cosa che però nella fascia media non succede in modo così marcato 230 vs 200mmq e 150/180 vs 120watt.Non ha nessun collo? Quindi è tutta la divisione AMD baraccheon che fa cagare. Se non c'è neanche la spiegazione collo di bottiglia non c'è nulla per salvare un aborto di architettura
bagnino89
16-07-2018, 15:25
mannaggia per controllare solo i thread amd mi sono perso il fury vs fury oc su nvidia... :asd:
continuo a ripetere, vega non va affatto male e indubbiamente mi piacerebbe averne/provarne una, ma se consideriamo:
- il ritardo sull'uscita di pascal e quello pazzesco su fury
- la questione consumi/calore
- il fatto che stock senza tuning (bios, powerlimit, undervolt) non regge neanche lontanamente le frequenze sponsorizzate neanche a liquido (ricordando che nvidia fa le 1080 fe a 1600mhz e poi boostano stock a 1850 senza toccare nulla)
- la mancanza di feat sponsorizzate e cannate ancor prima di buttarla fuori (figuraccia)
- il prezzo anche senza il fenomeno mining
- le prestazioni molto dipendenti dagli engine (non digerisce ue4, non digerisce tanti poligoni, vuole ottimizzazioni ad hoc)
onestamente è una mexxa/fail senza se e senza ma.
Se sei d'accordo anche tu, quote e condividi, 1 quote = 1 amen :asd:
Amen sia allora :asd:
Un che ho letto oggi da Vul, che nVidia dovrebbe dormire sugli allori perché tanto poi guarda cosa fa AMD e nel caso accelera... :doh: è Follia.
Io non me ne intendo molto ma non è quello che ha fatto Intel per anni?
Per tornare in thread Nvidia regala un SSD a chi compera 1050 e 1060, potrebbe essere una conferma di giacenze di magazzino da smaltire per un eventuale uscita a breve no? :cool:
https://www.hwupgrade.it/news/skvideo/nvidia-annuncia-nuovi-bundle-con-geforce-e-ssd-kingston_77007.html
amon.akira
16-07-2018, 15:30
il +50% consumo ci può anche stare a parità di prestazioni e avendo un marchio meno diffuso nel mondo gaming per farti scegliere devi offrire uguale o meglio a prezzo inferiore per rubare utenza all avversario.
io presi la 290 a 400euro all epoca perchè nvidia offriva la 780 a quel prezzo forse pure qualcosa in piu, ed aveva meno vram e meno potenza (ovviamente perchè era piu vecchia)
poi usci 9mesi dopo la 970 e se la giocava con la 290 però consumava di meno e ci sta tutto.
la vega è uscita 1anno dopo, consuma di piu e costava di piu perchè ovviamente appena uscita si scontrava con una 1080 già deprezzata dopo 1anno.
da videogiocatore rimangono pochi motivi per scegliere amd in quella fascia
rubenalf86
16-07-2018, 15:34
Benissimo, alla luce di questo ti chiedo: secondo te è considerabile un bel lavoro da parte di AMD ad un anno dall'uscita di Pascal?
Secondo me hanno una buona architettura pronta
AceGranger
16-07-2018, 15:50
Non è che è di merda perchè va meno bene dell'altra, ma consuma di più ed occupa più spazio del 50%.
Non va la metà della 1080 e consuma il doppio, per dire, ma va uguale e consuma +50%.
hai detto poco... il problema è anche che lo fa con le HBM2 e che è la TOP gamma di AMD....
per carità, dipendera dai punti di vista ma visto cio che offre la concorrenza è un po come all'epoca di Bulldozer.
Considerato il budget che a spanne sarà 1/10 di nVidia e da dove partivi cioè Fiji, è un ottimo lavoro certo...
Oltretutto c'è da considerare la componente HPC dove Vega DEVASTA Fiji, ma capisco che a voi interessa solo il Gaming...
si ma... in campo HPC il confronto con nVidia è ancora piu impietoso; non è che ci volesse molto a fare meglio di Fiji :asd:
a me del gaming non interessa una fava, e lato Pro direi che AMD è messa dannatamente peggio che in ambito Gaming....
AceGranger
16-07-2018, 16:06
Ma per favore, come si fare il paragone Vega=Bulldozer, bulldozer copriva il 20% del mercato...
Vega in campo Pro copre meno del 20% e in campo HPC, bho, esiste :asd: ?
Sarà impietoso, francamente non lo so mi fido, ma è comunque meglio di prima se guardi Fiji, tra avere 0 e avere 1, meglio 1...
si bè, meglio avere nVidia.
Speriamo che abbiano cambiato passo
sicuro non ci casco piu :asd: perchè attualmente il passo è ancora monco
mikael84
16-07-2018, 16:14
Dovresti farti un giro sui thread radeon e spiegarlo ai "guru"... :rolleyes:
Io a parte non scendere in profondità o saperne come te nell'architettura (rimango volutamente più in superficie :p ) non so essere convincente come te evidentemente, ma sai quante volte mi sono scontrato con vul, alessandro, ultimate, ecc su questo discorso... ho perso il conto :D
differenza interessante per autoconvincersi e giustificarsi a comprare una cpu Intel in questo periodo poi di Bug&Co, devi saper leggere tra le righe dei post :read:
Appena si sa qualcosa di concreto passo a dire la mia, ci mancherebbe:)
Clock to clock si comportano in maniera quasi identica:
Stesse identiche spec, solo più bw per vega.
La BW è simile sul teorico, in compressione spesso è più potente la fury
Clock to clock, Vega in alcune applicazioni è pure leggermente più scarso, vuoi per i maggiori stadi, vuoi per la BW leggermente inferiore e più stress per il bus, ma sopratutto per la suddivisione degli shaders array, diversa da fury, che cambia l'accesso alla l1 ed l2 simultanea in vec4.;)
Questi postati da te, sono giochi relativamente vecchi, con driver Vega iniziali.
Puoi fissarti quanto vuoi su certi dettagli tecnici e scrivere 3 pagine di review, ma alla fine le due schede a parità di clock si comportano in maniera pressochè identica con Fury spesso e volentieri sopra a vega nei minimi.
Questi sono i fatti e queste sono le cose in base alle quali valutiamo una gpu.
Ok, ora veniamo al punto, spiegami perchè queste differenze attuali (non postandomi grafici del 2001), ma a parole tue perchè con un pò di OC succede questo?
https://s22.postimg.cc/3s5ylofap/aco_1440p.png
https://s22.postimg.cc/x8lkoagkx/fc5_cb.png
Quindi portando una Fury x a 1400-1500, raggiungi certi risultati? E se vuoi ne ho di ben peggiori;)
Ottimi minimi devo dire
Un'altra domanda.
Come fa una 580 con 6tf vs 8,6tf metà delle rop's e metà della bw ad andare meglio su AC.?
rubenalf86
16-07-2018, 16:21
L'HPC è un ambiente in cui puoi tranquillamente farti soluzioni software del tutto custom e non mi sorprenderebbe se avessero sbancato con le MI25.
Ovviamente parlo di HPC di livello enterprise, non il piccolo laboratorio con 8 lame.
Già
illidan2000
16-07-2018, 16:21
Movimento continuo di va e vieni da un luogo all'altro
|| Fare la spola, di persona o mezzo di trasporto, andare avanti e indietro continuamente da un luogo a un altro: è tutto il giorno che faccio la s. da un ufficio all'altro
|| SPORT Gioco di spola, lavoro di spola, nel calcio, gioco affidato a uno o più giocatori di centrocampo, che spostandosi continuamente avanti e indietro coordinano l'azione di attacco e difesa.
Si insomma ho scritto male.
:banned:
AceGranger
16-07-2018, 16:29
L'HPC è un ambiente in cui puoi tranquillamente farti soluzioni software del tutto custom e non mi sorprenderebbe se avessero sbancato con le MI25.
Ovviamente parlo di HPC di livello enterprise, non il piccolo laboratorio con 8 lame.
non esistono nella TOP 500 fra i supercomputer e fra i produttori OEM le trovi con il lanternino.
es Supermicro:
1 Rack Instinct
29 Rack Tesla
ne avranno vendute 2 in croce anche perchè, se fosse stato altrimenti, avrebbero avuto un fatturato nettamente differente....
nVidia solo con le Tesla ha fatturato 700 milioni di dollari, mentre tutta la divisione AMD Enterprise, Embedded, and Semi-Custom ha totalizzato 532 Milioni...
avra una % 0,xxx
mikael84
16-07-2018, 16:35
cioè, se è come una 1080Ti ma va come una 1080, a casa mia o è un'architettura di merda per il gaming o ha colli di bottiglia in ambito gaming, scegli tu :asd:
il +50% consumo ci può anche stare a parità di prestazioni e avendo un marchio meno diffuso nel mondo gaming per farti scegliere devi offrire uguale o meglio a prezzo inferiore per rubare utenza all avversario.
io presi la 290 a 400euro all epoca perchè nvidia offriva la 780 a quel prezzo forse pure qualcosa in piu, ed aveva meno vram e meno potenza (ovviamente perchè era piu vecchia)
poi usci 9mesi dopo la 970 e se la giocava con la 290 però consumava di meno e ci sta tutto.
la vega è uscita 1anno dopo, consuma di piu e costava di piu perchè ovviamente appena uscita si scontrava con una 1080 già deprezzata dopo 1anno.
da videogiocatore rimangono pochi motivi per scegliere amd in quella fascia
Si, nel gaming, attualmente GCN è indietro complice anche motori sfavorevoli.
La potenza pura salvo calcoli ridondanti non la vedrette mai in gaming.
A livello FP32 AMD non è così scarsa, anzi può schedulare un'istruzione da 128st in soli 11 cicli.
La potenza teorica crolla nei giochi, dove deve costantemente emularsi le unità funzionali e la funzione geometrica è compromessa dai 4 motori di rasterizzazione.
nVidia man mano che aumenta i TPC, ricava sempre potenza poligonale.
Con Touring, i 2 TPC calcolano sino a 0,66 triangoli per ciclo, con AMD, puoi elevare completamente la potenza di calcolo, ma via geometrica sei sempre li.
Ogn SM nvidia, aggiunge un P.E, il risultato passa su 5 stadi, dove si lavora con la tassellazione, poi il risultato viene inviato al relativo raster scalabile, che ne esegue il backfaceculling.
Stesso discorso via BW, AMD soffre troppo su questo punto, in alcuni casi si rivela un collo di bottiglia.
Purtroppo per tale architettura, per competere con la TI, serve tanto clock, per far si che pure le ALU in esecuzione, possano lavorare al meglio, con meno clock rischi molti thread in idle.
Per prendere una TI a default su un gioco non favorevole, servirebbe almeno un clock di 1850mhz ed un'ampiezza effettiva di banda sopra i 550gb/s almeno.
Tuttavia, pur aumentando i CC, i clock, al contrario di nVidia non hai scalabilità geometrica, e devi sperare in titoli dove non presentino un collo di bottiglia.
Ton90maz
16-07-2018, 16:42
esattamente, fin che non si mettono in testa di fare come fatto con Zen sarà così, sono indietro sul perf/mmq/watt... lo scoprite oggi? No ma diciamo che le prime conseguenze importanti si sono viste solo un anno fa con la baraccheon, prima almeno erano abbastanza competitivi, in qualche modo.
Io comunque non credo che vega non abbia colli di bottiglia ma probabilmente li intendo in un modo diverso e più generale.
Un'altra che ho letto oggi da Vul, che nVidia dovrebbe dormire sugli allori perché tanto poi guarda cosa fa AMD e nel caso accelera... :doh: è Follia.
E' già successo: g80 fino a Fermi.
Ma falla finita, magari non avrai usato letteralmente quelle parole chi se lo ricorda, ma il senso dei tuoi discorsi e battute era ed è quello.
A parte che siamo nel thread nVidia, ma nel thread radeon ne abbiamo parlato decine di volte, che ti inventi ora...
Per portare avanti le tue tesi fai confronti all'uscita della gpu, se becchi il test di CBase di 45 giorni fa, CHE TI ABBIAMO MOSTRATO DECINE DI VOLTE ALTRO CHE SE NON ABBIAMO NULLA DA DIRE, ti dimostra che dici cagate.
https://www.computerbase.de/2018-05/amd-radeon-rx-vega-untersucht/2/
senza contare che FuryX si becca il 50% di MEDIA da Vega64 con picchi del 100% in alcuni casi dato che a volte va come 1060/580...
il fatto che abbia sempre 4096sp, 64 rops e 4 Raster non significa che è una Fury OC, ma da quando in qua con un salto di silicio si becca +40~50% di clock a pari architettura, tu deliri.
Interessante il fatto che ignori totalmente le conclusioni che fa computer base:
From the various improvements over Polaris Vega simply can not take advantage even after almost a year. The only reason the new graphics cards work faster than the old high-end Fiji GPU is the higher clock rate.
And although it initially gave the impression, even with the unit scaling with Vega has done nothing compared to the high-end predecessor Fiji.
Questo salto di prestazioni rispetto alla release è imputabile probabilmente ai driver che hanno ottimizzato i giochi più recenti rispetto a Fiji.
La stessa recensione pone sotto evidenza il fatto che in metà dei giochi l'incremento di prestazioni sia pressochè nullo.
rubenalf86
16-07-2018, 17:16
No ma diciamo che le prime conseguenze importanti si sono viste solo un anno fa con la baraccheon, prima almeno erano abbastanza competitivi, in qualche modo.
Io comunque non credo che vega non abbia colli di bottiglia ma probabilmente li intendo in un modo diverso e più generale.
già
thunderforce83
17-07-2018, 21:17
Buonasera ragazzi:) per lavoro ed impegni varii ho dovuto abbandonare un po' il mondo videoludico, ma leggendo qua e la aspettano tutti con ansia le nuove 1180/1170. la domanda semplice e primaria che viene naturale leggendo varii post che se non seguiti diventano indecifrabili e'...
varra' la pena cambiare la mia aorus 1080ti per questa 1180 oppure mi conviene aspettare a prescindere il chippone completo (prossima 1180ti) che credo uscira' per primavera estate 2019?
Credo che le differenze si vedranno a prescindere visto che nel lancio della 1180/1170 uscira' subito o a breve anche la prossima titan, e da li fare un confronto serio e pacato sara' abbastanza semplice. Grazie a chiunque voglia condividere o discutere insieme a me le curiosita' sulla prossima generazione gpu :)
aled1974
17-07-2018, 21:35
IMHO aspetta i bench delle recensioni (gpp 2.0 permettendo) perchè oggi non si può fare altro se non speculazioni campate in aria ;)
ciao ciao
mikael84
17-07-2018, 23:30
Interessante il fatto che ignori totalmente le conclusioni che fa computer base:
From the various improvements over Polaris Vega simply can not take advantage even after almost a year. The only reason the new graphics cards work faster than the old high-end Fiji GPU is the higher clock rate.
And although it initially gave the impression, even with the unit scaling with Vega has done nothing compared to the high-end predecessor Fiji.
Questo salto di prestazioni rispetto alla release è imputabile probabilmente ai driver che hanno ottimizzato i giochi più recenti rispetto a Fiji.
La stessa recensione pone sotto evidenza il fatto che in metà dei giochi l'incremento di prestazioni sia pressochè nullo.
Non hai risposto alla mia domanda, ma va beh..
Domanda mia :"Come fa una 580 con 6tf vs 8,6tf metà delle rop's e metà della bw ad andare meglio su AC e quasi simile su FC5.?"
Secondo il tuo ragionamento, AMD ha totalmente tagliato via driver le vecchie schede GCN, come Fury e 390, visto che in alcuni giochi non tengono proprio.
Ma non eri proprio tu che da 5 anni a questa parte, fai le crociate contro Kepler 780/ti, ed nVidia che taglia via driver?
Ora ti invito a fare crociate tra Maxwell e pascal, per vedere se trovi cambiamenti;)
Non è che qualcosa nell'architettura cambia?;)
IMHO aspetta i bench delle recensioni (gpp 2.0 permettendo) perchè oggi non si può fare altro se non speculazioni campate in aria ;)
ciao ciao
Se hai già la base, puoi fare certi parametri. Conoscendo un minimo di architettura.
Speculazioni campate in aria sono i vari siti, di cui fate legge, che non sanno neppure l'ABC, ma fanno click
E' già successo: g80 fino a Fermi.
Prima di Fermi ti sei perso la serie 2xx
G92 8800gts per finire a 9800gt con ram samsung
La 280 gtx a 65nm, 24 core per scheduler, anche se è molto più complesso e bus a 512bit.
La differenza li lo fece il commando WCK di AMD che permetteva ad un chip pensato per fascia bassa di competere con una GPU di fascia medio alta.
Non mi sono perso niente, ho scritto [ fino a]. Era inclusa la serie 9xxx e 2xx.
Come fa una 580 con 6tf vs 8,6tf metà delle rop's e metà della bw ad andare meglio su AC e quasi simile su FC5.?
Driver? Ram?
Secondo il tuo ragionamento, AMD ha totalmente tagliato via driver le vecchie schede GCN, come Fury e 390, visto che in alcuni giochi non tengono proprio.
Hai pienamente ragione, potrebbe esserci una perdita di supporto nei giochi più recenti lato driver.
illidan2000
18-07-2018, 09:16
Buonasera ragazzi:) per lavoro ed impegni varii ho dovuto abbandonare un po' il mondo videoludico, ma leggendo qua e la aspettano tutti con ansia le nuove 1180/1170. la domanda semplice e primaria che viene naturale leggendo varii post che se non seguiti diventano indecifrabili e'...
varra' la pena cambiare la mia aorus 1080ti per questa 1180 oppure mi conviene aspettare a prescindere il chippone completo (prossima 1180ti) che credo uscira' per primavera estate 2019?
Credo che le differenze si vedranno a prescindere visto che nel lancio della 1180/1170 uscira' subito o a breve anche la prossima titan, e da li fare un confronto serio e pacato sara' abbastanza semplice. Grazie a chiunque voglia condividere o discutere insieme a me le curiosita' sulla prossima generazione gpu :)
secondo me sì... penso che (a seconda dei titoli) ci sarà un bel boost. Io sto nella tua stessa situazione e con il mio 3440x1440 in molti titoli sto sotto i 90fps (il mio monitor va a 90hz gsync). Quel 15-25% in più mi farebbe comodo. E come consumi decisamente
tu stai a 4k, e secondo me fatichi a stare a 60hz sempre. Inoltre, se non hai il supporto del gsync sicuramente avrai il tearing quando scendi sotto i 60fps, quindi per te è maggiormente consigliato
aled1974
18-07-2018, 09:22
Se hai già la base, puoi fare certi parametri. Conoscendo un minimo di architettura.
Speculazioni campate in aria sono i vari siti, di cui fate legge, che non sanno neppure l'ABC, ma fanno click
perdonami mikael, io ho la massima stima di te e leggo sempre con molto interesse i tuoi interventi che ritengo tra i più tecnici in assoluto in questo settore ma non accetto il giudizio che mi tranci addosso :ave:
sappi che non ho mai fatto legge di niente e nessuno (neanche di te)
se mi si chiede quanto forte andrà un oggetto che ancora materialmente non esiste preferisco stare dalla parte dei bottoni e consigliare prudenza
ovvero di aspettare i test, fatti con criterio, del prodotto quando realmente nelle mani di diverse persone (testate giornalistiche?) competenti e si spera imparziali viste tutte le polemiche gpp/nda. Quindi di che tempistiche parliamo?
il tutto al netto di siti poco credibili di cui qualcuno, non so chi ma di certo non io, fa legge o propaganda :doh: :read:
che poi è un ragionamento che vale non solo per le gpu ma per qualsiasi cosa, no?
un libro non si giudica dalla copertina, un film non dal trailer e così via ;)
pertanto che risposta daresti alla domanda di thunderforce83?
varra' la pena cambiare la mia aorus 1080ti per questa 1180 oppure mi conviene aspettare a prescindere il chippone completo (prossima 1180ti) che credo uscira' per primavera estate 2019?
ciao ciao
Ma se è una Fury OC, i Driver tra Fury e FuryOC dovrebbero esser gli stessi no :Prrr:
dai, posa il fiasco.
Spezzo una lancia in favore del thread siccome siamo andati OT, se volete parlatene ancora in quello Radeon o dedicato di Vega :)
Ti ricordo che i primi sample di Vega (quelli di novembre e dicembre 2016 di sniper elite e doom) utilizzavano i driver fury.
Anche i primi driver dedicati a Vega 10 di dicembre 2016 avevano nomenclatura Fury (AMD7300.5 = "AMD Radeon (TM) R9 Fury Series"). il .5 deriva dal fatto che amd declinasse vega 10 come la quinta scheda della classe Fury (le prime 4 sono fury x, fury, duo, nano).
Se una scheda ha le stesse specifiche, stesso ipc e performance a parità di banda e clock e funziona persino con gli stessi driver di quella precedente non vedo come non si possa parlare di vega come fury occata.
Poi è ovvio che qualche differenza ci sarà pure, ci sta anche fra Pascal e Maxwell, ma l'architettura (e le performance risultanti) sempre quella è.
Guardacaso le differenze nel comportamento fra fury e vega risultano solo in giochi recenti. In tutti quelli fino all'estate 2017 guarda caso le due schede si comportano nello stesso modo.
Detto questo chiudo qui la mia crociata, tanto chi è in disaccordo e la pensa diversamente non lo convincerò.
Tutto questo discorso era nato da "che prestazioni vi aspettate dalla 1180" e io continuo a pensare che al max sarà a +15% dalla 1080ti, ma massimo massimo, poi vedremo se mi sbaglio.
Biscottoman
18-07-2018, 10:56
Tutto questo discorso era nato da "che prestazioni vi aspettate dalla 1180" e io continuo a pensare che al max sarà a +15% dalla 1080ti, ma massimo massimo, poi vedremo se mi sbaglio.
Posso prendermi tutti i meriti di ste discussioni di altissimo livello, motivo di vanto :asd:
Tutto questo discorso era nato da "siamo allergici alla Fi.."
thunderforce83
18-07-2018, 11:13
secondo me sì... penso che (a seconda dei titoli) ci sarà un bel boost. Io sto nella tua stessa situazione e con il mio 3440x1440 in molti titoli sto sotto i 90fps (il mio monitor va a 90hz gsync). Quel 15-25% in più mi farebbe comodo. E come consumi decisamente
tu stai a 4k, e secondo me fatichi a stare a 60hz sempre. Inoltre, se non hai il supporto del gsync sicuramente avrai il tearing quando scendi sotto i 60fps, quindi per te è maggiormente consigliato
Diciamo che con lo schermo 4k bloccato a 60hz non è poi così difficile smanettando un pò con le impostazioni arrivare ad un assetto stabile con tutti i titoli. se la differenza sara' del 30x100 di potenza in più rispetto alla mia ne varrebbe la pena ma sotto il 20x100no
considera pure che forse il modulo hdm2.1 che supporta i monitor e tv a refresh variabile usciranno prossimamente e forse1180 non supportera' questo mentre 1180ti si, cosa che mi fa pensare che forse mi conviene attendere...
perdonami mikael, io ho la massima stima di te e leggo sempre con molto interesse i tuoi interventi che ritengo tra i più tecnici in assoluto in questo settore ma non accetto il giudizio che mi tranci addosso :ave:
sappi che non ho mai fatto legge di niente e nessuno (neanche di te)
se mi si chiede quanto forte andrà un oggetto che ancora materialmente non esiste preferisco stare dalla parte dei bottoni e consigliare prudenza
ovvero di aspettare i test, fatti con criterio, del prodotto quando realmente nelle mani di diverse persone (testate giornalistiche?) competenti e si spera imparziali viste tutte le polemiche gpp/nda. Quindi di che tempistiche parliamo?
il tutto al netto di siti poco credibili di cui qualcuno, non so chi ma di certo non io, fa legge o propaganda :doh: :read:
che poi è un ragionamento che vale non solo per le gpu ma per qualsiasi cosa, no?
un libro non si giudica dalla copertina, un film non dal trailer e così via ;)
pertanto che risposta daresti alla domanda di thunderforce83?
ciao ciao
in effetti il dubbio c'e' ma togliere questa scheda per guadagnare poco credo che serva a nulla...considera anche che grazie ai consigli di mikael ho undervoltato la mia 1080ti dino a farla andare a 1800mhz con un consumo di 240wdi picco(poco calore e rumore) ottimo! quindi diciamo che di potenza gia' con questa c'e' ne ma come tutti gli appassionati che frequentano questo thread credo che a tutti piaccia avere sempre una riserva di potenza in piu' per far fronte le richieste del futuro (tipo anthem)
comunque è tutto da vedere:)
Ti ricordo che i primi sample di Vega (quelli di novembre e dicembre 2016 di sniper elite e doom) utilizzavano i driver fury.
Anche i primi driver dedicati a Vega 10 di dicembre 2010 avevano nomenclatura Fury (AMD7300.5 = "AMD Radeon (TM) R9 Fury Series"). il .5 deriva dal fatto che amd declinasse vega 10 come la quinta scheda della classe Fury (le prime 4 sono fury x, fury, duo, nano).
Se una scheda ha le stesse specifiche, stesso ipc e performance a parità di banda e clock e funziona persino con gli stessi driver di quella precedente non vedo come non si possa parlare di vega come fury occata.
Poi è ovvio che qualche differenza ci sarà pure, ci sta anche fra Pascal e Maxwell, ma l'architettura (e le performance risultanti) sempre quella è.
Guardacaso le differenze nel comportamento fra fury e vega risultano solo in giochi recenti. In tutti quelli fino all'estate 2017 guarda caso le due schede si comportano nello stesso modo.
Detto questo chiudo qui la mia crociata, tanto chi è in disaccordo e la pensa diversamente non lo convincerò.
Tutto questo discorso era nato da "che prestazioni vi aspettate dalla 1180" e io continuo a pensare che al max sarà a +15% dalla 1080ti, ma massimo massimo, poi vedremo se mi sbaglio.
Se sarà come dici tu nvidia a questo giro non avrà soldi da me.
Se ne vale la pena cambio altrimenti mi tengo questa che tra tutte le schede avute lavora veramente bene, quindi cambiarla deve valerne veramente la pena.
Thunder-74
18-07-2018, 12:00
Vorrei fare un appunto in merito al discorso "riportare notizie che possono essere poco veritiere"...
Partendo da presupposto che ogni persona che approccia al mondo informatico e sopratutto al web, dovrebbe sapere che non tutte le notizie divulgate sono veritiere... appurato che, parlare di un prodotto che ancora deve essere immesso sul mercato, per il quale non sono state divulgate informazioni ufficiali, genera automaticamente indeterminatezza delle informazioni che vengono veicolate; trovo inutile affermare che ci siano persone che diffondono tali informazioni come il "verbo". Ovvio che le notizie riportate servono per per capire cosa viene detto e che sta nell'intelligenza dei singoli, farne una certa cernita.... Altrimenti è meglio non aprire anzitempo un thread "Aspettando le nuove vga...", perchè se si vuole parlare di qualcosa di "certo", andrebbero attese le informazioni ufficiali ....
Per concludere dico che trovo questo Thread, prima delle notizie ufficiali, più uno spazio dove si "vola" con la fantasia (ma quanto andrà?, ma quanto costerà?, ma quanti Cuda avrà?, ma che memorie monterà? ecc) e se vengono riportate info strampalate, possono starci anche per strappare un sorriso... poi , per discutere fattivamente sul Hardware in questione, ci sarà il Thread apposito...come sempre è stato. ;)
fabietto27
18-07-2018, 12:45
Vorrei fare un appunto in merito al discorso "riportare notizie che possono essere poco veritiere"...
Partendo da presupposto che ogni persona che approccia al mondo informatico e sopratutto al web, dovrebbe sapere che non tutte le notizie divulgate sono veritiere... appurato che, parlare di un prodotto che ancora deve essere immesso sul mercato, per il quale non sono state divulgate informazioni ufficiali, genera automaticamente indeterminatezza delle informazioni che vengono veicolate; trovo inutile affermare che ci siano persone che diffondono tali informazioni come il "verbo". Ovvio che le notizie riportate servono per per capire cosa viene detto e che sta nell'intelligenza dei singoli, farne una certa cernita.... Altrimenti è meglio non aprire anzitempo un thread "Aspettando le nuove vga...", perchè se si vuole parlare di qualcosa di "certo", andrebbero attese le informazioni ufficiali ....
Per concludere dico che trovo questo Thread, prima delle notizie ufficiali, più uno spazio dove si "vola" con la fantasia (ma quanto andrà?, ma quanto costerà?, ma quanti Cuda avrà?, ma che memorie monterà? ecc) e se vengono riportate info strampalate, possono starci anche per strappare un sorriso... poi , per discutere fattivamente sul Hardware in questione, ci sarà il Thread apposito...come sempre è stato. ;)Appunto
https://uploads.tapatalk-cdn.com/20180718/1743b575b8e2c5eacc4a0fb8272f3f13.jpg
Biscottoman
18-07-2018, 13:41
Vorrei fare un appunto in merito al discorso "riportare notizie che possono essere poco veritiere"...
Partendo da presupposto che ogni persona che approccia al mondo informatico e sopratutto al web, dovrebbe sapere che non tutte le notizie divulgate sono veritiere... appurato che, parlare di un prodotto che ancora deve essere immesso sul mercato, per il quale non sono state divulgate informazioni ufficiali, genera automaticamente indeterminatezza delle informazioni che vengono veicolate; trovo inutile affermare che ci siano persone che diffondono tali informazioni come il "verbo". Ovvio che le notizie riportate servono per per capire cosa viene detto e che sta nell'intelligenza dei singoli, farne una certa cernita.... Altrimenti è meglio non aprire anzitempo un thread "Aspettando le nuove vga...", perchè se si vuole parlare di qualcosa di "certo", andrebbero attese le informazioni ufficiali ....
Per concludere dico che trovo questo Thread, prima delle notizie ufficiali, più uno spazio dove si "vola" con la fantasia (ma quanto andrà?, ma quanto costerà?, ma quanti Cuda avrà?, ma che memorie monterà? ecc) e se vengono riportate info strampalate, possono starci anche per strappare un sorriso... poi , per discutere fattivamente sul Hardware in questione, ci sarà il Thread apposito...come sempre è stato. ;)
Quoto in pieno
mikael84
18-07-2018, 14:33
perdonami mikael, io ho la massima stima di te e leggo sempre con molto interesse i tuoi interventi che ritengo tra i più tecnici in assoluto in questo settore ma non accetto il giudizio che mi tranci addosso :ave:
Mi fa piacere, è per utenti come te e tanti altri che provo a buttare giù due righe tecniche. Inoltre anche io seguo con interesse, in quanto futuro acquirente:) :)
sappi che non ho mai fatto legge di niente e nessuno (neanche di te)
se mi si chiede quanto forte andrà un oggetto che ancora materialmente non esiste preferisco stare dalla parte dei bottoni e consigliare prudenza
ovvero di aspettare i test, fatti con criterio, del prodotto quando realmente nelle mani di diverse persone (testate giornalistiche?) competenti e si spera imparziali viste tutte le polemiche gpp/nda. Quindi di che tempistiche parliamo?
il tutto al netto di siti poco credibili di cui qualcuno, non so chi ma di certo non io, fa legge o propaganda :doh: :read:
che poi è un ragionamento che vale non solo per le gpu ma per qualsiasi cosa, no?
un libro non si giudica dalla copertina, un film non dal trailer e così via ;)
pertanto che risposta daresti alla domanda di thunderforce83?
ciao ciao
Il problema è diverso, questo è un thread aspettando, non una dichiarazione o recensione di JHH, e chiaramente, tramite conoscente architetturali e sul chip, ovvero quelo che verrà tagliato dal chip HPC, puoi cominciare a stimare alcuni calcoli.;)
GT 106 (1160) avrà 1792cc e 192bit
GT 104 (1170) avrà dai 2688cc a 3400cc) e 256 bit
GT 104 (1180) 3584cc e 256 bit.
Qua ad esempio, ho provato a fare una sintesi di ciò che succederà con il GT106
https://www.hwupgrade.it/forum/showpost.php?p=45653470&postcount=40920
Essendo stessa architettura in linea di massima, puoi calcolarti anche le superiori.;)
Se il rapporto tra 1060/1070/1080 rimane identico nelle Touring, la proporzione non cambia. Salvo laserazione diversa, sopratutto su 1170.
Nvidia non presenterà mai un prodotto, che andrà meno di quello attuale, anche partendo da su e non dalla fascia media, ritorni nelle proporzioni.
Quindi, non si possono dare percentuali certe, tutto può essere, siamo in un thread aspettando, non in thread ufficiali, quindi si cerca di descrivere ciò che ci riserverà Volta/Touring.
Non sto/stiamo, sparando dati all'aria, ma si cerca di riprodurre le prestazioni di un chip, quanto più simili a ciò che ci troveremmo con le prossime GPU.:)
Tutto questo discorso era nato da "che prestazioni vi aspettate dalla 1180" e io continuo a pensare che al max sarà a +15% dalla 1080ti, ma massimo massimo, poi vedremo se mi sbaglio.
Esatto, se alla 1170 levi quel 20% (stessi rapporti, uguali uguali, che scorrono tra 1080 e 1070), ti ritrovi una 1170 a circa -5% dalla 1080ti reference.
Considera che la 1080ti reference ha i GPC a 41w e non 45w, e boosta a soli 1600/1650mhz, una 1080ti a 2ghz guadagna quasi il 25%.
I cuda sono gli stessi, quindi partendo da almeno 1900/2000, non avrà problemi a batterla.
Considera pure le migliorie architetturali nette via dx12/Vulkan
Thunder-74
18-07-2018, 14:34
D'accordissimo, il problema è che con nVidia si può viaggiare meno di fantasia che con AMD in quanto adotta un'architettura modulare e che di base è la stessa (nel codice)...
Per quello che parti dalla TitanV e vai a scalare nei GPC, nelle memorie collegate, nelle cose che non servono al gaming come i CC fp64 e/o forse i TensorCore che potrebbero servire per il RayTracing però di base 1 GPC sarà:
7TPC(7SM da 128cc)
16rops
48~56GB/s
con le migliore ai warp di volta su pascal e i clock effettivi di volta con Die normali e Gaming, intorno i 1900-2000mhz default.
La variante che non terrebbe conto dei 7TPC potrebbe essere la 1150ti come è stata la 1050ti, magari la fanno sempre con 2 GPC come la 1160, ma da 5TPC l'uno e con 128bit invece che 192 della 1160, e resta solo da vedere i relativi tagli degli scarti come la 1170.
1150ti 2geo/1280cc/32rops/128bit 4-8GB@192gb/s
1160 2geo/1792cc/32(48)rops/192bit 6-12GB@288gb/s
1170 4geo/2688-3072cc/64rops/256bit 8-16GB@384gb/s
1180 4geo/3584cc/64rops/256bit 8-16GB@448gb/s
1180ti 6geo/5120-5376cc/88(96)rops/352-384bit 22-24GB@616-672gb/s
Se non fossero così sarebbe molto strano e diverso da tutto quello che ha fatto in questi ultimi anni nVidia.
PS.
Se tu facessi questo discorso sul thread AMD verresti etichettato come uno che vola troppo con la fantasia perchè mette giù numeri a caso partendo dal nulla, o che tanto da GCN1 sono tutte la stessa GPU di base e in Overclock e che poi dopo 1 anno o 2 si finisce per dare la colpa ad AMD se non è poi diventato realtà quella ipotesi... è tutto documentato eh.
sono d'accordissimo sul fare dei ragionamenti partendo dall'architettura precedente, visto il modus operandi di nVidia. Fa parte di quei ragionamenti che a mio avviso sono consoni con un thread dove le informazioni certe non ci sono e quelle più verosimili nascono forse proprio da questi ragionamenti. Nei thread AMD non ci metto piede, perché so che ci sono alcuni utenti poco avvezzi al confronto costruttivo, ma abili a farti girare le OO e io non amo litigare da remoto ;)
Inviato dal mio iPhone X utilizzando Tapatalk
aled1974
18-07-2018, 18:57
Mi fa piacere....
CUT
ma forse ci siamo male intesi dato che io non mi riferivo specificatamente a te quanto al fatto che nessuno oggi può dire se la futura 1180 convenga rispetto alla sua attuale 1080ti e questo perchè:
- oggi non si può sapere quali saranno le reali prestazioni della 1180 (al massimo stimarle)
- di 1180 immagino che esisteranno versioni più o meno spinte a livello di clock (anche se poi tutte probabilmente mureranno allo stesso modo o quasi)
- oggi non si può sapere quale sarà il prezzo delle 1180, oltretutto tra FE e le varie custom potrebbe variare anche di molto
- il "valere la pena" può avere troppe sfumature: le sole prestazioni, il rapporto costo/prestazioni, il tipo di utilizzo, la risoluzione utilizzata, feature extra necessarie (ad es. a me servirebbero tanti cuda cores), eccetera
quindi alla domanda di thunderforce83
varra' la pena cambiare la mia aorus 1080ti per questa 1180 oppure mi conviene aspettare a prescindere il chippone completo (prossima 1180ti) che credo uscira' per primavera estate 2019?
io non so su che basi oggi si possa rispondere SI, NO o ASPETTA la nuova Ti :boh:
intanto vediamo come va la prossima 1180 liscia :read:
questo giusto per fare chiarezza anche a chi reputa questo thread come quello dei voli pindarici di fantasia, che ci sta eh, anche a me piace sognare :mano:
ma i sogni non hanno basi per rispondere ad una domanda come quella posta da thunderforce83 ;)
ciao ciao
Ok ora datevi una calmata tutti e tornare in topic
questo thread esiste apposta per evitare di andare ad inquinare i thread ufficiali con i rumors più o meno fondati.. sono il primo a non gradire questi thread ma sono un male necessario per incanalare ed ingabbiare tutto quell'OT "inevitabile" che mieterebbe troppe vittime e relativa troppa fatica per mietere.. quindi, si tollera un pò di più ma non va cmq calcata la mano perchè cmq trollare, sparare cazzate ecc non è cmq tollerato.
>bYeZ<
Thunder-74
18-07-2018, 19:45
ma forse ci siamo male intesi dato che io non mi riferivo specificatamente a te quanto al fatto che nessuno oggi può dire se la futura 1180 convenga rispetto alla sua attuale 1080ti e questo perchè:
- oggi non si può sapere quali saranno le reali prestazioni della 1180 (al massimo stimarle)
- di 1180 immagino che esisteranno versioni più o meno spinte a livello di clock (anche se poi tutte probabilmente mureranno allo stesso modo o quasi)
- oggi non si può sapere quale sarà il prezzo delle 1180, oltretutto tra FE e le varie custom potrebbe variare anche di molto
- il "valere la pena" può avere troppe sfumature: le sole prestazioni, il rapporto costo/prestazioni, il tipo di utilizzo, la risoluzione utilizzata, feature extra necessarie (ad es. a me servirebbero tanti cuda cores), eccetera
quindi alla domanda di thunderforce83
io non so su che basi oggi si possa rispondere SI, NO o ASPETTA la nuova Ti :boh:
intanto vediamo come va la prossima 1180 liscia :read:
questo giusto per fare chiarezza anche a chi reputa questo thread come quello dei voli pindarici di fantasia, che ci sta eh, anche a me piace sognare :mano:
ma i sogni non hanno basi per rispondere ad una domanda come quella posta da thunderforce83 ;)
ciao ciao
Ma difatti credo che tu abbia risposto benissimo a Thunderforce83... ancora è presto... sicuramente la 1180 andrà più della 1080ti, ma a quale prezzo? varrà la pena cambiare una 1080ti , magari per un 20/25% in più, se la 1180 costerà un occhio della testa?.... aspettiamo, vediamo e sogniamo nella speranza che mamma nVidia sia clemente e ci sforni una 1180 a 599$.. ;)
thunderforce83
18-07-2018, 23:07
ma forse ci siamo male intesi dato che io non mi riferivo specificatamente a te quanto al fatto che nessuno oggi può dire se la futura 1180 convenga rispetto alla sua attuale 1080ti e questo perchè:
- oggi non si può sapere quali saranno le reali prestazioni della 1180 (al massimo stimarle)
- di 1180 immagino che esisteranno versioni più o meno spinte a livello di clock (anche se poi tutte probabilmente mureranno allo stesso modo o quasi)
- oggi non si può sapere quale sarà il prezzo delle 1180, oltretutto tra FE e le varie custom potrebbe variare anche di molto
- il "valere la pena" può avere troppe sfumature: le sole prestazioni, il rapporto costo/prestazioni, il tipo di utilizzo, la risoluzione utilizzata, feature extra necessarie (ad es. a me servirebbero tanti cuda cores), eccetera
quindi alla domanda di thunderforce83
io non so su che basi oggi si possa rispondere SI, NO o ASPETTA la nuova Ti :boh:
intanto vediamo come va la prossima 1180 liscia :read:
questo giusto per fare chiarezza anche a chi reputa questo thread come quello dei voli pindarici di fantasia, che ci sta eh, anche a me piace sognare :mano:
ma i sogni non hanno basi per rispondere ad una domanda come quella posta da thunderforce83 ;)
ciao ciao
beh spero di non aver creato un caso di stato...la mia premessa era che non seguivo il mondo schede video da un po' causa lavoro e se magari c'erano aggiornamenti, grazie per le delucidazioni:)
Ma difatti credo che tu abbia risposto benissimo a Thunderforce83... ancora è presto... sicuramente la 1180 andrà più della 1080ti, ma a quale prezzo? varrà la pena cambiare una 1080ti , magari per un 20/25% in più, se la 1180 costerà un occhio della testa?.... aspettiamo, vediamo e sogniamo nella speranza che mamma nVidia sia clemente e ci sforni una 1180 a 599$.. ;)
mi sa tanto che a 599 dollari non la vedremo mai visto che ora è esplosa anche la guerra dei dazi:doh:
amon.akira
19-07-2018, 00:42
mi sa tanto che a 599 dollari non la vedremo mai visto che ora è esplosa anche la guerra dei dazi:doh:
imho saremo la, ogni gen c'è sempre la paura prezzi XD
2013
770 -> 399$
780 -> 649$
2014
970 -> 329$
980 -> 549$
2016
1070 -> 379$
1080 -> 549$
2018
1170 -> ???$
1180 -> ???$
Arrow0309
19-07-2018, 08:50
imho saremo la, ogni gen c'è sempre la paura prezzi XD
2013
770 -> 399$
780 -> 649$
2014
970 -> 329$
980 -> 549$
2016
1070 -> 379$
1080 -> 549$
2018
1170 -> ???$
1180 -> ???$
Ma da dove li hai tirati fuori quei prezzi se io l'ho pagata £720 una Strix 1080 a settembre 2016, sono ben 938$.
E le FE non costavano cmq molto meno, intorno a £650+ che saranno sempre 850$.
Ma da dove li hai tirati fuori quei prezzi se io l'ho pagata £720 una Strix 1080 a settembre 2016, sono ben 938$.
E le FE non costavano cmq molto meno, intorno a £650+ che saranno sempre 850$.
MSRP USA.
Chi la compra in Europa deve pagare il VAT su quel prezzo.
amon.akira
19-07-2018, 09:12
Ma da dove li hai tirati fuori quei prezzi se io l'ho pagata £720 una Strix 1080 a settembre 2016, sono ben 938$.
E le FE non costavano cmq molto meno, intorno a £650+ che saranno sempre 850$.
quello è il prezzo ufficiale delle reference le FE rispettivamente erano 449$ 1070 e 699$ 1080, poi ovviamente appena uscite possono costare di piu perchè c'è un affollamento nel comprarle ed essendo in dollari ci devi mettere il +22% d iva.
esempio l evga ftw 1070 a settembre su amazon 2016 costava 470€ con gioco in regalo ed era un ottima custom.
le top custom 1080 come la strix su amazon a settembre costavano mediamente da 710-759€ con gioco in regalo, ma c erano altre 1080 che partivano da 620+
per chiudere il paragone l MSRP della strix 1080 era 679$ leggermente inferiore alla FE
Arrow0309
19-07-2018, 10:57
quello è il prezzo ufficiale delle reference le FE rispettivamente erano 449$ 1070 e 699$ 1080, poi ovviamente appena uscite possono costare di piu perchè c'è un affollamento nel comprarle ed essendo in dollari ci devi mettere il +22% d iva.
esempio l evga ftw 1070 a settembre su amazon 2016 costava 470€ con gioco in regalo ed era un ottima custom.
le top custom 1080 come la strix su amazon a settembre costavano mediamente da 710-759€ con gioco in regalo, ma c erano altre 1080 che partivano da 620+
per chiudere il paragone l MSRP della strix 1080 era 679$ leggermente inferiore alla FE
Con le FE in giro a prendere il posto delle reference dove stavano quest'ultime?
Prezzi di 620 euro per una 1080?
Ma dove o soprattutto quando? Dopo min 6 mesi?
Io ricordo che nei primi 3 mesi c'era una scarsità mai vista delle vga top di gamma (1080).
Poi dei prezzi di listino ufficiale americano del prodotto (made in Cina) senza Iva che c'è ne frega a noi qui?
Io prevedo che le 1180 costeranno ancora di più nei primi 3 mesi cmq sia.
Andy1111
19-07-2018, 11:02
Io ho trovato questo vecchio messaggio:
Infatti il prezzo ufficiale di lancio è di 801€ (657€ + IVA) per la versione Founders Edition, mentre le schede personalizzate dai vari vendor partiranno da 682€ (559€ + IVA). Per quanto riguarda l’arrivo e il prezzo in Italia di GeForce GTX 1070, NVIDIA ha previsto il lancio il prossimo 10 giugno ad una cifra di base di 517€ (424€ + IVA).
https://www.smartworld.it/informatica/nvidia-geforce-gtx-1080-gtx-1070-prezzo-uscita-italia.html
amon.akira
19-07-2018, 11:36
Io ho trovato questo vecchio messaggio:
Infatti il prezzo ufficiale di lancio è di 801€ (657€ + IVA) per la versione Founders Edition, mentre le schede personalizzate dai vari vendor partiranno da 682€ (559€ + IVA). Per quanto riguarda l’arrivo e il prezzo in Italia di GeForce GTX 1070, NVIDIA ha previsto il lancio il prossimo 10 giugno ad una cifra di base di 517€ (424€ + IVA).
https://www.smartworld.it/informatica/nvidia-geforce-gtx-1080-gtx-1070-prezzo-uscita-italia.html
basta vedere il price history amazon tramite keepa
1080 strix
7luglio 849€
16luglio 779€
15agosto 705€
gigabyte windforce 1080
6settembre 645€
gigabyte g1 gaming 1080
dal 15 al 26agosto 646€
dal 30agosto al 10settembre 638€
e parliamo di amazon, se poi ci spostiamo su altri shop si potevano trovare anche altre marche a buoni prezzi.
ma solo io ho comprato in quel periodo? XD
MSRP è una cosa
il prezzo su eprice in Italia tutt'altro (ho preso il primo shop a caso che mi veniva in mente)
Non mi sembra difficile da capire cosa intendesse lui
La Vega aveva un MSRP di 499 con il bundle o di 599 da sola.....ma per mesi non si trovava a meno di 800€ o 1100 la liquid..... prezzo retail è una cosa, quello MSRP, again, tutt'altro.
amon.akira
19-07-2018, 11:51
MSRP è una cosa
il prezzo su eprice in Italia tutt'altro (ho preso il primo shop a caso che mi veniva in mente)
Non mi sembra difficile da capire cosa intendesse lui
La Vega aveva un MSRP di 499 con il bundle o di 599 da sola.....ma per mesi non si trovava a meno di 800€ o 1100 la liquid..... prezzo retail è una cosa, quello MSRP, again, tutt'altro.
se incollo la fattura amazon e non eprice vale uguale? XD
Purtroppo qualsiasi discorso riguardante i prezzi e` andato a farsi benedire data la richiesta di gpu astronomica rispetto alla reale disponibilita`.
Pero` a marzo 2017 le 1070 a 350 in su le trovavi..Allineate e piu` basse del loro msrp (379 dollari in euro + 325/330 circa, piu' iva circa 400).
amon.akira
19-07-2018, 12:01
Purtroppo qualsiasi discorso riguardante i prezzi e` andato a farsi benedire data la richiesta di gpu astronomica rispetto alla reale disponibilita`.
Pero` a marzo 2017 le 1070 a 350 in su le trovavi..Allineate e piu` basse del loro msrp (379 dollari in euro + 325/330 circa, piu' iva circa 400).
ma lo stesso utente Thunder che ha postato poco prima e poi lui potrà confermarlo prese la 1070 ftw evga a 470€ a settembre 2016
poi prese la aurous extreme ultra mega edition 1080ti a 700€ a maggio 2017 e calcolate che la prima 1080ticustom era fine marzo ed era la strix.
mi sa che serve un po di acutil fosforo XD
ma lo stesso utente Thunder che ha postato poco prima e poi lui potrà confermarlo prese la 1070 ftw evga a 470€ a settembre 2016
poi prese la aurous extreme ultra mega edition 1080ti a 700€ a maggio 2017 e calcolate che la prima 1080ticustom era fine marzo ed era la strix.
mi sa che serve un po di acutil fosforo XD
I prezzi dalla release fino a marzo/aprile sono scesi costantemente. Poi hanno ripreso a salire.
Ma poco prima del boom del mining (piu o meno al lancio della serie amd 500), di 1070 sotto i 400 ne trovavi eccome (e il loro msrp era di 400 esatti), idem di 1080 sotto i 500. I prezzi delle 1080ti sinceramente non li ho mai seguiti.
Comunque sul mercatino vedo delle 1070 in vendita a poco piu di 300 o 580 a 200 o poco meno e nessuno fare la fila per prendersele..
amon.akira
19-07-2018, 12:27
I prezzi dalla release fino a marzo/aprile sono scesi costantemente. Poi hanno ripreso a salire.
Ma poco prima del boom del mining (piu o meno al lancio della serie amd 500), di 1070 sotto i 400 ne trovavi eccome (e il loro msrp era di 400 esatti), idem di 1080 sotto i 500. I prezzi delle 1080ti sinceramente non li ho mai seguiti.
Comunque sul mercatino vedo delle 1070 in vendita a poco piu di 300 o 580 a 200 o poco meno e nessuno fare la fila per prendersele..
cosa è accaduto al mercato nel boom mining lo conosciamo quasi tutti (frozen?), ovvio si parla di condizioni "normali" :)
Thunder-74
19-07-2018, 12:31
ma lo stesso utente Thunder che ha postato poco prima e poi lui potrà confermarlo prese la 1070 ftw evga a 470€ a settembre 2016
poi prese la aurous extreme ultra mega edition 1080ti a 700€ a maggio 2017 e calcolate che la prima 1080ticustom era fine marzo ed era la strix.
mi sa che serve un po di acutil fosforo XD
Io sono sempre rimasto con le 980ti :fagiano:
Comunque ragazzi io ragiono sul prezzo di lancio in dollari per avere una base comune con le generazioni precedenti. Poi il mercato , in base al momento storico, fa il prezzo...
Inviato dal mio iPhone X utilizzando Tapatalk
amon.akira
19-07-2018, 12:33
Io sono sempre rimasto con le 980ti :fagiano:
Comunque ragazzi io ragiono sul prezzo di lancio in dollari per avere una base comune con le generazioni precedenti. Poi il mercato , in base al momento storico, fa il prezzo...
Inviato dal mio iPhone X utilizzando Tapatalk
si ho visto che non hai ceduto, mi riferivo all altro thunder
thunderforce83...sono abituato a chiamarlo thunder :P
Thunder-74
19-07-2018, 12:37
si ho visto che non hai ceduto, mi riferivo all altro thunder
thunderforce83...sono abituato a chiamarlo thunder :P
Ok :)
Inviato dal mio iPhone X utilizzando Tapatalk
Andy1111
19-07-2018, 12:46
Poi c'è la questione che in italia sono tutti furbetti, la mia vega 56 l'ho presa dal negozio francese a 400+30ss e anche ora una 56 custom la trovi a 499 e una 64 a 569 come anche una EVGA GeForce GTX 1080 SuperClocked Gaming ACX 3.0 si trova la a 615 e su amazon.it la trovi a 640 ora le vega invece qua da noi le sparano a prezzi assurdi anche amazon
Non capisco 'come' sono furbetti.
Se le schede fossero invendute si farebbero la guerra ai prezzi come al solito.
Evidentemente la domanda e` alta. Non si tratta di essere furbetti, si tratta di domanda e offerta. Se il prezzo e` alto basta non comprare e lo abbassano loro.
Vedrai come continueranno a crollare da qua a ottobre.
Ton90maz
19-07-2018, 17:42
Non capisco 'come' sono furbetti.
Se le schede fossero invendute si farebbero la guerra ai prezzi come al solito.
Evidentemente la domanda e` alta. Non si tratta di essere furbetti, si tratta di domanda e offerta. Se il prezzo e` alto basta non comprare e lo abbassano loro.
Vedrai come continueranno a crollare da qua a ottobre.Ringraziamo per la pollaggine di chi ha deciso di trattare delle 1070 come se fossero 1080 o le 1060 lucin edition più care delle 970 3 anni e mezzo fa :asd:
E di conseguenza anche le baraccheon.
Il nabbo di turno
19-07-2018, 21:29
https://www.techpowerup.com/download/techpowerup-gpu-z/
"Added GDDR6 memory type"
:rolleyes: :rolleyes: :rolleyes:
mikael84
19-07-2018, 23:31
ma forse ci siamo male intesi dato che io non mi riferivo specificatamente a te quanto al fatto che nessuno oggi può dire se la futura 1180 convenga rispetto alla sua attuale 1080ti e questo perchè:
- oggi non si può sapere quali saranno le reali prestazioni della 1180 (al massimo stimarle)
Si dici bene, ma la 1180 copre la 1080 non la 1080ti, è errato confrontarle.
Diciamo che chi vuole il massimo, cambia anche per un minimo +10%.:)
A livello di Vulkan, dx12 è nettamente avanti il nuovo chip.;)
- di 1180 immagino che esisteranno versioni più o meno spinte a livello di clock (anche se poi tutte probabilmente mureranno allo stesso modo o quasi)
- oggi non si può sapere quale sarà il prezzo delle 1180, oltretutto tra FE e le varie custom potrebbe variare anche di molto
- il "valere la pena" può avere troppe sfumature: le sole prestazioni, il rapporto costo/prestazioni, il tipo di utilizzo, la risoluzione utilizzata, feature extra necessarie (ad es. a me servirebbero tanti cuda cores), eccetera
quindi alla domanda di thunderforce83
io non so su che basi oggi si possa rispondere SI, NO o ASPETTA la nuova Ti :boh:
intanto vediamo come va la prossima 1180 liscia :read:
La 1180, segue la 1080,chi fa l'upgrade su tali chip, sta comprando un chip di fascia media, non alta. Se poi a qualcuno interessa un + 20% ok, i soldi sono i suoi, ma la 1180 non è in alcun modo la scheda che succede alla 1080ti, ma alla 1080 (qua un + 50% ci sta).:)
questo giusto per fare chiarezza anche a chi reputa questo thread come quello dei voli pindarici di fantasia, che ci sta eh, anche a me piace sognare :mano:
ma i sogni non hanno basi per rispondere ad una domanda come quella posta da thunderforce83 ;)
ciao ciao
Non è propriamente questione di sognare, se uno sogna un chip mid, che surclassa la sua 1080ti, sbaglia.
I prezzi ormai li conosciamo, una 1180 costerà molto, in quanto novità, se poi valuti che 900 euro per un reference valgono il cambio di una 1080ti vs 1180, non ha senso.
Nvidia qua ci sguazzerà, le 1080ti crolleranno, le 1170 ne prenderanno il posto, e le 1180 saranno fascia uber.
Chi ha le 1080ti deve upgradare a 1180ti, altrimenti si fa un passo indietro.:)
Buongiorno,
Scrivo in questo topic perchè per mancanza di tempo ultimamente sto seguendo poco le news delle GPU.
Se non ho capito male, le nuove NVIDIA usciranno verso settembre (1170 e 1180) con a seguire la proposta di fascia media (1160, a cui sono interessato). Le AMD nuove invece le vedremo non prima di Gennaio Febbraio.
Secondo voi, la 1160 avrà prestazioni paragonabili a una 1070 attuale? Sperando sempre che i prezzi si mantengano su quelli delle 1060 (270-300 euro).
Ho intenzione di cambiare VGA e Monitor da qui a 6 mesi, e pensavo a un monitor 2k visto che tendo a cambiare i monitor molto di rado (sono ancora con lo stesso 24" full HD dal 2011). Il G-Sync non è un'opzione (costa troppo) e il freesync sarebbe inutile nel caso prendessi una NVIDIA (non sono un fan boy, ho avuto più di una scheda di tutti e 2 i modelli, scegliendo al momento il maggior rapporto qualità/prezzo).
AceGranger
20-07-2018, 08:44
Scusa Mikael, ma come fai a dire che un chip che sarà sui 400mmq sia fascia media?
se oltre al chip della della 1180 ci sta un'altro chip per la 1180Ti-Titan, puoi dargli i nomi come vuoi, ma sempre un chip "medio" è, stando a meta strada fra il TOP e il chip inferiore delle 1050-1060;
il mercato si è spostato verso l'alto.
Si dici bene, ma la 1180 copre la 1080 non la 1080ti, è errato confrontarle.
Diciamo che chi vuole il massimo, cambia anche per un minimo +10%.:)
A livello di Vulkan, dx12 è nettamente avanti il nuovo chip.;)
Bene quindi le morte dx12 ora diventeranno il top....ben venga dopo quattro anni che l'industria è ferma a causa dell'"innovatore" monopolista
che nvidia rilasci 1170 e 1180 a costo top , fascia media poi e infine la ti al nuovo prezzo top sei mesi dopo è più scontato della maglietta della roma di naingollan
Buongiorno,
Scrivo in questo topic perchè per mancanza di tempo ultimamente sto seguendo poco le news delle GPU.
Se non ho capito male, le nuove NVIDIA usciranno verso settembre (1170 e 1180) con a seguire la proposta di fascia media (1160, a cui sono interessato). Le AMD nuove invece le vedremo non prima di Gennaio Febbraio.
Secondo voi, la 1160 avrà prestazioni paragonabili a una 1070 attuale? Sperando sempre che i prezzi si mantengano su quelli delle 1060 (270-300 euro).
Ho intenzione di cambiare VGA e Monitor da qui a 6 mesi, e pensavo a un monitor 2k visto che tendo a cambiare i monitor molto di rado (sono ancora con lo stesso 24" full HD dal 2011). Il G-Sync non è un'opzione (costa troppo) e il freesync sarebbe inutile nel caso prendessi una NVIDIA (non sono un fan boy, ho avuto più di una scheda di tutti e 2 i modelli, scegliendo al momento il maggior rapporto qualità/prezzo).
ho la soluzione
ti pigli un monitor freesync 2k per due noccioline e aspetti la fascia media nuova amd
Hovintoquacchecossa? :sofico:
AceGranger
20-07-2018, 08:55
ho la soluzione
ti pigli un monitor freesync 2k per due noccioline e aspetti la fascia media nuova amd
Hovintoquacchecossa? :sofico:
si, una brutta GPU :asd:
AceGranger
20-07-2018, 09:25
Dire chip medio mi pare qualcosa di dispregiativo senza una motivazione logica se non quella di dire "non ho il chip più grosso che c'è", che francamente lascia il tempo che trova, ma comunque se consideriamo quanti chip esistono non sarebbe comunque il medio, di seguito:
gp102
gp104
gp106
gp107
gp108
etichettameli.
nVIdia fa 9 GPU con 5 chip, di cui piu della meta con i 2 chip piu grossi.
i chip bassi sono di piu solo per il semplice fatto che avendo margini ridottissimi economicamente non conviene laserarli troppo ( anche perchè essendo piccoli hai meno probabilita di avere chip fallati ), mentre nelle fasce sopra sia per probabilita sia per margini fai meno chip e li laseri di piu.
GP 108 - 1 GPU - 1030
GP 107 - 2 GPU - 1050/1050Ti
GP 106 - 1 GPU - 1060
GP 104 - 3 GPU - 1070/1070Ti/1080
GP 102 - 2 GPU - 1080Ti/Titan
GP 107-108 coprono la fascia bassissima-bassa
GP 106 medio-bassa
GP 104 media / medio-alta / alta
GP 102 altissima / enthusiast
1030 - 100€ --- giusto per avere qualcosa a monitor.
1050 - 160€ --- bassissima
1050Ti - 200€ --- bassa
1060 - 290€ --- medio/bassa
1070 - 430€ ----------------- MEDIA
1070Ti - 480€ --- medio/alta
1080 - 530€ --- alta
1080Ti - 760€ --- altissima
Titan - 1300€ --- enthusiast
( I prezzi sono quelli da sito nVidia, attualmente si sa che sono diversi per altri motivi; per le basse il prezzo ho preso Amazon che sul sito non ci sono. )
se vai anche a guardare il prezzo, togliendo gli estremi Titan e cesso 1030, ti viene un prezzo medio fra la Top 1080Ti e la 1050 che è un po piu alto della 1070 e, se togli solo la Titan ( che ha sempre avuto il suo prezzo "elite" ), come prezzo medio ottieni esattamente il prezzo della 1070.
Biscottoman
20-07-2018, 10:06
We ragazzi vi segnalo questo ''leak'' su un result e alcune specifiche della 1170 che sta girando parecchio nei forum inglesi e americani. So che è molto probabile (se non quasi sicuramente) che sia fake per molteplici motivi, ma volevo comunque segnalarvelo.
http://static.frazpc.pl/board/2018/07/28aa94ce9e534039.jpg
AceGranger
20-07-2018, 10:11
Si certo è normale che con i chip grossi fai più GPU, li gestisci in base alle rese di conseguenza non conviene fare Die per ogni scheda, ma li tagli in base agli scarti.
Alla fine però sei venuto a quello che dico io, aggiungendo la 10603GB editando di conseguenza le altre uno step in alto, e la XX80 è fascia alta, poi che ci fai gli scarti e ci fai una xx70/ti è normale.
Se paragoni con i prezzi poi è ancora peggio, una scheda da 430€ non puoi dirmi che è fascia media, già 290 è tanto e non puoi dirmi la concorrenza, perché la rx580 va uguale e costa uguale, fps più o meno come euro più euro meno.
le 2 1060 sono stesso chip, stessi cuda, stessa frequenza e stesso nome; sono la stessa GPU e anche nVidia non le separa ai fini di fascia; poi anche della 1050 hanno fatto versioni con memoria differente per il mercato cinese, ma non è che crei una nuova fascia, gli servono solo GPU da spacciare ai grandi OEM per poter risicare dollari sui grandi ordinativi, ma le "macro" fasce sono quelle.
Non c'è scritto da nessuna parte che 290 sono "medio", medio di che ? il medio è il valore medio fra il prezzo TOP e il prezzo entry lvl, non è il prezzo che ritieni medio per le tue tasche....( anche perchè noi in Italia stiamo messi male con gli stipendi, perchè negli altri paesi che hanno stipendi medi piu elevati le GPU costano uguale.... ) i tempi sono cambiati, i prezzi delle GPU si sono spostati verso l'alto e di conseguenza si è spostato il valore medio.
per la questione 580, vanno uguali
https://www.techpowerup.com/reviews/ASRock/RX_580_Phantom_Gaming_X/31.html
e anche a rapporto performance/dollars non è diverso.
https://www.techpowerup.com/reviews/ASRock/RX_580_Phantom_Gaming_X/33.html
e comunque il discorso non cambia, AMD semplicemente non ha la parte alta del mercato ma la divisione è quella.
nVIdia fa 9 GPU con 5 chip, di cui piu della meta con i 2 chip piu grossi.
i chip bassi sono di piu solo per il semplice fatto che avendo margini ridottissimi economicamente non conviene laserarli troppo ( anche perchè essendo piccoli hai meno probabilita di avere chip fallati ), mentre nelle fasce sopra sia per probabilita sia per margini fai meno chip e li laseri di piu.
GP 108 - 1 GPU - 1030
GP 107 - 2 GPU - 1050/1050Ti
GP 106 - 1 GPU - 1060
GP 104 - 3 GPU - 1070/1070Ti/1080
GP 102 - 2 GPU - 1080Ti/Titan
GP 107-108 coprono la fascia bassissima-bassa
GP 106 medio-bassa
GP 104 media / medio-alta / alta
GP 102 altissima / enthusiast
1030 - 100€ --- giusto per avere qualcosa a monitor.
1050 - 160€ --- bassissima
1050Ti - 200€ --- bassa
1060 - 290€ --- medio/bassa
1070 - 430€ ----------------- MEDIA
1070Ti - 480€ --- medio/alta
1080 - 530€ --- alta
1080Ti - 760€ --- altissima
Titan - 1300€ --- enthusiast
( I prezzi sono quelli da sito nVidia, attualmente si sa che sono diversi per altri motivi; per le basse il prezzo ho preso Amazon che sul sito non ci sono. )
se vai anche a guardare il prezzo, togliendo gli estremi Titan e cesso 1030, ti viene un prezzo medio fra la Top 1080Ti e la 1050 che è un po piu alto della 1070 e, se togli solo la Titan ( che ha sempre avuto il suo prezzo "elite" ), come prezzo medio ottieni esattamente il prezzo della 1070.
gp 104 e` venduto in fascia alta ma e` un chip di fascia media (314 mmq).
gp102 e` il 60% piu` grande.
gp106 e` il 30% piu piccolo.
gp104 e` un chip di dimensioni medie, dal costo piuttosto contenuto su un nodo che ha sempre avuto rese e performance elevate, di alto ha solo il prezzo. Ma per quello possiamo solo ringraziare mamma AMD che non ha assolutamente nulla per contrastare la fascia media Nvidia in performance e prezzo.
Ci vorrebbe lo scossone portato da una 290, ma la vedo proprio difficile.
Thunder-74
20-07-2018, 10:37
We ragazzi vi segnalo questo ''leak'' su un result e alcune specifiche della 1170 che sta girando parecchio nei forum inglesi e americani. So che è molto probabile (se non quasi sicuramente) che sia fake per molteplici motivi, ma volevo comunque segnalarvelo.
http://static.frazpc.pl/board/2018/07/28aa94ce9e534039.jpg
con drivers non ottimizzati, 29752 nel graphic score sarebbe plausibile... vicino ad una 1080ti ..
AceGranger
20-07-2018, 10:44
la 10603GB ha un TPC in meno oltre che meno memoria anche se stesso bus (per avere stessa banda), ma esiste se per quello anche la 10605GB con stessi cuda della 6GB ma cache e bus tagliati per arrivare ai 5GB... non capisco dove vuoi arrivare, è talmente palese che la 1080 è fascia alta che non so cosa aggiungere, che poi non sono tanti per me 300€ di fascia media, ma per il mondo intero.
AMD non ha la parte estrema, la parte alta ce l'ha sia nelle performance che nel prezzo, il problema è che consuma come la fascia estrema ma le prestazioni ci sono.
si l'ho scritto anche io che è alta :); tu hai chiesto perchè Michael parlava di chip medio e il motivo è quello, prchè con quel chip ci fanno anche al media e c'è il chip piu grosso dopo.
Non ho capito a cosa li hai postati a fare quei link se ho scritto che vanno uguale e costano uguale, mah... Ho capito solo che come al solito vuoi avere sempre ragione tu anche quando è palese che non ce l'hai :D
....hai editato la frase che prima diceva va di piu e costa meno.....
e io ho quotato dopo la modifica senza essermi accorto della modifica :Prrr: :D
poi mica voglio avere ragione, puoi continuare ad usare al tua formula per il valore medio creativo come ti pare :Prrr:.
Biscottoman
20-07-2018, 10:49
con drivers non ottimizzati, 29752 nel graphic score sarebbe plausibile... vicino ad una 1080ti ..
Si lo score sembra anche a me plausibile, da notare però sia il quantitativo di vram che già fa storcere il naso ma soprattutto la frequenza del clock (da evga precision a fianco si vede anche che non è occata) veramente mostruosa. Poi chiaro sarei solo che felice di vedere una 1170 a questi livelli.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.