View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
Teamprotein
14-06-2018, 10:31
Non stai messo male con una 1080. Io aspetterei. Sui prezzi non si sa nulla e credo che siano improbabili quelli sparati a vanvera dai siti. Se poi veramente sarà un prezzo eccessivo, potrai sempre ripiegare sulla 1080ti che nel frattempo potrà aver subito un calo per l’uscita delle nuove vga.
Inviato dal mio iPhone X utilizzando Tapatalk
Ok vedrò di aspettare sperando che all'uscita delle nuove Vga la 1080 non si saluti eccessivamente
appleroof
14-06-2018, 10:34
Ottimo riassunto puntate precedenti
https://www.tomshw.it/nvidia-gtx-1180-arrivo-devi-sapere-94157
Se riesci a scendere ti faccio notare che nuove partono da 725€ quindi cercherei qualcosa nel range dei 600€ a scendere, e vendendo la tua 1080 sui 450€ per 150€ potrebbe valerne la pena, la 1170 inizialmente penso che costerà tra i 450-550€ e la 1080 si svaluterebbe molto direi che la quotazione nell'usato sarebbe intorno ai 250-300€ quindi la differenza sarebbe la medesima per prezzo/prestazioni...
Io non lo farei, aspetterei :sofico:
Scusa ma come fa a recuperare 450€ di una turbo OC?!? Vendono le 1080 nuove a 460..
Se va bene prende 400€, fossi in lui cmq non cambierei ormai è troppo tardi.
Alla fine che si abbia una 1070, una 1080 o una 1080ti i soldi che ci lasci in svalutazione sono sempre quelli, 50€ più, 50€ meno.
Inoltre non penso proprio che la 1170 costerà 400/450€, quando mi sa ormai certo che la sola 1180 stara sui 1000, la 1170 se andrà come o poco più una 1080ti tra migliorie ecc te la piazzano tranquillamente a 550/600 se non oltre.
Speriamo che la futura 1160 vada più della 1080 e la piazzino sotto i 400 e non 400.
Teamprotein
14-06-2018, 10:57
Scusa ma come fa a recuperare 450€ di una turbo OC?!? Vendono le 1080 nuove a 460..
Se va bene prende 400€, fossi in lui cmq non cambierei ormai è troppo tardi.
Alla fine che si abbia una 1070, una 1080 o una 1080ti i soldi che ci lasci in svalutazione sono sempre quelli, 50€ più, 50€ meno.
Inoltre non penso proprio che la 1170 costerà 400/450€, quando mi sa ormai certo che la sola 1180 stara sui 1000, la 1170 se andrà come o poco più una 1080ti tra migliorie ecc te la piazzano tranquillamente a 550/600 se non oltre.
Speriamo che la futura 1160 vada più della 1080 e la piazzino sotto i 400 e non 400.
Ciao volevo precisare che la mia attuale 1080 l'ho avuta in regalo quindi tutto quello che guadagnerei sarebbe pulito.
Ecco perché avevo visto la 1080ti e ci avevo fatto un pensierino in virtù del fatto che le future 1180 costeranno un botto come sempre.
fraussantin
14-06-2018, 11:00
cut.
Speriamo che la futura 1160 vada più della 1080 e la piazzino sotto i 400 e non 400.
Se la 1170 costerà 550+
La 1160 andrà sui 450+.
Speriamo in un calo di prezzo nei mesi successivi mining permettendo.
Ciao volevo precisare che la mia attuale 1080 l'ho avuta in regalo quindi tutto quello che guadagnerei sarebbe pulito.
Ecco perché avevo visto la 1080ti e ci avevo fatto un pensierino in virtù del fatto che le future 1180 costeranno un botto come sempre.
La cosa più semplice che puoi fare è aspettare. Ti rivendi la tua quando escono le nuove e vai di 1170 che sara meglio della 1080ti.
Io ho una ti e se la 1180 non andrà almeno un 35% in più probabile che faccio il sidegrade (piu o meno) alla 1170 e poi passo direttamente alla nuova ti.
Se la 1070 costerà 550+
La 1060 andrà sui 450+.
Speriamo in un calo di prezzo nei mesi successivi mining permettendo.
È quello che temo.
Tra gddr6 dollaro forte mining e tutto :fagiano:
Potranno sempre dire che la 1180 sara regina, che la 1170 va più della ti, la 1160 più dell 1080 e costeranno meno.
Ed e pure vero (costo).
Peccato però che una 1080 o una ti dovrebbero stare una a 350 e l'altra a 550 nuove già da un po.
Scusa ma come fa a recuperare 450€ di una turbo OC?!? Vendono le 1080 nuove a 460..
Se va bene prende 400€, fossi in lui cmq non cambierei ormai è troppo tardi.
Alla fine che si abbia una 1070, una 1080 o una 1080ti i soldi che ci lasci in svalutazione sono sempre quelli, 50€ più, 50€ meno.
Inoltre non penso proprio che la 1170 costerà 400/450€, quando mi sa ormai certo che la sola 1180 stara sui 1000, la 1170 se andrà come o poco più una 1080ti tra migliorie ecc te la piazzano tranquillamente a 550/600 se non oltre.
Speriamo che la futura 1160 vada più della 1080 e la piazzino sotto i 400 e non 400.
Non avevo visto fosse il modello turbo, sorry :p
Comunque in generale riguardo la svalutazione ci metto un dipende, di norma le ti sono quelle soggette a una svalutazione in % maggiore... Quindi ho solo fatto una valutazione generica su quanto perderebbe in € tra attendere o andare da subito per 1080ti :)
fraussantin
14-06-2018, 11:33
È quello che temo.
Tra gddr6 dollaro forte mining e tutto :fagiano:
Potranno sempre dire che la 1180 sara regina, che la 1170 va più della ti, la 1160 più dell 1080 e costeranno meno.
Ed e pure vero (costo).
Peccato però che una 1080 o una ti dovrebbero stare una a 350 e l'altra a 550 nuove già da un po.( avevo sbagliato le sigle)
Io spero sempre in delle gddr5+ sulla 1160 .
Con le ddr6 sarà dura anche sperare in un calo a breve
( avevo sbagliato le sigle)
Io spero sempre in delle gddr5+ sulla 1160 .
Con le ddr6 sarà dura anche sperare in un calo a breve
Il problema non sono le ddr 5-6-7 .... o altro ma sempre il solito da anni ormai: se AMD contiua il suo letargo, NVIDIA continuierà a ladrare sempre più: scommetti che se a settembre arrivasse sul mercato una AMD NAVI con delle prestazioni simili alla 1080 Ti @ 500-600 euro, la nuova 1180 come per magia la ricollocano nella stessa fascia di prezzo a rescindere dalle ram utilizzate?
Il fatto è che temo che ormai AMD non sarà mai più concorrenziale nelle gpu: speriamo almeno in Intel, perchè altrimenti alla prossima gen per comprare la prossima 2080 bisognerà vender casa a Nvidia :cry:
Se la 1170 costerà 550+
La 1160 andrà sui 450+.
Speriamo in un calo di prezzo nei mesi successivi mining permettendo.
eh? :mbe: chi se li è inventati questi prezzi (assurdi)?
La cosa più semplice che puoi fare è aspettare. Ti rivendi la tua quando escono le nuove e vai di 1170 che sara meglio della 1080ti.
Io ho una ti e se la 1180 non andrà almeno un 35% in più probabile che faccio il sidegrade (piu o meno) alla 1170 e poi passo direttamente alla nuova ti.
esatto, nvidia va supportata..........sia mai che abbassino i prezzi...... :stordita:
eh? :mbe: chi se li è inventati questi prezzi (assurdi)?
Anche se Nvidia ci ha abituato all'assurdo ormai, credo che persino per lei sarebbero eccessivi, o forse no? :eek:
illidan2000
14-06-2018, 14:46
lui :D
:asd: ...sidegrade... santo cielo :rolleyes: tra l'altro con la 1170 si rischia il downgrade rispetto alla 1080ti, ma per lo meno si potrà dire "consumo meno"...
Come si fa ad essere così succube proprio non capisco :O
eh ma la concorrenza, poi ci sono utenti che comprano la 1070, fanno upgrade alla 1080ti e poi sidegradano alla 1170 :doh:
andranno perlomeno uguali dai... poi, man mano che affinano i drivers (o gli engine dei giochi), magari la 1170 prenderà un leggero margine
E quindi chi passa dalla 980ti a 1160 fa un Sidegrade Plus :sofico: :p
appleroof
14-06-2018, 15:59
andranno perlomeno uguali dai... poi, man mano che affinano i drivers (o gli engine dei giochi), magari la 1170 prenderà un leggero margine
ma soprattutto….https://youtu.be/8t7gtx-cCKE?t=4m41s
esatto, nvidia va supportata..........sia mai che abbassino i prezzi...... :stordita:
Se AMD mi presenta una scheda che mi eguaglia in prestazione la 1170 la prenderò in considerazione, altrimenti non e una scelta ma una imposizione.
Se devo cambiare la 1080ti so che faro un sidegrade con la 1170 ma sarà comunque una spesa limitata per avere qualcosa cmq in più e più rivendibile, per poi prendere la nuova ti.
Se AMD mi presenta qualcosa di valido tranquillo che non faro finta di niente, infatti l'anno scorso presi un 1700x al posto del 7800x e quest'anno ho aggiornato al 2700x, gran CPU migliore dell'8700k.
Il succo era che non gli foraggio 1000€ di 1180, per me quello sarà il prezzo se la si vorrà.
Felice di essere smentito.
Vedremo con i 7nm AMD cosa ci darà, di sicuro ho speranza che almeno pareggi la prossima fascia performance di nVidia, anche se solo la x70 sarebbe già un bel colpo.
Credi che se mi tengo la 1080ti ci rimetto meno?
Ormai sono anni che cambio ad ogni release e i soldi che spendi anche aspettando i concorrenti o la gen successiva spendi sempre gli stessi soldi.
Se non si vuole spendere si prende una GPU e la si tiene 4 anni. Senza seguire questi thread, o no?
fraussantin
14-06-2018, 17:21
eh? :mbe: chi se li è inventati questi prezzi (assurdi)?Ti sembrano troppo bassi?:asd:
Ho scritto SE ..... Andando dietro ad un post precedente ALLORA .. sarà ..
Se AMD mi presenta una scheda che mi eguaglia in prestazione la 1170 la prenderò in considerazione, altrimenti non e una scelta ma una imposizione.
Se devo cambiare la 1080ti so che faro un sidegrade con la 1170 ma sarà comunque una spesa limitata per avere qualcosa cmq in più e più rivendibile, per poi prendere la nuova ti.
Se AMD mi presenta qualcosa di valido tranquillo che non faro finta di niente, infatti l'anno scorso presi un 1700x al posto del 7800x e quest'anno ho aggiornato al 2700x, gran CPU migliore dell'8700k.
Il succo era che non gli foraggio 1000€ di 1180, per me quello sarà il prezzo se la si vorrà.
Felice di essere smentito.
Vedremo con i 7nm AMD cosa ci darà, di sicuro ho speranza che almeno pareggi la prossima fascia performance di nVidia, anche se solo la x70 sarebbe già un bel colpo.
Credi che se mi tengo la 1080ti ci rimetto meno?
Ormai sono anni che cambio ad ogni release e i soldi che spendi anche aspettando i concorrenti o la gen successiva spendi sempre gli stessi soldi.
Se non si vuole spendere si prende una GPU e la si tiene 4 anni. Senza seguire questi thread, o no?
Io credo che uno dovrebbe aggiornare in base alle esigenze non alla svalutazione che poi ci siano ottimi periodi per vendere e ottimi per acquistare e si cerca un punto di equilibrio tra i due è un discorso relativo, personalmente io aggiorno solo quando c'è il 100% di prestazioni in più e se ci sono titoli meritevoli che ne hanno esigenza alla risoluzione a cui gioco.
Con la 980ti francamente a 2560x1080 non ho niente che non regga al massimo, nel caso facessero qualche bundle interessante con titoli ben fatti potrei pensarci :p
Thunder-74
14-06-2018, 18:42
Il ragionamento, a mio avviso, più corretto sarebbe quello di cambiare quando si ha effettiva necessità. Questo comporta magari il salto di una o due generazioni di vga, con la piacevole esperienza di avere un boost notevole.
Inviato dal mio iPad utilizzando Tapatalk
boh cioe io sono passato oltre la fase del "aggiorno perche xxxx''.
cioe c'`e chi come me piace aver sempre hardware vario e aggiornato, chi invece cambia per necessità, chi invece perche boh, cioe chissenefrega?
parliamo di hardware nuovo, possiamo non essere d'accordo pero bisogna rispettare le decisioni altrui.
Io so benissimo che passando da 1080ti a 1170 probabilmente è un cambio con poco senso, pero avrò comunque una spesa simile che aspettare la nuova TI e aggiornare direttamente a quella dalla vecchia TI perche le x70 nuove si svaluteranno si ma lo farà ancora di piu la 1080ti. che poi resti comunque la 1080ti scheda di fascia alta nessuno dice il contrario, ma se fate due conti, se si vuole stare al passo, i soldi da cacciare son quelli.
se poi oh uno decide di tenere la 1080/1080ti per 3 anni allora eh niente da dire.
se amd mi tira fuori una scheda che va come la mia attuale e mi costera il passaggio come una 1170, si faranno due conti e si vedrà qualche piace/convince di piu.
Ora parliamoci chiaro le amd in questo momento sono indietro, sono al passo con la 1060 perche la rx580 è probabilmente meglio, ma le vega sono attualmente meno appetibili come schede gaming anche se la rx56 male non è, sta il fatto che col mining ne hanno vendute un botto, ma non ai gamers pero.
Thunder-74
14-06-2018, 19:44
boh cioe io sono passato oltre la fase del "aggiorno perche xxxx''.
cioe c'`e chi come me piace aver sempre hardware vario e aggiornato, chi invece cambia per necessità, chi invece perche boh, cioe chissenefrega?
parliamo di hardware nuovo, possiamo non essere d'accordo pero bisogna rispettare le decisioni altrui.
Io so benissimo che passando da 1080ti a 1170 probabilmente è un cambio con poco senso, pero avrò comunque una spesa simile che aspettare la nuova TI e aggiornare direttamente a quella dalla vecchia TI perche le x70 nuove si svaluteranno si ma lo farà ancora di piu la 1080ti. che poi resti comunque la 1080ti scheda di fascia alta nessuno dice il contrario, ma se fate due conti, se si vuole stare al passo, i soldi da cacciare son quelli.
se poi oh uno decide di tenere la 1080/1080ti per 3 anni allora eh niente da dire.
se amd mi tira fuori una scheda che va come la mia attuale e mi costera il passaggio come una 1170, si faranno due conti e si vedrà qualche piace/convince di piu.
Ora parliamoci chiaro le amd in questo momento sono indietro, sono al passo con la 1060 perche la rx580 è probabilmente meglio, ma le vega sono attualmente meno appetibili come schede gaming anche se la rx56 male non è, sta il fatto che col mining ne hanno vendute un botto, ma non ai gamers pero.
ci sta tutto il cambio senza un motivo, solo per il gusto di trastullarsi con un nuovo hardware. Probabilmente la maggior parte di chi acquista pezzi enthusiast, cambia per questo motivo. Io ad esempio i primi mesi dell'acquisto di una VGA nuova, li passo a fare bench e OC per poi confrontare il tutto con il resto del mondo. Poi quando sono appagato/studiato il nuovo giocattolo, lo uso in modo più consono :) .
Ton90maz
14-06-2018, 20:13
ma soprattutto….https://youtu.be/8t7gtx-cCKE?t=4m41s
Ci mancherebbe, ognuno è libero di spendere i soldi come vuole
Così come ognuno è libero di prendere per il :ciapet: chi fa certi acquisti :oink:
appleroof
14-06-2018, 20:20
Ci mancherebbe, ognuno è libero di spendere i soldi come vuole
Così come ognuno è libero di prendere per il :ciapet: chi fa certi acquisti :oink:
Sono anni anni e anni che si fanno sti discorsi qui sul forum, al netto di consigli e prese per il :ciapet: dettati da fanboismo, l'unica conclusione che ho raggiunto in merito è proprio quella, ma chissenefrega perché uno compra o meno questo e quello, al limite inventarono la sezione apposita anni fa qui sul forum, consigli (o prese per il :ciapet: ) per gli acquisti dove uno può sfoggiare tutta la sua saggezza ed esperienza su cosa e come comprare, per il resto vivi e lascia vivere ;)
Alla fine sono hobby, pensate a chi costruisce modellini o suona strumenti musicali quanti soldi "butta" :sofico:
techsaskia
14-06-2018, 21:05
Infatti sul nuovo è fuori commercio, se vedi a svalutarsi è il 7820X con 8c/16t intorno ai 400€ nuovo :)
Purtroppo per il 6900K devi andare di usato e di :ciapet:, poi anche un 5960X non lo butterei se non per i consumi, in oc a 4.5 arriva a quasi 350w mentre il 6900K sta sotto di 100W :sofico:
Nell'HEDT ho notato che i refresh sono sempre ottimizzati meglio nel performance/watt, 3930K e 5930K sono simili nei consumi ma un 5930K consuma quasi un 30% più di un 4930K per andare il 7-8% in più :/
Vero dimentico sempre che il 5820K è strozzato però sempre meglio delle 20/24 linee della piattaforma consumer :sofico:
Sul discorso ipc, dipende perchè con gli ultimi microcode gran parte del vantaggio haswell>coffelake è andato perso :(
Però bisogna dire che un 2500K a def è un'insulto cioè se non erro dovrebbe stare sui 3.4ghz, già con un oc medio sui 4.5-4.8ghz è tutt'altra sostanza ovviamente con una 1080ti è strozzato uguale ma già con 980ti non se la cava male fatta eccezione per sporadici picchi sui minimi in alcuni titoli abbastanza fastidiosi...
io con il mio 5930K @ 4.2GHz ci vorrei tirare almeno alla prossima generazione di schede tipo due 1180...
per cambiare questa CPU vorrei aspettare il PCI Express 4.
Non ha molto senso cambiare adesso per chi ha una CPU decente visto che ormai il PCI Express 3 ha i giorni contati
io con il mio 5930K @ 4.2GHz ci vorrei tirare almeno alla prossima generazione di schede tipo due 1180...
per cambiare questa CPU vorrei aspettare il PCI Express 4.
Non ha molto senso cambiare adesso per chi ha una CPU decente visto che ormai il PCI Express 3 ha i giorni contati
Concordo, in teoria potremmo slittare direttamente al PCI-E 5.0 se non erro verrà ufficialmente presentato nel 2019 mentre il pci-e 4.0 è stato presentato a giugno dell'anno scorso...
Per non parlare delle DDR5, penso che nel 2020 già inizieremo a vederle forse con la piattaforma HEDT che seguirà l'attuale LGA 3647 che uscirà tra qualche mese...
Siamo in un brutto periodo per aggiornare, ma per giocare un 6c/12t come il 5820K è anche ben sopra i requisiti meglio investire in gpu e monitor...
mikael84
14-06-2018, 23:54
Però bisogna dire che un 2500K a def è un'insulto cioè se non erro dovrebbe stare sui 3.4ghz, già con un oc medio sui 4.5-4.8ghz è tutt'altra sostanza ovviamente con una 1080ti è strozzato uguale ma già con 980ti non se la cava male fatta eccezione per sporadici picchi sui minimi in alcuni titoli abbastanza fastidiosi...
Non dirlo a me che ho portato un 2600k a 5,2 a rischio rottura, tramite BCLK:p , però vedo alcuni fanatici, con una CPU uguale a default:p
( avevo sbagliato le sigle)
Io spero sempre in delle gddr5+ sulla 1160 .
Con le ddr6 sarà dura anche sperare in un calo a breve
Tra ddr5x e ddr6 non cambia nulla, la vera differenza sta nel doppio canale 16b, contro il singolo. Nessun costo aggiuntivo, a meno di lucro.;)
Anche Micron ormai si adegua alle ddr6 dual channel
Il problema non sono le ddr 5-6-7 .... o altro ma sempre il solito da anni ormai: se AMD contiua il suo letargo, NVIDIA continuierà a ladrare sempre più: scommetti che se a settembre arrivasse sul mercato una AMD NAVI con delle prestazioni simili alla 1080 Ti @ 500-600 euro, la nuova 1180 come per magia la ricollocano nella stessa fascia di prezzo a rescindere dalle ram utilizzate?
Il fatto è che temo che ormai AMD non sarà mai più concorrenziale nelle gpu: speriamo almeno in Intel, perchè altrimenti alla prossima gen per comprare la prossima 2080 bisognerà vender casa a Nvidia :cry:
Vero, però attenzione, le nuove AMD dovranno competere con la 1180, non certo con la 1080ti:)
boh cioe io sono passato oltre la fase del "aggiorno perche xxxx''.
cioe c'`e chi come me piace aver sempre hardware vario e aggiornato, chi invece cambia per necessità, chi invece perche boh, cioe chissenefrega?
parliamo di hardware nuovo, possiamo non essere d'accordo pero bisogna rispettare le decisioni altrui.
Io so benissimo che passando da 1080ti a 1170 probabilmente è un cambio con poco senso, pero avrò comunque una spesa simile che aspettare la nuova TI e aggiornare direttamente a quella dalla vecchia TI perche le x70 nuove si svaluteranno si ma lo farà ancora di piu la 1080ti. che poi resti comunque la 1080ti scheda di fascia alta nessuno dice il contrario, ma se fate due conti, se si vuole stare al passo, i soldi da cacciare son quelli.
se poi oh uno decide di tenere la 1080/1080ti per 3 anni allora eh niente da dire.
se amd mi tira fuori una scheda che va come la mia attuale e mi costera il passaggio come una 1170, si faranno due conti e si vedrà qualche piace/convince di piu.
Ora parliamoci chiaro le amd in questo momento sono indietro, sono al passo con la 1060 perche la rx580 è probabilmente meglio, ma le vega sono attualmente meno appetibili come schede gaming anche se la rx56 male non è, sta il fatto che col mining ne hanno vendute un botto, ma non ai gamers pero.
Devi acquistare ciò che credi. Certo poi ne parliamo con informazioni più precise, ma da appassionato non devi metterti alcun vincolo. Essendo in un forum di appassionati, il tuo discorso è perfetto.;)
Appena si sa qualcosa di concreto , ne discutiamo, ora purtroppo è difficile dare consigli, ma non aspettatevi miracoli.
La 1180 sarà per lo più una 1080ti con i thread schedulati, più clock, più stadi, e una BW che in base alla compressione può rendere al meglio in casi estremi.
Conoscendo Pascal, molto dipenderà anche dal lavoro elettrico.:)
Free Gordon
15-06-2018, 01:23
eh? :mbe: chi se li è inventati questi prezzi (assurdi)?
Hmm... se escono molto prima di AMD (non lo so, è un'ipotesi), ho proprio paura che i prezzi saranno quelli (se... ipotesi: la 1160 va' come la 1080 :) ).
E saremo arrivati al nuovo "balzello"...:D con schede di fascia media e medio/bassa che costano come schede di fascia alta del 2013... (450€) :sofico: Ottimo!!!! :asd:
Non dirlo a me che ho portato un 2600k a 5,2 a rischio rottura, tramite BCLK:p , però vedo alcuni fanatici, con una CPU uguale a default:p
Tramite BCLK è roba da veterani, io pure una volta ci andai sul pesante portai il 2500K a 5356mhz (53x101.1) , inutile dire che da allora la cpu non è stata più la stessa, se prima a 4.6ghz reggeva a 1.3v dopo quel giorno ha iniziato a chiederne prima 1.336v e poi 1.35v, nei suoi ultimi giorni in mio possesso lo tenevo a 4.8ghz con 1.405v provai a portarlo intorno ai 5ghz ma oramai aveva un rifiuto psicologico verso il numero 5 penso che dopo i 5356mhz si sia sentito violato e traumatizzato :D
Ora con il 3930K sto facendo il bravo :D potrei tirargli il collo ma 4.5ghz mi bastano e deve durare almeno finchè non vedo un salto di features come aggiornamenti del PCI-E e DDR5 :D
Hmm... se escono molto prima di AMD (non lo so, è un'ipotesi), ho proprio paura che i prezzi saranno quelli (se... ipotesi: la 1160 va' come la 1080 :) ).
E saremo arrivati al nuovo "balzello"...:D con schede di fascia media e medio/bassa che costano come schede di fascia alta del 2013... (450€) :sofico: Ottimo!!!! :asd:
Ma guarda che quei prezzi erano dati dal mining alla loro uscita RX 480 8GB e 1060 6GB si ponevano tra i 280-300€ e dopo un paio si attestarono sui 250€ medi fino a soglie minime di 220-230€, poi i chip cuttati come le RX 470 e 1060 addirittura si piazzarono sui 170-180€...
Ora l'enorme "boom" del mining è finito è impensabile che la 1160 costi 450€, a questo prezzo è lecito aspettarsi la 1170 che forse toccherà anche i 500€ per le custom maggiori, mentre la 1180 di sicuro costerà sui 700€ con uno scarto di +-50€...
Poi se Navi sarà valida e nella sua configurazione maggiore riesce ad avvicinarsi a 1170 di sicuro la concorrenza farà abbassare ulteriormente i prezzi, ma da quello che leggo le prossime gpu di AMD saranno i successori di RX 580 quindi faranno il balzo in avanti con prestazioni da 1080, non so se i chipponi amd usciranno nello stesso anno o a pochi mesi di distanza e non so neanche se scalino adeguatamente con il pompaggio HW...
appleroof
15-06-2018, 05:41
Alla fine sono hobby, pensate a chi costruisce modellini o suona strumenti musicali quanti soldi "butta" :sofico:
Si infatti, il succo è quello...
Ton90maz
15-06-2018, 06:29
Tramite BCLK è roba da veterani, io pure una volta ci andai sul pesante portai il 2500K a 5356mhz (53x101.1) , inutile dire che da allora la cpu non è stata più la stessa, se prima a 4.6ghz reggeva a 1.3v dopo quel giorno ha iniziato a chiederne prima 1.336v e poi 1.35v, nei suoi ultimi giorni in mio possesso lo tenevo a 4.8ghz con 1.405v provai a portarlo intorno ai 5ghz ma oramai aveva un rifiuto psicologico verso il numero 5 penso che dopo i 5356mhz si sia sentito violato e traumatizzato :D
Ora con il 3930K sto facendo il bravo :D potrei tirargli il collo ma 4.5ghz mi bastano e deve durare almeno finchè non vedo un salto di features come aggiornamenti del PCI-E e DDR5 :D
Ma guarda che quei prezzi erano dati dal mining alla loro uscita RX 480 8GB e 1060 6GB si ponevano tra i 280-300€ e dopo un paio si attestarono sui 250€ medi fino a soglie minime di 220-230€, poi i chip cuttati come le RX 470 e 1060 addirittura si piazzarono sui 170-180€...
Ora l'enorme "boom" del mining è finito è impensabile che la 1160 costi 450€, a questo prezzo è lecito aspettarsi la 1170 che forse toccherà anche i 500€ per le custom maggiori, mentre la 1180 di sicuro costerà sui 700€ con uno scarto di +-50€...
Poi se Navi sarà valida e nella sua configurazione maggiore riesce ad avvicinarsi a 1170 di sicuro la concorrenza farà abbassare ulteriormente i prezzi, ma da quello che leggo le prossime gpu di AMD saranno i successori di RX 580 quindi faranno il balzo in avanti con prestazioni da 1080, non so se i chipponi amd usciranno nello stesso anno o a pochi mesi di distanza e non so neanche se scalino adeguatamente con il pompaggio HW...C'è gente che oggi compra le 1060 lucine edition a 400 euro, non siamo tanto lontani.
fraussantin
15-06-2018, 06:44
C'è gente che oggi compra le 1060 lucine edition a 400 euro, non siamo tanto lontani.Peechè vogliamo parlare della 1070 che a 3 giorni dalla 1170 sta sempre ( su lidi ufficiali quali amazon eprice ecc) a 450 500 ?
Peechè vogliamo parlare della 1070 che a 3 giorni dalla 1170 sta sempre ( su lidi ufficiali quali amazon eprice ecc) a 450 500 ?
Trovaprezzi:
1060=271
1070=417€
1070ti=453€
1080=472€
1080ti=705€
Da considerare che le GDDR5 rendono più delle X in mining se le escludiamo possiamo dire che le fasce sono ben divise... :sofico:
fraussantin
15-06-2018, 07:02
Trovaprezzi:
1060=271
1070=417€
1070ti=453€
1080=472€
1080ti=705€
Da considerare che le GDDR5 rendono più delle X in mining se le escludiamo possiamo dire che le fasce sono ben divise... :sofico:Quando parlo di prezzi parlo sempre di canali ufficiali non perchè mi piace buttare via soldi , ma perchè ormai su trovaprezzi in cima alla lista ci trovi o furbacchioni dove ti fanno pagare a parte trasporto o commissioni pp , o vat player.
Il primo shop" serio" è ak che vende la gainward 1070 a 449 euro.
Per la 1080 servono minimo 100 euro in più per una palit.
Non mi pare che abbiano tutta sta furia di svenderle.
Discorso diverso per la 1060 6 giga che sono decisamente calate i effetti.
Tra ddr5x e ddr6 non cambia nulla, la vera differenza sta nel doppio canale 16b, contro il singolo. Nessun costo aggiuntivo, a meno di lucro.;)
Anche Micron ormai si adegua alle ddr6 dual channel
Vero, però attenzione, le nuove AMD dovranno competere con la 1180, non certo con la 1080ti:)
Di sto passo, le prossime AMD competeranno con le riva TNT :muro:
AceGranger
15-06-2018, 09:26
Io non critico chi compra nVidia a priori, ci mancherebbe quando è uscito gp104 non c'era nulla di meglio, ma comprare 3 schede a distanza di 2 anni in quel modo non fa sicuramente bene al mercato.
a meno che uno non sia un Miner, a parte la FE che se la gioca con la Titan ( in ambito Pro ) e la SSG che ha un suo mercato, non esiste ancora nulla di meglio :Prrr:
Ma se si dice che la 1080 andrà +10~15% dalla 1080ti a stock, e che la 1070 al massimo andrà ad un 15% meno della 1080 (ad esempio la 1070 è -20%), mi spiegate come farà la 1170 ad andare di più della 1080ti??? :stordita:
E non state considerando gli stadi moltiplicatori, la 1080ti con un po' di OC andrà di più della 1170 OC con questi numeri, l'unico cosa che cambierà saranno i consumi, ma chissenefrega di 50-100watt, più che sidegrade sei in downgrade...
Accattati na pizzeria, me lo diceva sempre mio suocera ancora prima di sposarmi :D
Quello che non capiscono è che in questo modo si finanzia la politica nVidia e le casse nVidia, in questo modo stai pur certo che i prezzi non li abbassa dato che oltre a fare upgrade tra la stessa Gen c'è chi fa addirittura Sidegrade, ma da perfetti Fanboy nVidia si da la colpa solamente ad AMD di non fare concorrenza per giustificare prezzi alti e mancanza di scelta, che manco ci fossero il 3/4 di fasce scoperta, tutt'oggi l'unica fascia che non copre è quella della 1080ti se non se ne fossero accorti.
Io non critico chi compra nVidia a priori, ci mancherebbe quando è uscito gp104 non c'era nulla di meglio, ma comprare 3 schede a distanza di 2 anni in quel modo non fa sicuramente bene al mercato.
Esattamente, io posso dire quello che mi pare come loro possono comprare ciò che gli pare, ma resta il fatto che in questo modo si finanzia il sistema, è semplicemente una considerazione.
Ma quale Fanboy, fossi un fanboy AMD avrei cambiato mobo cpu e gpu ogni 6/12 mesi, e intanto viaggio ancora con una saberthoot 990fx del 2012, fx8320e preso a 120€ nel 2015 (prima avevo il 955be dato che il socket AM3+ lo permetteva) e ho preso una rx480 usata nel 2017 dopo aver cambiato una 6870 presa nel 2012.
Adesso rifletti e dimmi chi sono i veri Fanboy :D
Non appena si scrive qualcosa di diverso da come la pensate, si viene etichettati per Fanboy... mah...
No, di sto passo pure Intel supererà AMD nelle discrete nel 2020 :D
Beh, non è che Intel non ne abbia le possibilità (di sviluppare una gpu performante), bisogna solo vedere se è davvero un mercato che le interessa; sperem ...
AceGranger
15-06-2018, 09:35
beh, per lo meno c'è una pseudo-scelta in quella fascia gaming :D
ah bè si, ci sono i cavalieri bianchi salvatori del mercato a cui piace spendere soldi per avere di meno e non acquistare la brutta e cattiva nVidia.
l'importante è essere felici :)
TigerTank
15-06-2018, 09:50
Io al momento me ne sto in una bolla di isolamento da rumors e hype sulle presunte novità. Sono ripiombato tra i carri armati di WoT tra fibra, client HD, Sli funzionante e campagne personalizzate :sofico:
Cerco in primis di non pensare ai probabili costi dei prossimi upgrade tra ambito cpu+mobo+ram e ambito gpu+monitors, visto che vendono ancora le 1070 sulle 500€ e salvo rarissime occasioni pure gli schermi da gaming o hanno mantenuto il costo o sono addirittura aumentati. Si vedrà :D
Al momento forse gli unici componenti hardware convenienti sono gli SSD da 2,5".
appleroof
15-06-2018, 10:42
Io al momento me ne sto in una bolla di isolamento da rumors e hype sulle presunte novità. Sono ripiombato tra i carri armati di WoT tra fibra, client HD, Sli funzionante e campagne personalizzate :sofico:
Cerco in primis di non pensare ai probabili costi dei prossimi upgrade tra ambito cpu+mobo+ram e ambito gpu+monitors, visto che vendono ancora le 1070 sulle 500€ e salvo rarissime occasioni pure gli schermi da gaming o hanno mantenuto il costo o sono addirittura aumentati. Si vedrà :D
Al momento forse gli unici componenti hardware convenienti sono gli SSD da 2,5".
Io invece mi sobo rifugiato in american trucks simulator :asd:
boh cioe io sono passato oltre la fase del "aggiorno perche xxxx''.
cioe c'`e chi come me piace aver sempre hardware vario e aggiornato, chi invece cambia per necessità, chi invece perche boh, cioe chissenefrega?
parliamo di hardware nuovo, possiamo non essere d'accordo pero bisogna rispettare le decisioni altrui.
Io so benissimo che passando da 1080ti a 1170 probabilmente è un cambio con poco senso, pero avrò comunque una spesa simile che aspettare la nuova TI e aggiornare direttamente a quella dalla vecchia TI perche le x70 nuove si svaluteranno si ma lo farà ancora di piu la 1080ti. che poi resti comunque la 1080ti scheda di fascia alta nessuno dice il contrario, ma se fate due conti, se si vuole stare al passo, i soldi da cacciare son quelli.
se poi oh uno decide di tenere la 1080/1080ti per 3 anni allora eh niente da dire.cut
Compra sempre quello che ti piace.
Se avessi ascoltato consigli per altro autorevoli oggi non avrei la mia scheda che considero e tratto come un gioiellino.
Sono fan dell aria alla fine mi son detto 3 anni fa. Inutile seguire strade che non fanno per me.
Poi è sempre bello leggere di chi ha liquido e bencha come un dannato e nel giro di una gen cambia chip.
A me deve durare tanto l investimento è se scendo di res non è un dramma.
Alla fine diverse forme della stessa passione
Io al momento me ne sto in una bolla di isolamento da rumors e hype sulle presunte novità. Sono ripiombato tra i carri armati di WoT tra fibra, client HD, Sli funzionante e campagne personalizzate :sofico:
Cerco in primis di non pensare ai probabili costi dei prossimi upgrade tra ambito cpu+mobo+ram e ambito gpu+monitors, visto che vendono ancora le 1070 sulle 500€ e salvo rarissime occasioni pure gli schermi da gaming o hanno mantenuto il costo o sono addirittura aumentati. Si vedrà :D
Al momento forse gli unici componenti hardware convenienti sono gli SSD da 2,5".
Se avessi due 1070 come nel tuo caso penserei a due opzioni la prima è venderne una per monetizzare e nel frattempo usare l'altra fino alle prossime uscite, oppure come seconda opzione le vendi entrambe e prendi una singola 1080ti usata vai sia a monetizzare che a guadagnarne di salute dato il supporto sli :fagiano:
Biscottoman
15-06-2018, 11:34
Le ultime news del giorno prese dai vari siti di punta sono tutte focalizzate sul RayTracing e sul supporto dell'HDR alle frequenze grazie al nuovo hdmi 2.1. Però si fa ancora accenno ai prezzi "standard" di 699/799$ come prezzo di lancio per il modello 1180/2080.
https://tech.everyeye.it/articoli/speciale-nvidia-gtx-1180-in-arrivo-con-hdmi-2-1-rendering-rtx-hardware-gpu-boost-4-0-39320.html
Sembra che ormai si stia puntando tutto sui nuovi monitor top di gamma in uscita che attualmente mi sembrano gli unici in grado di fornire tutte le tecnologie indicate, peccato che costino ben più di quanto potranno costare le nuove schede :asd:
La bufala dei prezzi assurdi l'hanno messa perche' col panico del mercato attuale attecchisce facilmente nella testa della gente (mining e 0 competizione), cosi' potranno allegramente fare un altro incremento +50$ su ogni fascia, con il compratore di turno contento per aver pagato un surplus minimo rispetto a quanto paventato.
Per la serie ti inchiapetto sereno e ti piace pure :D
Io mi ricordo le 1080 fe in negozio al lancio costavano 800€, e parlo di prezzo più basso di tutti.
Ora mi aspetto almeno quel prezzo al lancio x la x80 e per alcuni mesi cosi come successe per la 1080 sino al lancio della 1080ti, in questo caso la x80ti.
L'unica era la 1070 per invogliare chi aveva la 980ti a vendere e poi cambiare a 450€.
Quest'anno (anche se ormai credo sempre più ad un lancio a fine anno o giù di li) mi aspetto almeno un +50€ su entrambe.
Ora i prezzi si sono assestati ma siamo sempre intorno a 500€ per una 1080, assurdo.
Quindi i prezzi potranno solamente essere alti :)
Arrow0309
15-06-2018, 13:18
Io mi ricordo le 1080 fe in negozio al lancio costavano 800€, e parlo di prezzo più basso di tutti.
Ora mi aspetto almeno quel prezzo al lancio x la x80 e per alcuni mesi cosi come successe per la 1080 sino al lancio della 1080ti, in questo caso la x80ti.
L'unica era la 1070 per invogliare chi aveva la 980ti a vendere e poi cambiare a 450€.
Quest'anno (anche se ormai credo sempre più ad un lancio a fine anno o giù di li) mi aspetto almeno un +50€ su entrambe.
Ora i prezzi si sono assestati ma siamo sempre intorno a 500€ per una 1080, assurdo.
Quindi i prezzi potranno solamente essere alti :)
Quoto, sopratutto se ci saranno due vers di xx80, la 8gb e la 16gb.
Quest'ultima non mi aspetto davvero di trovarla sotto i 1000. :fagiano:
Teamprotein
15-06-2018, 13:41
Io però non mi capacito dell'utilità di 16gb in ambito Gaming Ok che usciranno i 4k a 120hz ma davvero 16gb non sono eccessivi.
Adesso con 8gb in 1440 tutto a cannone ci stai dentro bene
Boh forse mi sbaglierò é sempre la solita mossa di marketing attira gente
Dipende sempre da come viene concepito in egine di gioco.
Fiche deve essere scalabile anche con le console, hai sempre una sorta di elasticoche ti tiene ancorato ad esse. Hai molta più potenza ma non viene sfruttata a dovere.
Comunque le vere textures in 4K hanno dimensioni notevoli.
Dici vere perché per questioni tecniche/monetarie finora non ho mai visto textures create realmente a risoluzioni superiore e poi downscalate, fanno esattamente l’opposto, textures a 1024 o 2048 per poi upscalarle. Quindi alla fine hai pixel interpolati.
Se hai potoshop o un programma simile, vai su quixel.se e guarda la sezione megascan, un materiale 4K, magari in hdr, full mapped, poi vedi che anche streammando i 16gb in ambienti complessi (anzi direi anche medio complessi) li potresti tranquillamente utilizzare.
Io comunque so già che non resisterò, già solo x l’rtx, anche se alla fine sui giochi si vedrà marginalmente. Magari amd mi stupisce come con Ryzen con le nuove gpu ma la vedo una impresa ardua, ma come si suol dire, mai dire mai :)
Teamprotein
15-06-2018, 13:58
Dipende sempre da come viene concepito in egine di gioco.
Fiche deve essere scalabile anche con le console, hai sempre una sorta di elasticoche ti tiene ancorato ad esse. Hai molta più potenza ma non viene sfruttata a dovere.
Comunque le vere textures in 4K hanno dimensioni notevoli.
Dici vere perché per questioni tecniche/monetarie finora non ho mai visto textures create realmente a risoluzioni superiore e poi downscalate, fanno esattamente l’opposto, textures a 1024 o 2048 per poi upscalarle. Quindi alla fine hai pixel interpolati.
Se hai potoshop o un programma simile, vai su quixel.se e guarda la sezione megascan, un materiale 4K, magari in hdr, full mapped, poi vedi che anche streammando i 16gb in ambienti complessi (anzi direi anche medio complessi) li potresti tranquillamente utilizzare.
Io comunque so già che non resisterò, già solo x l’rtx, anche se alla fine sui giochi si vedrà marginalmente. Magari amd mi stupisce come con Ryzen con le nuove gpu ma la vedo una impresa ardua, ma come si suol dire, mai dire mai :)
Ah capito il concetto è ti dirò che comunque mi sta salendoa scimmia pure a me:D
Alla fine arriverà nel mio s340 :D
mikael84
15-06-2018, 15:13
Quoto, sopratutto se ci saranno due vers di xx80, la 8gb e la 16gb.
Quest'ultima non mi aspetto davvero di trovarla sotto i 1000. :fagiano:
Sono piuttosto probabili. Le ddr6 hanno il vantaggio del MC da 2gb e 4gb a "conchiglia" (max 48gb su una quadro T6000). Per Nvidia inoltre sarebbe un danno di marketing partire con meno ram di una scheda che nel bene o nel male vuole sostituire momentaneamente (1080ti) e spacciarla per enthusiast.
Le due versioni di ram potrebbero essere concrete.:)
Samsung ha BW più veloci di Hynix e Micron, ed MC da 2gb pronti, quindi potremmo vedere una 1180 con 16gb ddr6 a 14/16 gb/s e 8gb a 12/14.
Non una bella situazione.
Oppure si parte direttamente a 16gb, ma con un rincaro.
Attualmente la doppia versione ram, è la migliore, considerando l'uso di questa.
Io però non mi capacito dell'utilità di 16gb in ambito Gaming Ok che usciranno i 4k a 120hz ma davvero 16gb non sono eccessivi.
Adesso con 8gb in 1440 tutto a cannone ci stai dentro bene
Boh forse mi sbaglierò é sempre la solita mossa di marketing attira gente
Considera che le GDDR6 hanno una maggiore densità e probabilmente da qui a 5-6 più o meno avremo lo stesso quantitativo di memoria senza incrementi ...
Anche quando uscii la 5870 2GB si diceva che 2GB erano troppi e non servivano, tempo 2 anni e 1GB non lo vedi neanche più nelle entry level :sofico:
Comunque se hai provato Skyrim moddato con texture 4K/8K a gogo posso garantirti che saturi anche gli 11GB di una 1080ti appoggiandoti poi alla ram :p
Sono piuttosto probabili. Le ddr6 hanno il vantaggio del MC da 2gb e 4gb a "conchiglia" (max 48gb su una quadro T6000). Per Nvidia inoltre sarebbe un danno di marketing partire con meno ram di una scheda che nel bene o nel male vuole sostituire momentaneamente (1080ti) e spacciarla per enthusiast.
Le due versioni di ram potrebbero essere concrete.:)
Samsung ha BW più veloci di Hynix e Micron, ed MC da 2gb pronti, quindi potremmo vedere una 1180 con 16gb ddr6 a 14/16 gb/s e 8gb a 12/14.
Non una bella situazione.
Oppure si parte direttamente a 16gb, ma con un rincaro.
Attualmente la doppia versione ram, è la migliore, considerando l'uso di questa.
Infatti è altamente probabile questo scenario, cosi da dare un vantaggio anche in termini di latenze e clock alla variante da 16GB, per chi cambia spesso può tranquillamente sbattersene e puntare alla 8GB sopratutto se ancorato ai 1440p, comunque secondo ma la 1170 in qualche modo verrà cuttata sulla vram è probabile che la riducano a 224bit e 7/14GB
appleroof
15-06-2018, 16:16
Io vedo che 6gb cominciano a stare stretti solo in casi sporadici da qualche mesetto, parlo di 3440x1440 più filtri...forse tutto sommato preferirei 8gb (con le tecniche di compressione sempre più efficaci) e pagare la scheda un po' meno piuttosto che 16gb
certo, magari in ottica 4k meglio 16gb subito
TigerTank
15-06-2018, 16:39
Se avessi due 1070 come nel tuo caso penserei a due opzioni la prima è venderne una per monetizzare e nel frattempo usare l'altra fino alle prossime uscite, oppure come seconda opzione le vendi entrambe e prendi una singola 1080ti usata vai sia a monetizzare che a guadagnarne di salute dato il supporto sli :fagiano:
Guarda ci avevo pensato ma al momento considerato pure il cambio di vram mi sa che mi conviene prima vedere come sarà effettivamente la 1170. Su 1440p da gaming imho andrà alla grande come la 1080Ti ora.
La 1180 credo tenderà più verso la 4K(anche se la scheda ideale inizierà ad essere la TI)...ma il tutto sarà costosetto viste le premesse, tra vga e nuovi schermi da gaming "accadierre".
mikael84
15-06-2018, 16:58
Infatti è altamente probabile questo scenario, cosi da dare un vantaggio anche in termini di latenze e clock alla variante da 16GB, per chi cambia spesso può tranquillamente sbattersene e puntare alla 8GB sopratutto se ancorato ai 1440p, comunque secondo ma la 1170 in qualche modo verrà cuttata sulla vram è probabile che la riducano a 224bit e 7/14GB
In caso di chip con cache fallata sei obbligato ad andare di MC da 2gb, non puoi assolutamente presentare una 1170 a 7gb, meno addirittura della 1070.:fagiano:
Se si utilizza un doppio taglio l'unica soluzione è abbinarlo alla 1180, altrimenti ti ritroveresti la 1170 da 16 e la 1180 da 8gb, con un prezzo maggiorato per la prima.
La 1170 potrebbe avere un buon senso con 8gb (12-14gb/s) e 1180 con doppio taglio. Puoi inventarti una buona versione extra della 1180.
Altrimenti la soluzione unica, con entrambe MC da 2gb ( che personalmente vedo anche come probabile):)
Io vedo che 6gb cominciano a stare stretti solo in casi sporadici da qualche mesetto, parlo di 3440x1440 più filtri...forse tutto sommato preferirei 8gb (con le tecniche di compressione sempre più efficaci) e pagare la scheda un po' meno piuttosto che 16gb
certo, magari in ottica 4k meglio 16gb subito
Una 1180 da 8gb non la prenderei mai, è vero che con 8gb si sta bene mediamente, ma già ora hai giochi che ne allocano di più, e spesso portano stuttering evidente. Considera che questa scheda potresti tenerla 3/4 anni e tutto può succedere. :)
Valuterei meglio una 1170 con 8gb, dove avresti un buon rapporto prezzo/prestazioni.
Il bus purtroppo permette questi tagli, l'ideale per questa scheda sarebbe un taglio da 12gb, ma MC da 1,5gb non ce n'è :D
appleroof
15-06-2018, 18:14
cut
Una 1180 da 8gb non la prenderei mai, è vero che con 8gb si sta bene mediamente, ma già ora hai giochi che ne allocano di più, e spesso portano stuttering evidente. Considera che questa scheda potresti tenerla 3/4 anni e tutto può succedere. :)
Valuterei meglio una 1170 con 8gb, dove avresti un buon rapporto prezzo/prestazioni.
Il bus purtroppo permette questi tagli, l'ideale per questa scheda sarebbe un taglio da 12gb, ma MC da 1,5gb non ce n'è :D
ah, allora non ne ho beccati manco uno Mike, di recenti a memoria ho giocato l'ultimo ME, Dues Ex, ultimo Wolfenstein, AC Origins e enessuno mi ha saturato i 6gb tranne Deus EX...solo per sincera curiosità, quali giochi allocano più di 8gb? e a che ris/filtri? E poi perdonami Mike, ma dove stuttera una 1180 con 8gb lo farebbe pure una 1170 con 8gb...
Comunque vediamo, intanto vediamo quando escono le vga, considera poi che io non credo proprio di muovermi dal monitor attuale per molto tempo
mikael84
15-06-2018, 19:37
ah, allora non ne ho beccati manco uno Mike, di recenti a memoria ho giocato l'ultimo ME, Dues Ex, ultimo Wolfenstein, AC Origins e enessuno mi ha saturato i 6gb tranne Deus EX...solo per sincera curiosità, quali giochi allocano più di 8gb? e a che ris/filtri? E poi perdonami Mike, ma dove stuttera una 1180 con 8gb lo farebbe pure una 1170 con 8gb...
Comunque vediamo, intanto vediamo quando escono le vga, considera poi che io non credo proprio di muovermi dal monitor attuale per molto tempo
Attualmente ci sono già giochi che allocano oltre 8gb nel lungo (shadow of war/COD,alcune volte anche tomb raider).
Non creano problemi, è più che altro memoria allocata (ben diverso su 6gb, dove in alcuni giochi lo stuttering si notava, in un parco giochi maggiore).
Il discorso è che la 1170 partirebbe come una 1080 pompata, un chip da 1440p con un migliore possibile rapporto prezzo/prestazioni. I 16gb porterebbero più costi in quella fascia.
La 1180, è un chip che non dovrebbe avere alcuna limitazione, sopratutto per chi aspetta di metterla in un sistema 4k. Prenderei una 1080ti a sto punto:)
Anche AMD virerà sui 16gb.
In caso di chip con cache fallata sei obbligato ad andare di MC da 2gb, non puoi assolutamente presentare una 1170 a 7gb, meno addirittura della 1070.:fagiano:
Se si utilizza un doppio taglio l'unica soluzione è abbinarlo alla 1180, altrimenti ti ritroveresti la 1170 da 16 e la 1180 da 8gb, con un prezzo maggiorato per la prima.
La 1170 potrebbe avere un buon senso con 8gb (12-14gb/s) e 1180 con doppio taglio. Puoi inventarti una buona versione extra della 1180.
Altrimenti la soluzione unica, con entrambe MC da 2gb ( che personalmente vedo anche come probabile):)
Effettivamente una 1170 da 7GB avrebbe poco senso ma se optano per gli MC da 2GB, 14GB totali sono più che fattibili e con un bus a 224bit 12-14gb/s e 3072cc non sarebbe neanche messa maluccio come GPU (andrebbe giusto giusto un 20% meno da 1180 che a sua volta recupera un 5% se con memorie a 16gb/s) :)
Il bus purtroppo permette questi tagli, l'ideale per questa scheda sarebbe un taglio da 12gb, ma MC da 1,5gb non ce n'è :D
Se vuoi possono disattivare l'intero GPC e lasciare un bus a 192bit :fagiano:
Credo che in quel caso andrebbe giusto un 10-15% più di una 1080 il che può piacere come no :p
Non so se è gia stato postato.
https://www.youtube.com/watch?v=xA-QTwt9YQA
Non so se è gia stato postato.
https://www.youtube.com/watch?v=xA-QTwt9YQA
Niente di che, solite pippe come le facciamo noi fantasticando con i cut e dotazione di vram :sofico:
Arrow0309
16-06-2018, 10:25
Effettivamente una 1170 da 7GB avrebbe poco senso ma se optano per gli MC da 2GB, 14GB totali sono più che fattibili e con un bus a 224bit 12-14gb/s e 3072cc non sarebbe neanche messa maluccio come GPU (andrebbe giusto giusto un 20% meno da 1180 che a sua volta recupera un 5% se con memorie a 16gb/s) :)
Si ma solo nel caso non ci siano 1180 8gb alcune.
Biscottoman
16-06-2018, 11:42
A me comunque dalle ultime notizie sembra che in giro ci siano aspettative abbastanza elevate per quanto concerne i clock di queste nuove gpu dovute al nuovo ipotetico "GPU boost 4.0". A mio avviso l'obiettivo sarebbero i 2 Ghz di reference in boost che quindi aumenterebbero con gli overclock dei modelli custom. Secondo voi che differenze ci saranno rispetto all'attuale generazione nVidia?
In caso di chip con cache fallata sei obbligato ad andare di MC da 2gb, non puoi assolutamente presentare una 1170 a 7gb, meno addirittura della 1070.:fagiano:
Uh? E perchè mai.
La 780 aveva un taglio da 6GB, la 980 al massimo da 4 ad esempio.
La 390 AMD aveva 8GB di default, la 480 e Fury ne avevano 4 di default.
Ci sono molteplici precedenti da entrambe le parti di successori con memorie di dimensioni minori, mi pare anche 8800-9800.
Insomma, è già successo, e non credo affatto che un taglio di un gigabyte sia tutta 'sta gran perdita. Se le scelte ingegneristiche ti spingono verso quel compromesso lo prendi..
appleroof
16-06-2018, 13:02
Ma i 14/16GB di VRAM a cosa servirebbero? A giustificare prezzi folli?
io tengo molta considerazione delle opionioni di Mike, ma in questo caso specifico ripeto con 6gb ancora non sento bisogno di più vram anche con giochi 2018 a risoluzione alta + filtri, per me 8gb sono già sufficienti (magari con ulteriori miglioramenti delle tecniche di compressione), mi sbaglierò
però è pur vero che in ottica longevità (o 4k) meglio averne
fraussantin
16-06-2018, 13:08
La 1170 a 7 giga verrebbe snobbata in mezzo mondo dove i gigghi contano più della gpu stessa ( anche se non quanto i led) e magari si troverebbe presto a prezzi umani.
fraussantin
16-06-2018, 13:54
Niente vieta cmq di fare doppia versione1180 chip 16 gg
1170 ti 8 gg cut
1170 7 gg cut+
?
Ormai non mi stupisco più di niente da nvidia.
Il nabbo di turno
16-06-2018, 14:04
Con memorie più veloci si potrebbe giustificare anche un bus più piccolo, se con delle gddr5x e un bus di 256 bit arrivi a 320gb/s, ma all'atto pratico è come se ne avesse 500gb/s.
Io onestamente ce la vedrei con delle gddr6 14/16gbps e un bus di 192 bit e 12gb di vram...
mikael84
16-06-2018, 14:48
Uh? E perchè mai.
La 780 aveva un taglio da 6GB, la 980 al massimo da 4 ad esempio.
La 780 aveva il taglio da 3gb con 12 MC da 256mb, mentre la Titan utilizzava i 6gb in modalità conchiglia. In seguito aggiornarono con gli MC da 512 (ma su alcuni modelli, non nasce così,solo a fine vita).
La 980 uguale, MC da 512mb ma per 8.
La 390 AMD aveva 8GB di default, la 480 e Fury ne avevano 4 di default.
Discorso diverso, la 390 aveva aveva un grosso bus da ben 512 bit, quindi 16 MC da 256mb per la 290 ed in seguito aggiornata agli MC da 512mb, per un totale di 8gb;)
Ci sono molteplici precedenti da entrambe le parti di successori con memorie di dimensioni minori, mi pare anche 8800-9800.
Si i tagli ram vanno in base al bus.
La 8800 adottava un 384bit, mentre la 9800 un 256bit, ma con le veloci samsung;)
Insomma, è già successo, e non credo affatto che un taglio di un gigabyte sia tutta 'sta gran perdita. Se le scelte ingegneristiche ti spingono verso quel compromesso lo prendi..
Un taglio di un GB non è una tragedia, ma di certo Nvidia non proporrà mai una 1170 con meno ram della 1070 in caso di chip fallati.
Le ddr6 permettono l'MC da 2gb, e quelli verranno utilizzati, salvo partire con il doppio MC, che tramite bus diventano 8/16gb.;)
Con memorie più veloci si potrebbe giustificare anche un bus più piccolo, se con delle gddr5x e un bus di 256 bit arrivi a 320gb/s, ma all'atto pratico è come se ne avesse 500gb/s.
Io onestamente ce la vedrei con delle gddr6 14/16gbps e un bus di 192 bit e 12gb di vram...
Non puoi mettere il bus che vuoi devi collegare correttamente i GPC.
Un GPC=64 bit/ 4 GPC 256bit (8/16gb)
mikael84
16-06-2018, 15:19
Effettivamente una 1170 da 7GB avrebbe poco senso ma se optano per gli MC da 2GB, 14GB totali sono più che fattibili e con un bus a 224bit 12-14gb/s e 3072cc non sarebbe neanche messa maluccio come GPU (andrebbe giusto giusto un 20% meno da 1180 che a sua volta recupera un 5% se con memorie a 16gb/s) :)
Se vuoi possono disattivare l'intero GPC e lasciare un bus a 192bit :fagiano:
Credo che in quel caso andrebbe giusto un 10-15% più di una 1080 il che può piacere come no :p
Non ti ho capito bene, intendi la 1170? Disattivando un canale completo, saresti limitato a 2666cc, 48 rop's e perderesti completamente il canale l2.
Una follia.
La 1170, potrebbe, come detto debuttare con 8gb e sfruttare gli MC da 1gb di hynix e Micron, per un rapporto prezzo prestazioni migliore, anche se Nvidia vuole attirare al cambio anche chi ha 1080ti.:fagiano:
La 1180 parte per forza di cose con 4 GPC completi., non avrà alcun taglio. Un canale di collegamento costa circa 50mmq2 con la nuova l2.
768cc/16 rop's/64 bit. :)
Non ti ho capito bene, intendi la 1170? Disattivando un canale completo, saresti limitato a 2666cc, 48 rop's e perderesti completamente il canale l2.
Una follia.
La 1170, potrebbe, come detto debuttare con 8gb e sfruttare gli MC da 1gb di hynix e Micron, per un rapporto prezzo prestazioni migliore, anche se Nvidia vuole attirare al cambio anche chi ha 1080ti.:fagiano:
La 1180 parte per forza di cose con 4 GPC completi., non avrà alcun taglio. Un canale di collegamento costa circa 50mmq2 con la nuova l2.
768cc/16 rop's/64 bit. :)
Sisi relativo a 1170, l'idea non era quella di disattivare l'intero GPC (anche se in commento precedente l'ho detto scherzosamente per avere i 12GB di vram) in quanto ne verrebbe fuori un chip estremamente piccolo che andrebbe forse ad essere fortunati un 20% più di una 1080, bensì di eseguire un CUT in stile 1080ti, disattivando 4 tpc e un canale a 32bit come su 1080ti, quindi ne verrebbe fuori un chip con 3072cc, 56 rops e bus a 224bit con appunto 14GB di vram ovviamente se si opta per il doppio taglio non avrebbe senso e avremo il bus pieno per non perdere il collegamento a 8GB di vram :)
Giusto per intenderci a quello che pensavo:
https://s33.postimg.cc/l239uzobv/1170.jpg (https://postimg.cc/image/l239uzobv/)
mikael84
17-06-2018, 00:10
Sisi relativo a 1170, l'idea non era quella di disattivare l'intero GPC (anche se in commento precedente l'ho detto scherzosamente per avere i 12GB di vram) in quanto ne verrebbe fuori un chip estremamente piccolo che andrebbe forse ad essere fortunati un 20% più di una 1080, bensì di eseguire un CUT in stile 1080ti, disattivando 4 tpc e un canale a 32bit come su 1080ti, quindi ne verrebbe fuori un chip con 3072cc, 56 rops e bus a 224bit con appunto 14GB di vram ovviamente se si opta per il doppio taglio non avrebbe senso e avremo il bus pieno per non perdere il collegamento a 8GB di vram :)
Giusto per intenderci a quello che pensavo:
https://s33.postimg.cc/l239uzobv/1170.jpg (https://postimg.cc/image/l239uzobv/)
Questo schema si può fare benissimo, con 3072cc e 56 rop's (96 memorizzate), si potrà formare una 1170 anche più potente della 1080ti default (con i vari pesanti DC) per latenze.
Il problema nasce dal TDP, che non deve superare certe soglie (135w/3GPC, 150 con l'utilizzo parziale del 4GPC:) e dalla troppa vicinanza tra 1170 e 1180.
Penso che cercheranno di trovare un compromesso su tale TDP, con una differenza media del 20%, in modo da far rilievo alla 1180.:)
Certo una 1170 così, sarebbe un best, e qua non sbagli.:p
Ton90maz
17-06-2018, 01:36
Non c'è nessun problema di TDP, se non nella testa di qualcuno che vuole a tutti i costi chippini eco-hipster di serie B. Peccato che non tutti la pensino come me.
Questo schema si può fare benissimo, con 3072cc e 56 rop's (96 memorizzate), si potrà formare una 1170 anche più potente della 1080ti default (con i vari pesanti DC) per latenze.
Il problema nasce dal TDP, che non deve superare certe soglie (135w/3GPC, 150 con l'utilizzo parziale del 4GPC:) e dalla troppa vicinanza tra 1170 e 1180.
Penso che cercheranno di trovare un compromesso su tale TDP, con una differenza media del 20%, in modo da far rilievo alla 1180.:)
Certo una 1170 così, sarebbe un best, e qua non sbagli.:p
Infatti ho pensato a uno schema simile abbinato anche a GDDR6 a 12gb/s o 14gb/s (quindi parliamo di una banda di circa 336-392gb/s con 224bit) in questo modo dovresti avere comunque quel 20-25% di differenza da 1180 che invece avrebbe un bus a 256bit + 16gb/s (quindi una bw di circa 512gb/s) e l'accesso a tutte le unità...
Io spero usino lo stesso approccio di Maxwell viste anche le dimensioni del chip simili, la 970 infatti aveva un tdp di 145w mentre 980 165w se così fosse direi che siamo a cavallo, cosa che eviterei è un eventuale malsano cut come la 970 con tanto di ponticello :sofico:
Per la 1080ti sarebbe sempre lo stesso discorso, come potenza bruta sopratutto in OC sarebbe comunque sopra non di tantissimo forse un 5% dato che parliamo di un chippone decisamente più muscle e gran parte della differenza la farebbero anche i clock però dipende dall'engine, con 4 GPC hai meno latenze e sfruttando bene tutte le risorse alla fine siamo li...
Poi se commercialmente vogliono incrementare il distacco da 1180 con un 25-30% e avere una lieve differenza da 1080ti del 7-10% potrebbero anche disabilitare altre unità portando il chip a 2944cc o addirittura con 2816cc e 52 rops, simile strutturalmente a quanto visto per le 1070m, ma deve andare veramente male per vedere un cut cosi brutale :fagiano:
Disattivare un intero GPC è un eresia... 192bit sono troppo pochi per un chip x70 il cut max ipotizzabile è 224bit o in alternativa bus pieno a 256bit...
192bit posso aspettarmeli con 1160, anche se su quest'ultima vorrebbe dire montare 6/12gb di vram quindi veramente tanta per un chip di fascia media però non sarebbe neanche strano anche la 1060 ha ereditato 3/6GB di vram rispetto ai soli 2/4GB della 960 pareggiando con la 980ti (almeno per la vram) quindi può starci che la 1160 pareggi in quanto vram con 1080ti :)
Ragionando sul mercato, potremmo trovarci in quest'ottica con la vram totale:
1130 2GB: 512cc/64bit/16rops
1150 4GB: 896cc/128bit/24rops
1150ti 8GB: 1024cc/128bit/32rops
1160 6GB: 1536cc/192bit/48rops (32 eleaborate)
1160 12GB: 1792cc/192bit/48rops (32 eleaborate)
1170 14GB: 3072cc/224bit/56rops
1170ti 16GB: 3328cc/256bit/56rops
1180 16GB: 3584cc/256bit/64rops
1180ti 22GB: 4992cc/352bit/88rops
Titan XT 24GB: 5376cc/384bit/96rops
Almeno questo è un mio parere del tutto personale in base alle gen precedenti quindi va sempre preso con pinze...
AceGranger
18-06-2018, 09:49
Non c'è nessun problema di TDP, se non nella testa di qualcuno che vuole a tutti i costi chippini eco-hipster di serie B. Peccato che non tutti la pensino come me.
è una GPU media, quanti Watt gli vuoi dare ? e poi con la TOP cosa fai, la metti a 400W ?
s'è visto il gran lavoro e il colpo di genio che ha avuto AMD a mandare fuori delle GPU con tutti quei Watt.
Arrow0309
18-06-2018, 09:52
Disattivare un intero GPC è un eresia... 192bit sono troppo pochi per un chip x70 il cut max ipotizzabile è 224bit o in alternativa bus pieno a 256bit...
192bit posso aspettarmeli con 1160, anche se su quest'ultima vorrebbe dire montare 6/12gb di vram quindi veramente tanta per un chip di fascia media però non sarebbe neanche strano anche la 1060 ha ereditato 3/6GB di vram rispetto ai soli 2/4GB della 960 pareggiando con la 980ti (almeno per la vram) quindi può starci che la 1160 pareggi in quanto vram con 1080ti :)
Ragionando sul mercato, potremmo trovarci in quest'ottica con la vram totale:
1150 4GB: 896cc/128bit/16rops
1150ti 8GB: 1024cc/128bit/16rops
1160 6GB: 1536cc/192bit/24rops
1160 12GB: 1792cc/192bit/32rops
1170 14GB: 3072cc/224bit/56rops
1170ti 16GB: 3328cc/256bit/56rops
1180 16GB: 3584cc/256bit/64rops
1180ti 22GB: 4992cc/352bit/88rops
Titan XT 24GB: 5376cc/384bit/96rops
Almeno questo è un mio parere del tutto personale in base alle gen precedenti quindi va sempre preso con pinze...
Tutte le "ti" saranno aggiunte in seguito normalmente.
E io una 1170 da 8gb la vedo senza se se senza ma.
Spero anche di smentirmi :)
appleroof
18-06-2018, 09:59
è una GPU media, quanti Watt gli vuoi dare ? e poi con la TOP cosa fai, la metti a 400W ?
s'è visto il gran lavoro e il colpo di genio che ha avuto AMD a mandare fuori delle GPU con tutti quei Watt.
Ancora ricordo quel forno della gtx470 :eek:
appleroof
18-06-2018, 10:01
Disattivare un intero GPC è un eresia... 192bit sono troppo pochi per un chip x70 il cut max ipotizzabile è 224bit o in alternativa bus pieno a 256bit...
192bit posso aspettarmeli con 1160, anche se su quest'ultima vorrebbe dire montare 6/12gb di vram quindi veramente tanta per un chip di fascia media però non sarebbe neanche strano anche la 1060 ha ereditato 3/6GB di vram rispetto ai soli 2/4GB della 960 pareggiando con la 980ti (almeno per la vram) quindi può starci che la 1160 pareggi in quanto vram con 1080ti :)
Ragionando sul mercato, potremmo trovarci in quest'ottica con la vram totale:
1130 2GB: 512cc/64bit/16rops
1150 4GB: 896cc/128bit/24rops
1150ti 8GB: 1024cc/128bit/32rops
1160 6GB: 1536cc/192bit/48rops (32 eleaborate)
1160 12GB: 1792cc/192bit/48rops (32 eleaborate)
1170 14GB: 3072cc/224bit/56rops
1170ti 16GB: 3328cc/256bit/56rops
1180 16GB: 3584cc/256bit/64rops
1180ti 22GB: 4992cc/352bit/88rops
Titan XT 24GB: 5376cc/384bit/96rops
Almeno questo è un mio parere del tutto personale in base alle gen precedenti quindi va sempre preso con pinze...
Questa sarebbe una scheda davvero interessante, toccherebbe vedere pure il prezzo riapetto all'ipotetica 1180
AceGranger
18-06-2018, 10:04
Ancora ricordo quel forno della gtx470 :eek:
e infatti non è stata una delle serie fortunate di nVidia :asd:
Tutte le "ti" saranno aggiunte in seguito normalmente.
E io una 1170 da 8gb la vedo senza se se senza ma.
Spero anche di smentirmi :)
Dipende dal mercato, da questo punto di vista è difficile fare una stima precisa poi credo che aldilà del quantitativo di vram, la bw sarà sempre allo stesso livello quindi o 224bit@16gbps (448gb/s) o 256@14gbps (448gb/s) in qualche modo strozzeranno se per il clock o per bus per dare più margine alla 1180 e nel secondo caso risparmiano anche un modulo di vram in questo modo già se optano per 3072cc saremmo a un 20% meno da 1180 più leggero cut sulla BW e siamo intorno al 25% di differenza ciò non toglie che potrebbero anche fare 224bit@14gbps (392gb/s) che con una compressione migliorata del 15% siamo comunque vicini ai 484gb/s della 1080ti :)
Comunque ho modificato la pseudo tabella sui chip minori avevo scritto un paio di boiate :p
appleroof
18-06-2018, 11:00
e infatti non è stata una delle serie fortunate di nVidia :asd:
Esatto :fagiano: e dire che vendetti una 5850 che consumava meno e andava uguale per prenderla, acquisto peggiore mai fatto, anche se a costo quasi zero....
Con 14GB di GDDR6? Folle.
Ho già detto come la penso in merito, toccherebbe adeguarsi, una volta visto il prezzo/prestazioni su strada...avere più vram comunque non sarebbe una tragedia
fraussantin
18-06-2018, 11:03
Ma vega 7nm più o meno starà sulla 1160 oppure faranno un chip più grande da prendere anche la 1170\80?
perché una 1050ti da 8GB non lo è? :sofico:
ma scusate, non potrebbero semplicemente utilizzare tutti e 3 i tipi di memoria?
gx102/104 ddr6
gx106 ddr5x
gx107/108 ddr5
ma poi, perché dovrebbero laserare alla 1170 il collegamento vram? :stordita:
la 1070 perde un intero gpc nei conti, ma in realtà vengono spenti alcuni sm sui 4 gpc, mica viene tagliato un unico gpc per intero infatti resta sempre 256bit.
Bhè considera che la 1050ti 8GB andrebbe circa come la 1060 6GB e siamo di fronte a un cambio generazionale di vram, quindi non lo vedo improbabile come salto sopratutto per i canoni del 2018...
780-780ti montavano 3GB di vram (Entusiast)
970-980 montavano 4GB di vram (High)
1060 montava 3-6GB (media)
1150-1150ti probabilmente 4-8GB (entry level)
Per fascia siano passati da:
580 (1.5gb) > 780ti (3GB) > 980ti (6GB) > 1080ti (11GB)
570 (1.28GB) > 680/770 (2GB) > 970/980 (4GB) > 1070/1080 (8GB)
550 (1GB) > 650 (1GB) > 750/ti (1-2GB) > 950 (2GB) > 1050/ti (2-4GB)
E di base nessuna di questa gen ha visto un cambio di generazione in quanto tutte basate sulle GDDR5...
Dubito usino ancora le GDDR5 se non per i chip mobile entry level che sono il riciclo del riciclo di norma nvidia ha sempre cambiato memorie per tutta l'architettura nel passaggio da GDDR2 > GDDR3 > GDDR5 :sofico:
AceGranger
18-06-2018, 11:11
Esatto :fagiano: e dire che vendetti una 5850 che consumava meno e andava uguale per prenderla, acquisto peggiore mai fatto, anche se a costo quasi zero....
il TDP è imprescindibile oramai, anche perchè, il nucleo base dei CUDA fp32 è lo stesso che poi va equipaggiare le QUADRO ed è il cuore dei chip TESLA nei quali vengono aggiunte tutte le altre funzioni;
per quanto i chip Pro e quelli consumer siano ormai molto differenti, la progettazione base è in comune, e il TDP è un fattore chiave.
appleroof
18-06-2018, 11:12
No, ovviamente la tragedia non è avere più ram, semmai lo sarebbe doverla pagare come fosse oro pur essendo di (molto) dubbia utilità.
Cut
Si si, avevo capito il punto, e non hai del tutto torto secondo me, ma appunto comunque possono tornare utili quei gb in più, almeno questo lenisce il surplus di prezzo diciamo
appleroof
18-06-2018, 11:14
il TDP è imprescindibile oramai, anche perchè, il nucleo base dei CUDA fp32 è lo stesso che poi va equipaggiare le QUADRO ed è il cuore dei chip TESLA nei quali vengono aggiunte tutte le altre funzioni;
per quanto i chip Pro e quelli consumer siano ormai molto differenti, la progettazione base è in comune, e il TDP è un fattore chiave.
Si infatti, proprio Fermi ha segnato il punto di rottura in casa Nvidia, da Kepler in poi ha sfornato gpu dal rapporto performance/watt strepitoso, curioso come Amd abbia quasi contemporaneamente intrapreso la strada inversa... In questo Nvidia è stata senz'altro più brava dal punto di vista strettamente ingegneristico, secondo me, poco da fare
fraussantin
18-06-2018, 11:18
No, ovviamente la tragedia non è avere più ram, semmai lo sarebbe doverla pagare come fosse oro pur essendo di (molto) dubbia utilità.
Vega@7nm non è una RX, è una MI/WX, quindi non per il gaming e anche andasse quanto una 1180 costerebbe cifre improponibili essendo per altri mercati :>Ma quindi amd abbandona il campo gaming fino al 2020 con la ps5?
È una tragedia.
A sto punto dobbiamo sperare in intel per avere un po di competizione e ...tanti auguri...
mikael84
18-06-2018, 11:21
perché una 1050ti da 8GB non lo è? :sofico:
ma scusate, non potrebbero semplicemente utilizzare tutti e 3 i tipi di memoria?
gx102/104 ddr6
gx106 ddr5x
gx107/108 ddr5
ma poi, perché dovrebbero laserare alla 1170 il collegamento vram? :stordita:
la 1070 perde un intero gpc nei conti, ma in realtà vengono spenti alcuni sm sui 4 gpc, mica viene tagliato un unico gpc per intero infatti resta sempre 256bit.
E' esattamente l'inverso Grid, l'esatto è il 2°.
La 1070 ha un GPC di calcolo completamente spento, ma mantiene il collegamento della 1080.
Praticamente così
https://images.anandtech.com/doci/10325/GeForce_GTX_1070_Block_Diagram_575px.png
Nel primo schema ti ritroveresti anche 56 rop's, così partizionate (16-16-16-8, con l'ultimo SM a vuoto):)
Considera che non cambiare generazione consente un certo risparmio dovuto ad economie di scala e assestamento dei prezzi all'ingrosso dovuto all'aumento dei volumi prodotti a regime, cosa che non hai con le tecnologie nuove
Teoricamente mettere la tecnologia nuova è proprio nel mobile che vuoi farlo, visto che risparmi sui consumi etc. Mentre nelle fasce basse desktop usare la tecnologia ad alti volumi è un risparmio notevole, visto che usare l'ultima bomba tenologica non serve nella pratica a niente.
Nvidia usa questa politica solo sui chip di fascia media a salire ma su quelli entry level ricicla quello che ha persino schede di gen precedente, nella serie 8xx hanno Fermi-Kepler-Maxwell come architettura...
Sulle versioni desktop, c'è maggior serietà nel cambio architettura che comprende tutti i chip quindi parlare del mobile ha ben poco senso che è una cozzaglia di chip inimmaginabile...
Ma se tagli tutto il GPC come fa ad avere 64rops e 256bit collegate attive? :fagiano:
come mai si trovano in giro diversi schemi?
Mantieni il collegamento a 64 rops ma nel pratico ne avresti solo 48 elaborate (in stile 1060 con bus a 192bit con 48 rops ma solo 32 effettive...).
Ma un chip del genere è da escludere, con 1070 nvidia ha potuto osare perchè il passaggio da 28 > 16nm ha portato un notevole incremento del clock (circa il 30-35% in più) quindi laserando un intero gpc la 1070 in confronto alla 980ti ha potuto compensare con i clock oltre alla miglior compressione...
Ma nel passaggio 16 > 12nm è da escludere che ci siano cambi radicali nei clock per poter andare anche solo similmente a una 1080ti bisogna necessariamente mantenere almeno 2816-3072cc e 56rops.
Con 2688cc e 48rops andresti circa il 20% in più di una 1080 poca roba insomma e si genererebbe quasi un 35-40% di differenza da 1180 se viene strozzata anche la BW con un cut sul bus o memorie più lente, uno schifo chip insomma... :sofico:
AceGranger
18-06-2018, 11:41
Si infatti, proprio Fermi ha segnato il punto di rottura in casa Nvidia, da Kepler in poi ha sfornato gpu dal rapporto performance/watt strepitoso, curioso come Amd abbia quasi contemporaneamente intrapreso la strada inversa... In questo Nvidia è stata senz'altro più brava dal punto di vista strettamente ingegneristico, secondo me, poco da fare
Fermi è stato un flop stile Bulldozer, e Kepler è stato un po come Ryzen, hanno capito gli errori e rimediato alla grande.
l'attuale architettura di AMD non credo sia un errore stile Fermi, ma semplicemente è ormai decotta e non riesce piu a reggere la concorrenza; in ambito Pro la situazione è ormai piu che palese, mentre in ambito gaming continua a reggere la fascia bassa e media ma ha chiari cedimenti nella fascia alta ed è conclamata nella fascia enthusiast.
mikael84
18-06-2018, 11:51
ahahhh, ma quanto deve andare sta 1160? quanto una 1080tiOC? :sofico:
mah, 8GB gddr6 su una scheda da 150$ da 75watt non ce li vedo proprio, onestamente.
uhm...
Ma se tagli tutto il GPC come fa ad avere 64rops e 256bit collegate attive? :fagiano:
come mai si trovano in giro diversi schemi? ne ho trovati altri come quello postato, e anche la 970 era così, ma nella 970 non avevano tagliato completamente un GPC a numeri, ma meno.
16 rop's e 512kb di l2 servono per il collegamento ai 256bit.
E' come la 1060 dove gli viene creato un collegamento rop's/l2 per garantire 64 bit in più.
Pensa la 780 che ne aveva addirittura 2:p
Raster bloccati ad 8 con Kepler
Free Gordon
18-06-2018, 13:22
Fermi è stato un flop stile Bulldozer, e Kepler è stato un po come Ryzen, hanno capito gli errori e rimediato alla grande.
l'attuale architettura di AMD non credo sia un errore stile Fermi, ma semplicemente è ormai decotta e non riesce piu a reggere la concorrenza; in ambito Pro la situazione è ormai piu che palese, mentre in ambito gaming continua a reggere la fascia bassa e media ma ha chiari cedimenti nella fascia alta ed è conclamata nella fascia enthusiast.
QUOTE
mikael84
18-06-2018, 14:21
ahahhh, ma quanto deve andare sta 1160? quanto una 1080tiOC? :sofico:
mah, 8GB gddr6 su una scheda da 150$ da 75watt non ce li vedo proprio, onestamente.
uhm...
Ma se tagli tutto il GPC come fa ad avere 64rops e 256bit collegate attive? :fagiano:
come mai si trovano in giro diversi schemi? ne ho trovati altri come quello postato, e anche la 970 era così, ma nella 970 non avevano tagliato completamente un GPC a numeri, ma meno.
Non avevo letto tutto il tuo post da cell.
Cmq la 970 ha uno schema differente perchè deve mantenere tutti e 4 i rasterizzatori attivi con le relative rop's
Un canale (a caso, perchè la cache fallata non è sempre allo stesso punto) per GPC viene laserato.
Mantenendo un GPC ad 8 pixel ti ritrovi gli altri 3 con 12 pixel per GPC.
Di conseguenza, ti ritrovi un chip con 44 rop's elaborate (12x3 + 1x8).
4 GPC con 3 SM + 1 da 4 ma con un canale laserato.
44 rop's per circa 1100 (48gpixel)
https://s33.postimg.cc/5khnk0kvj/ita.png
gtx 970 default, quelle introvabili praticamente:)
mikael84
18-06-2018, 14:41
Non c'è nessun problema di TDP, se non nella testa di qualcuno che vuole a tutti i costi chippini eco-hipster di serie B. Peccato che non tutti la pensino come me.
Non è chi ci sia un problema di TDP, nVidia deve rientrare nei 250watt su 6 GPC.
Un GPC pulito (senza collegamenti extra) è mediamente da 45 watt + PL, ma questo può variare in minima parte, ad esempio la 1080ti parte da 41 w/GPC, ma deve sacrificare i clock medi.
Senza considerare che un GPC di un GP104 è composto da 1,8m transistor, 1 GPC GP102 da 2m transistor.
Quello che ha fatto AMD è diverso, tralasciando il problema elettrico disperato, per competere minimamente con la rivale, ha occato al massimo i chip, fregandosene dell'efficienza finale.
Se nVidia avesse agito così, poteva avere un rapporto prestazioni ben più elevato di base
https://s33.postimg.cc/kmyh8ga8f/lkgfdsa.png
Ma non sarebbe meglio fare come lo intendevo io? così com'è invece non perdi anche un intero motore Raster? :stordita:
No con lo schema a 3 GPC guadagni in latenze, stressi meno il gigathread, ed in uscita guadagni a livello poligonale, tanto che la 1070 mediamente mantiene 0,35t su P.E, contro i 0,33 ed i 0,3 ed addirittura i 0,27 di alcuni chip full. :)
Ogni raster lavora sui 5 stadi per P.E più 3 via raster (backfaceculling).
appleroof
18-06-2018, 15:51
Fermi è stato un flop stile Bulldozer, e Kepler è stato un po come Ryzen, hanno capito gli errori e rimediato alla grande.
l'attuale architettura di AMD non credo sia un errore stile Fermi, ma semplicemente è ormai decotta e non riesce piu a reggere la concorrenza; in ambito Pro la situazione è ormai piu che palese, mentre in ambito gaming continua a reggere la fascia bassa e media ma ha chiari cedimenti nella fascia alta ed è conclamata nella fascia enthusiast.
Non so se sia un flop o meno, constatavo solo come le due case (parlando in modo molto generale e grossolano) siano andate all'opposto per motivi vari, nvidia fino a Fermi performance driven mentre amd power driven (dal punto di vista streattamente performance/watt la serie 4000 è stata un capolavoro), quasi l'esatto opposto dopo
quale delle due si sia rivelata vincente dipende dagli ambiti, in quello gaming pc direi che le cose siano sotto gli occhi di tutti, per ora, in altri ambiti Amd ha avuto la meglio, per il futuro chissà
AceGranger
18-06-2018, 16:06
Non so se sia un flop o meno, constatavo solo come le due case (parlando in modo molto generale e grossolano) siano andate all'opposto per motivi vari, nvidia fino a Fermi performance driven mentre amd power driven (dal punto di vista streattamente performance/watt la serie 4000 è stata un capolavoro), quasi l'esatto opposto dopo
bè che abbia avuto problemi seri lo ha anche ammesso Huang, e i parametri di valutazione non sono mai cambiati, il problema è che Fermi tirato per il collo almeno le prestazioni le aveva, se prendi le ultime AMD non hanno nemmeno quelle, in dipendentemente quanto le tiri.
e poi la questione del TDP non è quello di essere green, ma quello di avere meno Watt e calore che girano nel case e sull'alimentatore.
fraussantin
18-06-2018, 16:22
Il tdp basso serve con la moda dei pc silenziosi , ed a non farsi perculare dai troll.
Amd è stata abbacchiata tanto con il fatto che "scalda e consuma"
appleroof
18-06-2018, 16:28
bè che abbia avuto problemi seri lo ha anche ammesso Huang, e i parametri di valutazione non sono mai cambiati, il problema è che Fermi tirato per il collo almeno le prestazioni le aveva, se prendi le ultime AMD non hanno nemmeno quelle, in dipendentemente quanto le tiri.
si, a loro modo sono flop entrambe alla fine dei conti
e poi la questione del TDP non è quello di essere green, ma quello di avere meno Watt e calore che girano nel case e sull'alimentatore.
oddio, a me in parte interessa sia per avere meno watt e calore e perché no, anche per consumare qualcosa in meno :fagiano:
insomma il succo è: se prendo una 1180 ho una vga che và quasi il doppio della mia attuale con un tdp più basso a spanne di 100w, godo. E aspetto con curiosità la 1170, potrebbe essere ancora più interessante sotto questo punto di vista
ma anche rimanendo sulle "Ti" a parità di tdp se fossi passato da 980ti a 1080ti e poi 1180ti avrei avuto incrementi prestazionali degni di nota, non guardando al "consumo" in termini di calore/rumore di ventole né di qualche euro risparmiato all'anno, ma guadagnando comunque sul rapporto performance/watt in sé
se non è un'ottima strategia ingegneristica (lato produttore) e di prodotto (lato utente) questa….poi ci sarebbe tutto il discorso prezzi ma si apre un altro capitolo, parlo di resa dell'architettura in sé in questo caso.
mikael84
18-06-2018, 16:33
Non so se sia un flop o meno, constatavo solo come le due case (parlando in modo molto generale e grossolano) siano andate all'opposto per motivi vari, nvidia fino a Fermi performance driven mentre amd power driven (dal punto di vista streattamente performance/watt la serie 4000 è stata un capolavoro), quasi l'esatto opposto dopo
quale delle due si sia rivelata vincente dipende dagli ambiti, in quello gaming pc direi che le cose siano sotto gli occhi di tutti, per ora, in altri ambiti Amd ha avuto la meglio, per il futuro chissà
Fermi pagava molto il fatto di essere sia un chip HPC con FP64 ed il doppio canale di collegamento per i 384bit.
Finalmente con Maxwell ( e con Kepler x04) nvidia si è decisa a separare i chip.
Una 580 per farti l'esempio odierno sarebbe relativamente una 1080 con bus da 384bit, più il peso della FP64, laserato ad 1/8 sul chip gaming.:)
Ecco anche il perchè dei consumi maggiori e clock più bassi.
La 4800 era un chip piccolo da pochi costi, capace di pareggiare la GTS250 in fascia bassa, però con la x70 AMD introdusse le ddr5, che con il trasferimento dati WCK, riusciva a raddoppiare la BW, creando una scheda dal nulla, a fascia superiore. Ora è una soluzione pressochè impossibile (per raggiungere questo, l'hanno pure occata al limite):fagiano: :)
appleroof
18-06-2018, 16:45
Questo vale di sicuro per tutti ma, a meno di esigenze particolari, nel mondo desktop non è il primo parametro di scelta. Mi spiego: nessuno si sceglie la scheda video in base al perf/w, ma è un paramtro che uno guarda come contorno per farsi un'idea più completa dopo aver valutato tutto il resto (fps, prezzo, features varie).
si, poco ma sicuro, nel 99,99% dei casi la scelta è proprio basata su quanto dici
anche personalmente in passato quasi sempre ho scelto in base alle prestazioni pure/prezzo di acquisto. Diciamo che per come si sono messe le cose per me, mi trovo in una situazione eccellente dove appunto con un tdp molto più basso avrò un boost davvero consistente
appleroof
18-06-2018, 17:51
Pensa che prima di prendermi la RX580 avevo accarezzato l'idea di prendermi una RX560 per mantenere le prestazioni precedenti (HD6950, son stato tanto fermissimo sull'hardware) ma entro i 75W e 4GB, però poi ho deciso che fare un upgrade solo per i watt in meno aveva poco senso :asd:
bell'upgrade devo dire ;)
anche personalmente in passato quasi sempre ho scelto in base alle prestazioni pure/prezzo di acquisto.
Io invece dalla generazione 7xx ho scelto anche in base alle performance per watt, perché gioco poco e in idle mi piace quando il PC consuma poco e soprattutto fa poco rumore (ventole tutte off tranne le due del rad).
Dalla 9xx in poi nvidia ha raggiunto dei livelli strepitosi IMO.
fireradeon
18-06-2018, 18:05
In realtà ora come ora di certo non sia sa nulla, siamo ancora sommersi solo da speculazioni e leaks vari. Se le schede dovessero essere lanciate effettivamente nel periodo settembre/ottobre, personalmente mi aspetterei una titan per dicembre e la ti per aprile/maggio.
La Titan è un incognita perchè diciamo che è una fascia a sè, volendo pure lanciabile parallelamente alle X80/X70 ma la Ti difficile che arrivi dopo così poco tempo, probabile che si vada a metà 2019.
Immaginavo che non si sarebbe visto nulla prima del 2019. Sono curioso divedere la prossima Ti di cosa sarà capace.
techsaskia
18-06-2018, 18:37
Concordo, in teoria potremmo slittare direttamente al PCI-E 5.0 se non erro verrà ufficialmente presentato nel 2019 mentre il pci-e 4.0 è stato presentato a giugno dell'anno scorso...
Per non parlare delle DDR5, penso che nel 2020 già inizieremo a vederle forse con la piattaforma HEDT che seguirà l'attuale LGA 3647 che uscirà tra qualche mese...
Siamo in un brutto periodo per aggiornare, ma per giocare un 6c/12t come il 5820K è anche ben sopra i requisiti meglio investire in gpu e monitor...
bene allora, visto che mi tengo il blocco CPU, MOBO e RAM a questo punto un paio di GPU ce le vorrei mettere.
ai tempi delle 980 Ti il mio SLI aveva senso, adesso aggiornare dal mio SLI di 980 Ti ad una 1180 sarebbe un upgrade misero, aggiornare a 2 1180 invece potrebbe avere poco senso.
il supporto SLI sembra stia rallentando con alcuni titoli... voi che dite?
bene allora, visto che mi tengo il blocco CPU, MOBO e RAM a questo punto un paio di GPU ce le vorrei mettere.
ai tempi delle 980 Ti il mio SLI aveva senso, adesso aggiornare dal mio SLI di 980 Ti ad una 1180 sarebbe un upgrade misero, aggiornare a 2 1180 invece potrebbe avere poco senso.
il supporto SLI sembra stia rallentando con alcuni titoli... voi che dite?
Io sono sempre per la singola, sulle prestazioni c'è da aspettarsi che una 1180 andrebbe relativamente poco in più di uno sli di 980ti laddove ovviamente lo sli funziona come si deve, ma avresti consumi di netto inferiori 550w VS 180w...
Oltre al discorso vram, dove parliamo di 6GB in sli VS 16GB quindi in linea generale passare da uno sli di 980ti a una singola 1180 non è così assurda come idea ma dal punto di vista prestazionale aspetterei direttamente la 1180ti, con quest'ultima avresti un buon ++60% di prestazioni del tuo sli e consumi dimezzati :)
Biscottoman
18-06-2018, 19:36
bene allora, visto che mi tengo il blocco CPU, MOBO e RAM a questo punto un paio di GPU ce le vorrei mettere.
ai tempi delle 980 Ti il mio SLI aveva senso, adesso aggiornare dal mio SLI di 980 Ti ad una 1180 sarebbe un upgrade misero, aggiornare a 2 1180 invece potrebbe avere poco senso.
il supporto SLI sembra stia rallentando con alcuni titoli... voi che dite?
Personalmente anche io ti direi di andare di singola, magari visto che disponi di un budget così spinto potresti puntare alla nuova possibile titan per la quale non saresti costretto ad aspettare quanto aspetteresti per la ti (poi tutto dipende da quanta fretta hai e da quanto ti interessi risparmiare a livello economico)
appleroof
18-06-2018, 19:44
Fermi pagava molto il fatto di essere sia un chip HPC con FP64 ed il doppio canale di collegamento per i 384bit.
Finalmente con Maxwell ( e con Kepler x04) nvidia si è decisa a separare i chip.
Una 580 per farti l'esempio odierno sarebbe relativamente una 1080 con bus da 384bit, più il peso della FP64, laserato ad 1/8 sul chip gaming.:)
Ecco anche il perchè dei consumi maggiori e clock più bassi.
La 4800 era un chip piccolo da pochi costi, capace di pareggiare la GTS250 in fascia bassa, però con la x70 AMD introdusse le ddr5, che con il trasferimento dati WCK, riusciva a raddoppiare la BW, creando una scheda dal nulla, a fascia superiore. Ora è una soluzione pressochè impossibile (per raggiungere questo, l'hanno pure occata al limite):fagiano: :)
Scusa Mike me l'ero perso, diciamo che non considero completamente flop Fermi perché da un lato in fascia media faceva faville, la 460 era una signora scheda nel suo ambito, e poi perché d'altro lato il chip top fu fixato con le 500, che sempre Fermi erano... Diciamo che la fretta di uscire creò un mezzo fail in fascia alta con le 470/480 ma per dire se intebdo flop intendo la serie fx5000 di nvidia, o le hd2000/3000 di amd (che poi la 2900 era ancora figlia di Ati se la memoria non mi inganna)
Vabbè in idle ormai qualunque custom decente tiene le ventole ferme
Adesso. Ma non era così 6 anni fa.
Ragazzi mi voglio fare il pc nuovo dopo estate...e mi sta vendendo scimmia x passare a nVidia...che ne dite delle nuove schede ?
Inviato dal mio iPhone utilizzando Tapatalk
techsaskia
18-06-2018, 20:34
Io sono sempre per la singola, sulle prestazioni c'è da aspettarsi che una 1180 andrebbe relativamente poco in più di uno sli di 980ti laddove ovviamente lo sli funziona come si deve, ma avresti consumi di netto inferiori 550w VS 180w...
Oltre al discorso vram, dove parliamo di 6GB in sli VS 16GB quindi in linea generale passare da uno sli di 980ti a una singola 1180 non è così assurda come idea ma dal punto di vista prestazionale aspetterei direttamente la 1180ti, con quest'ultima avresti un buon ++60% di prestazioni del tuo sli e consumi dimezzati :)
si però per le ti dobbiamo aspettare natale 2019, troppo per me.
techsaskia
18-06-2018, 20:36
Personalmente anche io ti direi di andare di singola, magari visto che disponi di un budget così spinto potresti puntare alla nuova possibile titan per la quale non saresti costretto ad aspettare quanto aspetteresti per la ti (poi tutto dipende da quanta fretta hai e da quanto ti interessi risparmiare a livello economico)
fino all'anno scorso lo SLI era supportato da tutti i tripla a, quasi nessuno escluso.
adesso non è più così però una titan andrà sempre peggio di due 1180 quando lo SLI funziona pur costando quasi uguale all'uscita :D
insomma i dubbi ci sono
TigerTank
18-06-2018, 20:42
fino all'anno scorso lo SLI era supportato da tutti i tripla a, quasi nessuno escluso.
adesso non è più così però una titan andrà sempre peggio di due 1180 quando lo SLI funziona pur costando quasi uguale all'uscita :D
insomma i dubbi ci sono
Io ho rigiocato titoli non recentissimi dx11 per cui lo Sli me lo sono goduto e me lo godo anche ora visto che miracolosamente funziona benone con WOT :D
Ma con le dx12 imho meglio la schedona singola. Meno patemi d'animo e attese circa i profili con i nuovi giochi, per cui soprattutto per chi insegue le nuove uscite al day one o quasi.
techsaskia
18-06-2018, 21:18
Io ho rigiocato titoli non recentissimi dx11 per cui lo Sli me lo sono goduto e me lo godo anche ora visto che miracolosamente funziona benone con WOT :D
Ma con le dx12 imho meglio la schedona singola. Meno patemi d'animo e attese circa i profili con i nuovi giochi, per cui soprattutto per chi insegue le nuove uscite al day one o quasi.
però non sempre è vero o meglio non sempre è colpa delle DX12.
DX12 se gli sviluppatori volessero andrebbe meglio delle DX11 in quanto a scaling perchè supporta il multi GPU SFR.
DX12 in ogni caso, supporta l'AFR esattamente come le DX11 è proprio che non si vogliono sforzare.
Ci sono titoli DX12 che scalano alla grande, vedi gli ultimi tomb raider per esempio... bah, stiamo a vedere. a me una singola scheda mi è sempre stata stretta.
Thunder-74
18-06-2018, 22:23
però non sempre è vero o meglio non sempre è colpa delle DX12.
DX12 se gli sviluppatori volessero andrebbe meglio delle DX11 in quanto a scaling perchè supporta il multi GPU SFR.
DX12 in ogni caso, supporta l'AFR esattamente come le DX11 è proprio che non si vogliono sforzare.
Ci sono titoli DX12 che scalano alla grande, vedi gli ultimi tomb raider per esempio... bah, stiamo a vedere. a me una singola scheda mi è sempre stata stretta.
Siamo nella stessa situazione . Io passerò alla 1180ti. Come dici tu, lo Sli sta rallentando... comunque non credo che bisognerà aspettare Natale 2019. Credo verso aprile 2019 possa uscire..
Inviato dal mio iPhone X utilizzando Tapatalk
Giovamas
19-06-2018, 07:25
Siamo nella stessa situazione . Io passerò alla 1180ti. Come dici tu, lo Sli sta rallentando... comunque non credo che bisognerà aspettare Natale 2019. Credo verso aprile 2019 possa uscire..
Inviato dal mio iPhone X utilizzando Tapatalk
ed allora si aspetta la prossima primavera. :)
TigerTank
19-06-2018, 07:38
però non sempre è vero o meglio non sempre è colpa delle DX12.
DX12 se gli sviluppatori volessero andrebbe meglio delle DX11 in quanto a scaling perchè supporta il multi GPU SFR.
DX12 in ogni caso, supporta l'AFR esattamente come le DX11 è proprio che non si vogliono sforzare.
Ci sono titoli DX12 che scalano alla grande, vedi gli ultimi tomb raider per esempio... bah, stiamo a vedere. a me una singola scheda mi è sempre stata stretta.
Alti e bassi, come sempre. Il problema è che se per SLi si intendono 2 X80 o 2 X80Ti, la spesa lievita molto e sinceramente è brutto poi che in X titolo atteso non ci sia il supporto Sli. Se non sbaglio c'è pure gente che ha venduto Sli di x80 per pigliare la x80Ti per "disperazione".
Per il resto secondo me su 1440p, anche da gaming, si giocherà bene anche con singola scheda. Robe tipo Sli per pigliare la 4K da gaming, le lascerei perdere.
No, fondiamo quello dei pochi rimasti a fare upgrade quando serve o anche quello che se tutti fossero come noi le aziende fallirebbero domani :D
I veri soldi li fanno nel mercato OEM, il nostro mercato HW non è che una briciola, potremmo più definirla campagna pubblicitaria che vero mercato :p
Inoltre devi considerare anche l'usato, per un utente che aggiorna alla top nuova di zecca un altro acquista una scheda usata andando quindi a rallentare il mercato del nuovo, tra l'altro prendendola usata ti risparmi anche di pagare l'iva allo stato...
Thunder-74
19-06-2018, 08:22
Alti e bassi, come sempre. Il problema è che se per SLi si intendono 2 X80 o 2 X80Ti, la spesa lievita molto e sinceramente è brutto poi che in X titolo atteso non ci sia il supporto Sli. Se non sbaglio c'è pure gente che ha venduto Sli di x80 per pigliare la x80Ti per "disperazione".
Per il resto secondo me su 1440p, anche da gaming, si giocherà bene anche con singola scheda. Robe tipo Sli per pigliare la 4K da gaming, le lascerei perdere.
Che poi dopo le ultime in tema 4K a 120/144hz, viene un po' di scoramento... compressione dei colori a tal punto che per lavorare/stare in desktop, meglio settare a 60hz (la connessione DP 1.4 non ha banda sufficiente, connessione necessaria per il Gsync)
http://www.guru3d.com/news-story/asus-and-acer-uhd-g-sync-hdr-monitors-forced-to-use-color-compression-at-120144-hz.html
Inviato dal mio iPhone X utilizzando Tapatalk
aled1974
19-06-2018, 08:32
Ragazzi mi voglio fare il pc nuovo dopo estate...e mi sta vendendo scimmia x passare a nVidia...che ne dite delle nuove schede ?
che, come si suol dire, prima vedere cammello, dato che a parole o slide son tutti bravi :read:
però ero rimasto con le schede custom date da ottobre in poi, volevi prendere una FE al day 1? :stordita:
ciao ciao
Biscottoman
19-06-2018, 09:04
La presentazione nVidia al prossimo Hot Chips è sparita dallo schedule.
E' quella che all'inizio aveva la descrizione riguardante un nuovo chip, poi diventata TBD.
Se non sbaglio è sparita circa un paio di giorni dopo il giorno in cui è stata messa, praticamente appena si è sparsa la voce al riguardo.
illidan2000
19-06-2018, 10:46
bene allora, visto che mi tengo il blocco CPU, MOBO e RAM a questo punto un paio di GPU ce le vorrei mettere.
ai tempi delle 980 Ti il mio SLI aveva senso, adesso aggiornare dal mio SLI di 980 Ti ad una 1180 sarebbe un upgrade misero, aggiornare a 2 1180 invece potrebbe avere poco senso.
il supporto SLI sembra stia rallentando con alcuni titoli... voi che dite?
gia una 1080ti va meglio del tuo SLI in moltissime situazioni. Una 1180 sarebbe un notevole upgrade
Alti e bassi, come sempre. Il problema è che se per SLi si intendono 2 X80 o 2 X80Ti, la spesa lievita molto e sinceramente è brutto poi che in X titolo atteso non ci sia il supporto Sli. Se non sbaglio c'è pure gente che ha venduto Sli di x80 per pigliare la x80Ti per "disperazione".
Per il resto secondo me su 1440p, anche da gaming, si giocherà bene anche con singola scheda. Robe tipo Sli per pigliare la 4K da gaming, le lascerei perdere.
io sono tra questi. Venduto sli di 1070 per singola 1080ti
Thunder-74
19-06-2018, 16:20
No, è uscita e appena di è diffusa la notizia hanno cambiato la descrizione del panel in "TBD" (prima era qualcosa tipo "nuovi chip"), ora invece hanno proprio rimosso il panel dal calendario.
Così a occhio sembra indice di un ritardo rispetto ai programmi precedenti
Sempre più vicino ad una ps4....
Inviato dal mio iPhone X utilizzando Tapatalk
Thunder-74
19-06-2018, 17:18
Intervista al produttore di ventole Power Logic ( quelle montate sulle Custom EVGA ad esempio) conferma nuove nVidia nel Q3 2018
LINK (https://wccftech.com/nvidia-next-generation-gpu-q3-18-power-logic/)
che, come si suol dire, prima vedere cammello, dato che a parole o slide son tutti bravi :read:
però ero rimasto con le schede custom date da ottobre in poi, volevi prendere una FE al day 1? :stordita:
ciao ciao
Scusa eh pensavo fosse uscito qualche info in più...non sapevo era vietato e altro xk si chiede in un forum
Inviato dal mio iPhone utilizzando Tapatalk
techsaskia
19-06-2018, 21:31
Siamo nella stessa situazione . Io passerò alla 1180ti. Come dici tu, lo Sli sta rallentando... comunque non credo che bisognerà aspettare Natale 2019. Credo verso aprile 2019 possa uscire..
Inviato dal mio iPhone X utilizzando Tapatalk
le ti escono sempre almeno un anno dopo perchè di mezzo ci sono le titan.
contando che aprile è già passato dubito propiro che le vedremo per aprile 2019
techsaskia
19-06-2018, 21:34
gia una 1080ti va meglio del tuo SLI in moltissime situazioni. Una 1180 sarebbe un notevole upgrade
io sono tra questi. Venduto sli di 1070 per singola 1080ti
bah dipende, io gioco solo titoli tripla A fatta eccezione di qualche gioco minore.
i titoli tripla A supportano tutti lo SLI fatta eccezione recentemente degli ultimi giochi ID Tech 6 Vulkan e dell'ultimo Assassin's.
Intervista al produttore di ventole Power Logic ( quelle montate sulle Custom EVGA ad esempio) conferma nuove nVidia nel Q3 2018
LINK (https://wccftech.com/nvidia-next-generation-gpu-q3-18-power-logic/)
finalmente.
Q3 significa tra luglio e settembre.
Biscottoman
19-06-2018, 23:02
le ti escono sempre almeno un anno dopo perchè di mezzo ci sono le titan.
contando che aprile è già passato dubito propiro che le vedremo per aprile 2019
Considera che se è vero che le xx80/xx70 usciranno per il periodo di fine estate (circa settembre), ci si potrebbe aspettare un modello Titan entro la fine del 2018 con conseguente modello ti nel periodo di aprile/maggio (massimo giugno/luglio secondo me) 2019. A mio modesto parere si tratta di date non del tutto impossibili basandoci comunque su quel poco che ancora si sa. Poi ovviamente si tatta di supposizioni totalmente soggettive quindi prendile come tali.
mikael84
19-06-2018, 23:49
Scusa Mike me l'ero perso, diciamo che non considero completamente flop Fermi perché da un lato in fascia media faceva faville, la 460 era una signora scheda nel suo ambito, e poi perché d'altro lato il chip top fu fixato con le 500, che sempre Fermi erano... Diciamo che la fretta di uscire creò un mezzo fail in fascia alta con le 470/480 ma per dire se intebdo flop intendo la serie fx5000 di nvidia, o le hd2000/3000 di amd (che poi la 2900 era ancora figlia di Ati se la memoria non mi inganna)
Le 460/560 erano delle 1060 moderne con doppio canale ram ed FP64.
Per aumentare la competizione, nVidia ha introdotto le dipendenze, schedulando il 50% dei cc in più (raggiunto sulla 560ti).
Praticamente il disegno di Kepler.:)
Il bello di quelle schede era che con pochissimi soldi, ti facevi uno SLI serio anche su fascia mid.:p
Le 460/560 erano delle 1060 moderne con doppio canale ram ed FP64.
Per aumentare la competizione, nVidia ha introdotto le dipendenze, schedulando il 50% dei cc in più (raggiunto sulla 560ti).
Praticamente il disegno di Kepler.:)
Il bello di quelle schede era che con pochissimi soldi, ti facevi uno SLI serio anche su fascia mid.:p
Infatti mi ricordo come a quei tempi molti si facevano lo sli di GTX 460 anche perchè erano schede che si trovavano sui 150-180€ e in sli andavano di più e scaldavano meno della GTX 480 :fagiano:
Io personalmente preferii a quei tempi una 5870 + GTX 260 (physx) poi sostituita con una 9600GT perchè la 260 ciucciava più della 5870 :sofico:
fabietto27
20-06-2018, 07:54
Infatti mi ricordo come a quei tempi molti si facevano lo sli di GTX 460 anche perchè erano schede che si trovavano sui 150-180 e in sli andavano di più e scaldavano meno della GTX 480 :fagiano:
Io personalmente preferii a quei tempi una 5870 + GTX 260 (physx) poi sostituita con una 9600GT perchè la 260 ciucciava più della 5870 :sofico:Bei tempi....4870x2 più nvidia9800 per la fisica....avevo la temperatura del sole nel case ahah
È poi crossfire di 6950 più una msi 560 per la fisica
Inviato dal vivavoce della mia Daf Variomatic
https://uploads.tapatalk-cdn.com/20180620/8cb3eaf3ed3d603d992c322c783e2354.jpg
aled1974
20-06-2018, 08:37
Scusa eh pensavo fosse uscito qualche info in più...non sapevo era vietato e altro xk si chiede in un forum
Inviato dal mio iPhone utilizzando Tapatalk
non mi sembra di averti dato una rispostaccia, quanto un'indicazione di buon senso :eek: :wtf:
di notizie ne so meno di te dato che erano mesi che non leggevo nulla sul web su schede video, cpu, informatica in genere, quindi ne so anche meno di te. :)
Però il buon senso, tra i 10x prestazionali delle passate nvidia e il poor volta di amd, rimane pur sempre una via maestra prima di "esaltarsi" su cose che dovranno uscire solo tra diversi mesi. (forse, io ero rimasto per ottobre, poi non so)
quindi io nella tua stessa situazione, ovvero con la voglia di upgradare il settore gpu, aspetterei di vedere la prova provata della bontà dei nuovi prodotti, fermo restando che ognuno coi propri soldi fa quel che vuole, c'è anche chi si accende i sigari con le carte da 100 $, per dire :rotfl:
ma se ti sei sentito maltrattato in qualsiasi modo ti chiedo scusa e bona le :mano:
:boh:
illidan2000
20-06-2018, 09:14
bah dipende, io gioco solo titoli tripla A fatta eccezione di qualche gioco minore.
i titoli tripla A supportano tutti lo SLI fatta eccezione recentemente degli ultimi giochi ID Tech 6 Vulkan e dell'ultimo Assassin's.
e dici niente.... io ho buttato la spugna quando ho visto che non era supportato nemmeno da Mafia 3, che è pure lui un tripla A.
ah, dimenticavo Just Cause 3... che rimane?!!?! Ma pure quando è supportato, molte volte il rendimento non supera il 40% :(
Biscottoman
20-06-2018, 09:17
Ehi ragazzi girando un po' su altri forum (principalmente stranieri) molta gente discute di questo video https://youtu.be/UBbyACygmAs voi che ne pensate?
Bei tempi....4870x2 più nvidia9800 per la fisica....avevo la temperatura del sole nel case ahah
È poi crossfire di 6950 più una msi 560 per la fisica
Inviato dal vivavoce della mia Daf Variomatic
Concordo, meno lucette e HW pompatissimo :fagiano: :sofico:
Io feci un pensierino alla 5970 poi non so cosa mi frenò :fagiano:
Però ammetto che un pò mancano le dual gpu, immagina se ora invece della titan ci fosse una GTX 1090 con due chipponi GP102 le ultime dual gpu commerciali penso siano state la Titan Z e la R9 295x2...
Poi hanno ben pensato di abbandonare un pò il concetto di multigpu e farci pagare le singole come dual... :(
Giovamas
20-06-2018, 09:54
https://seekingalpha.com/article/4182662-nvidia-appears-gpu-inventory-problem
Quindi se non ho capito male, hanno troppe GPU Pascal invendute e gliene sono tornate addirittura indietro 300mila da un OEM importante.
Fosse davvero così però, a questo punto potrebbero tagliare i prezzi e metterle sul mercato al dettaglio.
Credo che il ragionamento di Nvidia sia stato: "o le vendiamo facendoci questo margine o non le svendiamo". Svendere significa anche diminuire gli acquirenti per la prossima generazione.
Chi si compra una Pascal a metà 2018 aspettando lo sconto non si prenderà di cerco una Volta o come si chiamerà la prossima architettura a prezzo pieno quando esce.
Altrimenti questa notizia sa un poco di bufala.
300'000 schede non sono poche, ma sono facili da vendere abbassando l'msrp.
Eppure guardando i shop online i prezzi di oggi sono ancora in media 50-100 euro più elevati di quanto fossero 18 mesi fa.
Da quanto si legge sono gpu di fascia bassa probabilmente dalla 1030/1050 in giù e non è da escludere che parliamo di chip e non schede fatte e finite quindi 300K di chip si smistano facili, ancora più se parliamo di chip notebook infatti ancora oggi vengono proposte schede della generazione Fermi nei notebook (820M) :sofico:
A quanto pare non si smistano così bene se il soggetto che doveva venderle le ha rimandate indietro...
La questione non è cosi semplice qui è stato fatto un interessante articolo a riguardo: https://seekingalpha.com/article/4182761-another-reason-hedge-nvidia
E nvidia sembra aver ritirato le gpu per evitare eventuali ripercussioni legali e cali delle azioni che avrebbero portato a una perdita ben maggiore e non arginabile in tempi brevi che in corrispondenza delle nuove GPU non è il massimo...
Approccio che viene usato da moltissimi colossi tra cui il più palpabile è sicuramente amazon...
Thunder-74
20-06-2018, 12:59
Era un'ipotesi che avevamo fatto tempo fa per giustificare il ritardo di informazioni in merito alle nuove GPU: aumento di produzione in concomitanza con una forte diminuzione della domanda... l'invenduto va smaltito abbassando il prezzo, ma come giustamente dicevate, ti dai la zappa sui piedi per le vendite della prossima gpu. Potrebbero proporre una mutigpu con i chippini di fascia media :fagiano:
appleroof
20-06-2018, 15:29
cut
Il bello di quelle schede era che con pochissimi soldi, ti facevi uno SLI serio anche su fascia mid.:p
Infatti mi ricordo come a quei tempi molti si facevano lo sli di GTX 460 anche perchè erano schede che si trovavano sui 150-180€ e in sli andavano di più e scaldavano meno della GTX 480 :fagiano:
cut
eccomi :D andavo meglio non solo della 480, ma pure della 580 spendendo meno :cool:
non mi sembra di averti dato una rispostaccia, quanto un'indicazione di buon senso :eek: :wtf:
di notizie ne so meno di te dato che erano mesi che non leggevo nulla sul web su schede video, cpu, informatica in genere, quindi ne so anche meno di te. :)
Però il buon senso, tra i 10x prestazionali delle passate nvidia e il poor volta di amd, rimane pur sempre una via maestra prima di "esaltarsi" su cose che dovranno uscire solo tra diversi mesi. (forse, io ero rimasto per ottobre, poi non so)
quindi io nella tua stessa situazione, ovvero con la voglia di upgradare il settore gpu, aspetterei di vedere la prova provata della bontà dei nuovi prodotti, fermo restando che ognuno coi propri soldi fa quel che vuole, c'è anche chi si accende i sigari con le carte da 100 $, per dire :rotfl:
ma se ti sei sentito maltrattato in qualsiasi modo ti chiedo scusa e bona le :mano:
:boh:
Tranquillo apposto ci siamo fraintesi tutto ok:) in effetti rileggendo un po’ non è uscito ancora nulla di certo poi sopratutto bisogna aspettare vari bench... sicuro io k era già uscito tutto e svelato il piattone...aspettiamo...tanto ancora mi devo fare il pc di sana pianta...ultimo k avevo era un 4690k con una 390 8gb...è poi sono uscito dal mondo info...vorrei passare al verde e aspettiamo queste nuove schede...magari abbinato s un bel monitor 2k wide
Inviato dal mio iPhone utilizzando Tapatalk
matte91snake
20-06-2018, 16:55
eccomi :D andavo meglio non solo della 480, ma pure della 580 spendendo meno :cool:
bei tempi le 460 a 140€ :cool:
Thunder-74
21-06-2018, 13:29
Venti ricercatori omaggiati con una Titan V 32gb. Potrebbe avere più ROPs (da 96 a 128)
https://uploads.tapatalk-cdn.com/20180621/63a32a83870a949f6f8ca58c50c372e7.jpeg
https://videocardz.com/76607/jensen-huang-gives-away-20-titan-v-ceo-edition-cards-to-ai-researchers
Inviato dal mio iPhone X utilizzando Tapatalk
illidan2000
21-06-2018, 13:53
Venti ricercatori omaggiati con una Titan V 32gb. Potrebbe avere più ROPs (da 96 a 128)
https://uploads.tapatalk-cdn.com/20180621/63a32a83870a949f6f8ca58c50c372e7.jpeg
https://videocardz.com/76607/jensen-huang-gives-away-20-titan-v-ceo-edition-cards-to-ai-researchers
Inviato dal mio iPhone X utilizzando Tapatalk
bellissimo questo fotomontaggio. ci sanno fare davvero
Thunder-74
21-06-2018, 13:58
bellissimo questo fotomontaggio. ci sanno fare davvero
esiste realmente CEO Edition
https://uploads.tapatalk-cdn.com/20180621/7c0cbfcc13328466be55eb5d8cba44d1.jpeg
Inviato dal mio iPhone X utilizzando Tapatalk
matte91snake
21-06-2018, 14:03
beh insomma, state tutti a decantare la fantastica gtx460 da 330mmq, ma rilancio con i bei tempi quelli della hd6870 da 250mmq uscita 3 mesi dopo :Prrr:
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/37286-amd-radeon-hd-6870-hd-6850-review-26.html
:sofico: un massacro, non per altro uscì di fretta e furia la serie 500 con la 560 e le 2 560ti GF114, ma una derivata da GF110 addirittura :sofico:
per fare un paragone oggi è come vantarsi di avere Vega64 che batte alla grande la 1070 raggiungendo la 1080, ma con notevole differenza in silicio e consumi, vi vantereste ancora? :D
ma guarda che nessuno si vanta :confused:
era solo un discorso di nostalgia dei prezzi, del fatto che con 280€ avevi uno sli di 460 che andavano di più della top di gamma singola costando meno
mikael84
21-06-2018, 14:29
Venti ricercatori omaggiati con una Titan V 32gb. Potrebbe avere più ROPs (da 96 a 128)
https://videocardz.com/76607/jensen-huang-gives-away-20-titan-v-ceo-edition-cards-to-ai-researchers
Inviato dal mio iPhone X utilizzando Tapatalk
Il chip Tesla ha di base 128 rop's, anche il chip Pascal GP100;)
Ha un collegamento differente.
Per mantenere collegato il 4° stack devi creare un collegamento doppio aggiuntivo (la 1060 ad esempio ne ha solo uno per mantenere i 192bit).
Per renderla più semplice, è come se la 1080ti la configuri con un 512bit.
In ogni caso non puoi utilizzare più di 96 rop's:)
Riguardo la Titan v da 32gb, significherebbe utilizzare completamente il chip Tesla GV100 con HBM da 8gb, ma quanto costerebbe un chip così.
Del resto inutile in gaming, come la Titan V base.
A quanto la "padulo edition" :asd:
P.S: queste la ha forgiate JHH nel monte Fato? I 20 ricercatori che le hanno ricevute diventeranno dei Nazgul? :rotfl:
Tutto ebbe inizio con la forgiatura delle grandi VGA. Tre furono date agli elfi gli esseri immortali più saggi e leali di tutti. Sette ai re dei nani grandi minatori e costruttori di città nelle montagne. E nove.....nove VGA furono date alla razza degli uomini che più di qualunque cosa desiderano il potere (dei frames)..perché in queste VGA erano sigillate la forza e la volontà di governare tutti i games. Ma tutti loro furono ingannati perché venne creata una giacca in pelle. Nella terra di Mordor tra le fiamme del Monte Fato Huang l'Oscuro Signore forgiò in segreto una giacca sovrana per controllare tutti gli altri e in questa giacca riversò la sua crudeltà, la sua malvagità e la sua volontà di dominare ogni forma di vita: una giacca per domarli tutti.
fraussantin
21-06-2018, 14:46
A quanto la "padulo edition" :asd:
P.S: queste la ha forgiate JHH nel monte Fato? I 20 ricercatori che le hanno ricevute diventeranno dei Nazgul? :rotfl:E una sola in mano al taiwanese per domarli tutti !
UAhhhahhhhahhhhaaaaaaa!
Il chip Tesla ha di base 128 rop's, anche il chip Pascal GP100;)
Ha un collegamento differente.
Per mantenere collegato il 4° stack devi creare un collegamento doppio aggiuntivo (la 1060 ad esempio ne ha solo uno per mantenere i 192bit).
Per renderla più semplice, è come se la 1080ti la configuri con un 512bit.
In ogni caso non puoi utilizzare più di 96 rop's:)
Riguardo la Titan v da 32gb, significherebbe utilizzare completamente il chip Tesla GV100 con HBM da 8gb, ma quanto costerebbe un chip così.
Del resto inutile in gaming, come la Titan V base.
Io per un attimo soltanto ho pensato che avessero tirato fuori una scheda con 8 GPC poi 2 sec dopo ho riconnesso :sofico:
mikael84
21-06-2018, 18:42
Io per un attimo soltanto ho pensato che avessero tirato fuori una scheda con 8 GPC poi 2 sec dopo ho riconnesso :sofico:
Con i 7nm se si riuscisse a calibrare i GPC appena sotto i 35watt si potrebbe pure fare, non è impossibile, ma per ora la vedo difficile per tanti motivi.
Il passaggio ad 8 GPC limiterebbe anche tutte quelle schede con tanto peso per canali aggiuntivi, dove non sfrutti tutto l'hardware.:)
Thunder-74
22-06-2018, 11:34
Questo è il volto di Turing
https://cdn.wccftech.com/wp-content/uploads/2018/02/nvidia-turing-gpu-740x416.jpg
DigiTimes sostiene che arriveranno portatili nel Q3 con il nuovo Chip nvidia ...
LINK (https://wccftech.com/digitimes-laptop-sales-to-climb-with-nvidia-rolling-out-next-generation-architecture-in-late-q3/)
Intanto ho corrotto un amico a vendermi la sua Ps4 usata pochissimo :fagiano:
paolox86
22-06-2018, 11:37
esiste realmente CEO Edition
https://uploads.tapatalk-cdn.com/20180621/7c0cbfcc13328466be55eb5d8cba44d1.jpeg
Inviato dal mio iPhone X utilizzando Tapatalk
Che spreco darla a questi tizi, ma datela a me che ci faccio qualche bench
Arrow0309
22-06-2018, 11:49
Che spreco darla a questi tizi, ma datela a me che ci faccio qualche bench
Chissà se arriva qualcuna su ebay e quanto costerà. :asd:
illidan2000
22-06-2018, 13:29
esiste realmente CEO Edition
https://uploads.tapatalk-cdn.com/20180621/7c0cbfcc13328466be55eb5d8cba44d1.jpeg
sbalorditivo! ero convinto fosse una bufala!!!!
paolox86
22-06-2018, 13:33
Chissà se arriva qualcuna su ebay e quanto costerà. :asd:
Ma infatti, qualche pazzo con i soldi potrebbe anche aggiudicarsela all'asta per più di 10000 $. D'altronde quel "CEO Edition" farebbe gola a molti...
Lunar Wolf
22-06-2018, 13:35
A "re dei nani grandi minatori" stavo per soffocare :asd:
Comunque per controllarli tutti ha forgiato il GPP, fortuna che Frodo lo ha distrutto nel monte Fato :asd:
Quando incontrerete un oscuro cavaliere sulla strada per Brea sarà lei:
https://image.ibb.co/gORQ9o/7c0cbfcc13328466be55eb5d8cba44d1.jpg (https://imgbb.com/)Non voglio trovarmi nei panni dei poveri figli di questa madre... Altro che ciabatte... Con una sberla ti riprogramma il cervello come un flash BIOS
Non voglio trovarmi nei panni dei poveri figli di questa madre... Altro che ciabatte... Con una sberla ti riprogramma il cervello come un flash BIOS
E dal sorrisone che ha stampato direi che quelle mani le fa andare anche con sua grande soddisfazione, che è la nipote indiana di Gianni Morandi?
Ma ma ma e chi glielo die che però la titan non ha i driver certificati !?!?!?!?! :eek:
si narra che l'interposer per le hbm di quella vga sia fatta con le cellule staminali di Huang......non vi dico da quali tessuti siano state estratte però....
AceGranger
22-06-2018, 13:57
Ma ma ma e chi glielo die che però la titan non ha i driver certificati !?!?!?!?! :eek:
la parte CUDA è certificata in egual modo :fagiano:, per quello che molti software GPGPU certificano anche le GTX al pari delle Quadro.
sgrinfia
22-06-2018, 14:01
Che spreco darla a questi tizi, ma datela a me che ci faccio qualche bench
Sei sicuro che la scatola sia piena'?, ti dico questo perchè Invidia non è nuova a scatole e schede video di cartone..........:D
la parte CUDA è certificata in egual modo :fagiano:, per quello che molti software GPGPU certificano anche le GTX al pari delle Quadro.
ah si al tempo della uscita della FE di amd avevano "sbloccato" la cosa, se non erro?
Non voglio trovarmi nei panni dei poveri figli di questa madre... Altro che ciabatte... Con una sberla ti riprogramma il cervello come un flash BIOS
Son abbastanza sicuro sia un problema di prospettiva...
Thunder-74
22-06-2018, 18:21
intanto la produzione di TMSC a 7nm va a gonfie vele grazie a ingenti investimenti.. tanto che inizieranno a produrre a 5nm a fine prossimo anno...
LINK (http://www.guru3d.com/news-story/7nm-chip-fabrication-5nm-is-gearing-up-for-next-year-already.html)
Biscottoman
22-06-2018, 18:38
intanto la produzione di TMSC a 7nm va a gonfie vele grazie a ingenti investimenti.. tanto che inizieranno a produrre a 5nm a fine prossimo anno...
LINK (http://www.guru3d.com/news-story/7nm-chip-fabrication-5nm-is-gearing-up-for-next-year-already.html)
E noi nel frattempo ad impazzire aspettando gpu con chip da 12nm... seems legit :muro:
AceGranger
22-06-2018, 19:41
ah si al tempo della uscita della FE di amd avevano "sbloccato" la cosa, se non erro?
no no, la parte CUDA è sempre stata cosi sin dall'inizio.
con l'uscita della FE hanno sbloccato nei driver della Titan la parte OpenGL
Per la gioa di tutti quelli che avevano speso il doppio per una quadro :asd:
il triplo/quadruplo per la Quadro;
la parte OpenGL è stata sblcoccata solo per le Titan e l'equivalente è la P6000, che pero ha anche 24 Gb di ram.
E noi nel frattempo ad impazzire aspettando gpu con chip da 12nm... seems legit :muro:
Capirai, se l'anno prossimo sono pronti con i 5nm significa che dal 2020 inizia la produzione, data che coincide con la prossima architettura di nvidia e anzi già nel Q3 2019 potremmo vedere i chip quadro a 5nm, si passerebbe quindi dai 12nm TSMC a 5nm un salto ponderoso...
Inoltre sarà interessante lo scenario nel 2020, in quanto avremo probabilmente un terzo competitor ovvero intel con il suo pp decisamente più avanzato di TSMC e GF :p
Non credo che le gpu saranno la proprità per questi nuovi nodi, i volumi sono relativamente bassi rispetto a cpu/apu/SoC.
Non credo che le gpu saranno la proprità per questi nuovi nodi, i volumi sono relativamente bassi rispetto a cpu/apu/SoC.
Infatti eventuali teorie meglio rimandarle all'anno prossimo, il 2020 è un anno X per troppe cose è impossibile fare pronostici...
La priorità su cui focalizzarci è quando nvidia fa uscire le nuove schede, sul fronte prestazioni oramai i calcoli li abbiamo fatti manca solo la materia prima su cui posare le scimmie :fagiano:
Thunder-74
23-06-2018, 16:55
Della serie, quando si è in cerca spasmodica di informazioni sulle nuove schede e ogni occasione è buona per vedere ovunque nVidia...
https://images-cdn.9gag.com/photo/a1KwVL6_460s.jpg
:D :D
OvErClOck82
23-06-2018, 20:46
Della serie, quando si è in cerca spasmodica di informazioni sulle nuove schede e ogni occasione è buona per vedere ovunque nVidia...
https://images-cdn.9gag.com/photo/a1KwVL6_460s.jpg
:D :D
:sbonk:
Della serie, quando si è in cerca spasmodica di informazioni sulle nuove schede e ogni occasione è buona per vedere ovunque nVidia...
:D :D
:sofico:
nessuno29
24-06-2018, 06:45
La Gtx 1160 verrà presentata insieme alle 1180 e 1170 oppure bisognerà attendere ulteriormente?
Thunder-74
24-06-2018, 07:35
La Gtx 1160 verrà presentata insieme alle 1180 e 1170 oppure bisognerà attendere ulteriormente?
Non si sa nulla di ufficiale, ma di solito non vengono presentate insieme fascia alta e fascia media
Edit:
Che dite, nvidia sta spingendo la vendita di Pascal attraverso banner pubblicitari?
Vi indica pure dove trovarle a meno oggi
https://uploads.tapatalk-cdn.com/20180624/f056d27924da66a8975fbb33ce563b91.png
:fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
Giovamas
24-06-2018, 08:49
vero Thunder. E poi sono riapparse a prezzi onesti sia sul sito evga che proprio sul sito eshop nvidia (a parte i negozi italiani con la 1080ti fuori controllo..... sul sito evga la 1080ti la trovi a 814 + ss...:rolleyes: ). ed il bitcoin è sotto i 6000. mi sa che è vero hanno dimensionato male la produzione. IMHO vedremo qualcosa non prima di fine anno
Thunder-74
24-06-2018, 11:27
vero Thunder. E poi sono riapparse a prezzi onesti sia sul sito evga che proprio sul sito eshop nvidia (a parte i negozi italiani con la 1080ti fuori controllo..... sul sito evga la 1080ti la trovi a 814 + ss...:rolleyes: ). ed il bitcoin è sotto i 6000. mi sa che è vero hanno dimensionato male la produzione. IMHO vedremo qualcosa non prima di fine anno
Credo sia così... supremazia nelle fasce di prezzo / errato calcolo delle scorte con eccessivo disavanzo da smaltire / cancellazione di annunci previsti anche se non dichiarati ufficialmente / parole del signor giaccetta di pelle del tipo "c'è ancora tempo per le nuove VGA" / incremento delle vendite di Pascal per effetto di questo "nuovo" marketing...
Diciamo che lo scenario attuale fa presagire un ritardo nelle presentazione delle nuove VGA nVidia...
Biscottoman
24-06-2018, 11:38
Credo sia così... supremazia nelle fasce di prezzo / errato calcolo delle scorte con eccessivo disavanzo da smaltire / cancellazione di annunci previsti anche se non dichiarati ufficialmente / parole del signor giaccetta di pelle del tipo "c'è ancora tempo per le nuove VGA" / incremento delle vendite di Pascal per effetto di questo "nuovo" marketing...
Diciamo che lo scenario attuale fa presagire un ritardo nelle presentazione delle nuove VGA nVidia...
Secondo me potrebbe anche trattarsi semplicemente del boost finale per vedere al massimo le Pascal in questo ultimo periodo e se si dovesse trattare di un ritardo, si tratterebbe di qualche settimana massimo un mese. Ma si vedrà, credo che il mese di luglio sarà il mese in cui finalmente capiremo qualcosa in più sulle reali tempistiche o almeno spero.
Thunder-74
24-06-2018, 12:25
Secondo me potrebbe anche trattarsi semplicemente del boost finale per vedere al massimo le Pascal in questo ultimo periodo e se si dovesse trattare di un ritardo, si tratterebbe di qualche settimana massimo un mese. Ma si vedrà, credo che il mese di luglio sarà il mese in cui finalmente capiremo qualcosa in più sulle reali tempistiche o almeno spero.
Speriamo, però è anche vero che questa è la prima volta che si verifica il fenomeno mining a condizionare vendite e rese ...
Inviato dal mio iPhone X utilizzando Tapatalk
Se fosse un problema di scorte da smaltire abbasserebbero i prezzi per incrementare la domanda...
I prezzi attuali sono persino più alti del day one...
Thunder-74
24-06-2018, 13:16
Se fosse un problema di scorte da smaltire abbasserebbero i prezzi per incrementare la domanda...
I prezzi attuali sono persino più alti del day one...
Secondo me scenderanno ...
Inviato dal mio iPhone X utilizzando Tapatalk
Biscottoman
24-06-2018, 13:28
Il fatto è che arrivati a questo punto ormai molti dei possibili acquirenti si pongono il più che giusto dubbio sul fatto di quanto valga la pena acquistare ora una scheda di 1-2 anni fa quando tra un paio di mesi potrebbero uscire delle schede nuove. Quindi se nvidia ha intenzione di vendere veramente i prezzi dovranno scendere di una discreta percentuale a mio avviso.
Il fatto è che arrivati a questo punto ormai molti dei possibili acquirenti si pongono il più che giusto dubbio sul fatto di quanto valga la pena acquistare ora una scheda di 1-2 anni fa quando tra un paio di mesi potrebbero uscire delle schede nuove. Quindi se nvidia ha intenzione di vendere veramente i prezzi dovranno scendere di una discreta percentuale a mio avviso.
Se la 1080ti scendesse a 550€ come fu per la 980ti il problema: "quanto ne valga la pena" non ci sarebbe...
Il problema non credo neanche sia nvidia, ma dei produttori che vogliono lucrare al meglio infatti anche per le schede amd il discorso è analogo...
Per me hanno molte schede a magazzino di fascia media/bassa, non ne acquistano altre da nvidia/amd cosi da mantere alto il valore e monetizzare il più possibile... Tanto chi prende i chipponi oltre alla fascia media se spende 500 o 700 cambia poco :sofico:
raiden_master_v5
24-06-2018, 13:56
Secondo me scenderanno ...
Inviato dal mio iPhone X utilizzando Tapatalk
come è successo alla gtx970, poi si è visto....ha lo stesso prezzo della gtx1060 ora come ora.
Thunder-74
24-06-2018, 16:01
nVidia ha ordinato alla TSMC chip a 7nm per la prossima gpu
https://wccftech.com/nvidia-7nm-next-gen-gpus-tsmc/
😱 😱
Inviato dal mio iPad utilizzando Tapatalk
nVidia ha ordinato alla TSMC chip a 7nm per la prossima gpu
https://wccftech.com/nvidia-7nm-next-gen-gpus-tsmc/
�� ��
Inviato dal mio iPad utilizzando Tapatalk
Io lascerei ogni speranza... guarda caso la data coincide con la presentazione del Tegra X3 :sofico:
Eventuali soluzioni a 7 nm per pc le si vedranno per le quadro nel Q4 2019 :fagiano:
Thunder-74
25-06-2018, 05:49
Io lascerei ogni speranza... guarda caso la data coincide con la presentazione del Tegra X3 :sofico:
Eventuali soluzioni a 7 nm per pc le si vedranno per le quadro nel Q4 2019 :fagiano:
E allora sicuramente sarà per il Tegra...
Inviato dal mio iPhone X utilizzando Tapatalk
Giovamas
25-06-2018, 17:53
https://wccftech.com/micron-gddr6-memory-mass-production-official/
Il nabbo di turno
26-06-2018, 08:54
https://videocardz.com/76659/nvidias-next-gen-graphics-card-with-gddr6-smiles-for-camera
Thunder-74
26-06-2018, 09:56
3x8 pin... finalmente nvidia ha smesso di underclockare di default le sue gpu?
secondo me questo è una sorta di pcb "universale" per condurre test.
TigerTank
26-06-2018, 10:14
secondo me questo è una sorta di pcb "universale" per condurre test.
Anche secondo me...oltretutto ci si augura che robe tipo 3pin siano solo su schede custom particolarmente spinte e pensate per gli OC estremi da azoto. Sulle schede normali meno alimentazione serve in rapporto alle prestazioni e meglio è a livello di consumo, calore e dissipazione :)
Questa sarebbe una giusta evoluzione hardware, non avere delle fornaci assetate di energia :D
Inoltre Nvidia non undervolta le sue gpu, anzi...in genere hanno un certo margine in più per garantire la stabilità...vedasi ad esempio gli undervolt sulle Pascal tramite curva di afterburner(fatta pure io sulle schede a default) con relative temperature un pò più basse.
Già immagino cosa possa servire per rafreddarle in modo adeguato :muro:
Thunder-74
26-06-2018, 10:55
Anche secondo me...oltretutto ci si augura che robe tipo 3pin siano solo su schede custom particolarmente spinte e pensate per gli OC estremi da azoto. Sulle schede normali meno alimentazione serve in rapporto alle prestazioni e meglio è a livello di consumo, calore e dissipazione :)
Questa sarebbe una giusta evoluzione hardware, non avere delle fornaci assetate di energia :D
Inoltre Nvidia non undervolta le sue gpu, anzi...in genere hanno un certo margine in più per garantire la stabilità...vedasi ad esempio gli undervolt sulle Pascal tramite curva di afterburner(fatta pure io sulle schede a default) con relative temperature un pò più basse.
Pensa se questo fosse un pcb reference, uno super custom tipo kingpin avrebbe 9 connettori :D
Inviato dal mio iPhone X utilizzando Tapatalk
Buildzoid riguardo il prototipo:
GDDR6 VRAM: [https://www.micron.com/parts/dram/gddr6/mt61k256m32je-14](https://www.micron.com/parts/dram/gddr6/mt61k256m32je-14)
384bit memory bus.
Micron's brief says they want to do 12/14/16 Gb/s with the 384bit bus that gives this 576GB/s - 768GB/s. A Titan V is 652.8 GB/s a Tesla V100 is 897.0 GB/s.
NV link connector up top but this being a prototype doesn't mean much.
looks like the VRM could be the 8 phase of the Titan V with +2 for VRAM or it's a 10 phase version of the TV VRM and VRAM power is hidng under the fans.
3 8pins.
Kinda an odd balance. This looks like it needs more Vcore power than a TV / TV100 while probably having less mem bandwidth than either. AFAIK compute doesn't benefit from the compression tech Nvidia uses for games. So the only scenario I can think of where the mem bandwidth would be too low for the core is games unless Nvidia has a new more effective compression algorithm. However the GDDR6 is only 8Gb chips even with chips on 2 sides this would top out at 24GB. However it could be a prototype to prepare for the 16Gb density chips. However right now what's in that picture looks a little imbalanced(too much core not enough VRAM) for a pure compute card like the Tesla V100 is.
More data is necessary.
Inviato dal mio XT1068 utilizzando Tapatalk
Il nabbo di turno
26-06-2018, 11:10
Bisogna sempre considerare che le gddr consumano di più delle hbm...
Ale55andr0
26-06-2018, 13:54
Bisogna sempre considerare che le gddr consumano di più delle hbm...
si, con una differenza che vale addirittura una manciata di watt in cambio di maggiore diffusione e costi più bassi :asd:
Thunder-74
26-06-2018, 15:21
È uscita ieri questa notizia: https://www.heise.de/newsticker/meldung/In-eigener-Sache-Nvidia-NDA-als-Maulkorb-fuer-Journalisten-4091751.html
Seguita anche da un approfondimento di techpowerup: https://www.techpowerup.com/245507/revised-nvidia-reviewers-nda-raises-eyebrows-our-thoughts
Fondamentalmente heise.de denuncia una NDA troppo restrittiva che rischia di mettere il bavaglio alle varie testate del settore.
Evidenzia prima di tutto la natura molto generica del documento.
Tradotto con google:
Poi ne riporta delle parti:
Techpowerup minimizza la cosa ma bisogna evidenziare che ha firmato il documento.
Ci sta se pensiamo che nVidia deve spingere Pascal per l’avanzo di chip e tenere “segrete” le news su il prossimo chip..
Inviato dal mio iPhone X utilizzando Tapatalk
Legalese per pararsi il culo in casi di... Non credo comunque li obblighi nessuno a firmare un NDA, Nvidia ha tutto il diritto di tutelarsi come meglio crede no ?
"Imbavagliare" mi sembra un termine eccessivo visto che sono info in anteprima non dovute date dal produttore, chiaro che poi diffondere info crei anche hype, ma di certo questi sitarelli non possono avere pretese.
Poi dopo la merda che han preso sul Geforce Program (o come si chiamasse non ricordo) ecco arrivata la retaliation ;)
Quindi se non ho capito male chi sottoscrive l'NDA può scrivere di nVidia solo se le cose vanno bene e sono favorevoli alla loro immagine, a prodotti o informazioni in generale?
direi molto trasparente come cosa, ma chissà perché non mi stupisco. è tipo un GPP 2.0?
mah...
Leggendo l'NDA, in pratica chi lo firma si impegna a non divulgare informazioni ricevute da nvidia, o dedotte dai samples che fornisce. L'embargo scade quando queste info diventano pubbliche.
la parte di scrivere solo roba favorevole credo sia interpretata dal punto "I sottoscrittori possono usare le 'informazioni riservate' esclusivamente per il beneficio di nvidia, e non possono : [elenco di roba tipo pubblicare rumors, storie, vendere info, etc etc]
Penso sia dovuto al leak delle 300k schede video che rientravano negli stocks di mamma nvidia, non che riguardi le recensioni positive
Thunder-74
26-06-2018, 16:25
Vi posto uno stralcio tradotto dall’articolo di Guru 3d in merito a questa questione
... Il documento stesso è progettato in modo tale da avvantaggiare NVIDIA... L'accordo è a lungo termine e afferma che le informazioni riservate devono essere mantenute segrete per cinque anni, ma se si tratta di un "segreto commerciale professionale", tale riservatezza non passerà mai. Questo, in teoria, potrebbe significare che i giornalisti non potrebbero mai rivelare dettagli specifici trapelati da un'altra fonte...
FONTE (http://www.guru3d.com/news-story/new-nvidia-press-embargo-stirs-things-up.html)
Inviato dal mio iPhone X utilizzando Tapatalk
Però raga mi sembra che non sia negativa la cosa, per come ho capito, se attualmente si riceve una scheda in anteprima non è possibile in alcun modo divulgare informazioni sulla scheda fin quando NDA non scade, con questo contratto firmato invece è possibile divulgare in anteprima XXX informazioni approvate da nvidia.
O sbaglio?
Thunder-74
26-06-2018, 16:38
Il che mi pare assurdo, in pratica non leggeremo mai più notizie che parlano in modo oggettivo di nVidia come quella delle 300k schede invendute che è una notizia di cronaca... non è ne parlare bene ne male, è cronaca.
mah
Comunque credo ci siano gli estremi per abuso di posizione dominante, perché chi non firma l'NDA rimane fuori dalle grazie di nVidia con ciò che ne consegue.
Sai che non ci avevo pensato.... non sarà stata proprio la notizia del reso a far scattare questa manovra? Difatti ha in qualche modo messo alle strette nVidia con la storia di dover piazzare sul mercato l’avanzo, prima di tirar fuori i nuovi modelli...
Inviato dal mio iPhone X utilizzando Tapatalk
OvErClOck82
26-06-2018, 16:48
Però raga mi sembra che non sia negativa la cosa, per come ho capito, se attualmente si riceve una scheda in anteprima non è possibile in alcun modo divulgare informazioni sulla scheda fin quando NDA non scade, con questo contratto firmato invece è possibile divulgare in anteprima XXX informazioni approvate da nvidia.
O sbaglio?
non sbagli in teoria, solo che la stai vedendo dall'altro (improbabile) lato :asd:
molto più verosimile che nVidia non permetta di parlare di ''nulla'' che sia anche solo vagamente scomodo per loro (chi ha detto GPP ? :stordita: )
Sai che non ci avevo pensato.... non sarà stata proprio la notizia del reso a far scattare questa manovra? Difatti ha in qualche modo messo alle strette nVidia con la storia di dover piazzare sul mercato l’avanzo, prima di tirar fuori i nuovi modelli...
Inviato dal mio iPhone X utilizzando Tapatalk
Come ho scritto poco prima, secondo me è evidente la cosa.. questo spiega pure il perchè chiedevano di firmarlo entro due giorni
mikael84
26-06-2018, 17:33
https://wccftech.com/micron-gddr6-memory-mass-production-official/
Buildzoid riguardo il prototipo:
GDDR6 VRAM: [https://www.micron.com/parts/dram/gddr6/mt61k256m32je-14](https://www.micron.com/parts/dram/gddr6/mt61k256m32je-14)
384bit memory bus.
Micron's brief says they want to do 12/14/16 Gb/s with the 384bit bus that gives this 576GB/s - 768GB/s. A Titan V is 652.8 GB/s a Tesla V100 is 897.0 GB/s.
NV link connector up top but this being a prototype doesn't mean much.
looks like the VRM could be the 8 phase of the Titan V with +2 for VRAM or it's a 10 phase version of the TV VRM and VRAM power is hidng under the fans.
3 8pins.
Kinda an odd balance. This looks like it needs more Vcore power than a TV / TV100 while probably having less mem bandwidth than either. AFAIK compute doesn't benefit from the compression tech Nvidia uses for games. So the only scenario I can think of where the mem bandwidth would be too low for the core is games unless Nvidia has a new more effective compression algorithm. However the GDDR6 is only 8Gb chips even with chips on 2 sides this would top out at 24GB. However it could be a prototype to prepare for the 16Gb density chips. However right now what's in that picture looks a little imbalanced(too much core not enough VRAM) for a pure compute card like the Tesla V100 is.
More data is necessary.
Inviato dal mio XT1068 utilizzando Tapatalk
La questione ram è più complessa, ne abbiamo discusso qualche giorno fa.
Attualmente Hynix e Micron sono fermi ai 12-14 gb/s (che verranno utilizzati quasi sicuro in simili tagli). Hynix ha le S0C da 10/12gb/s, e le S2C da 12-14.
Il problema è che utilizzano gli MC da 1gb, per un totale di 8gb su una 1180.
L'unica che è in anticipo ed ha MC da 16gb è samsung con le HC16.
Probabilmente, almeno le 1180 inizialmente potrebbero partire con 2 tagli differenti (8/16gb) con magari le samsung più clockate.;)
Da quanto ho capito questa è una NDA generica.
Poi quando cominceranno a mandare i sample per esempio della 1180 ci sarà la NDA specifica per le info sulla 1180 con al data di scadenza solita.
Quindi è qualcosa che a noi consumatori non interessa, probabilmente credo che sia un accordo riservato ai partner grossi che possano divulgare informazioni anche di valenza legale riguardo le scelte commerciali, come appunto produzione di chip a 7nm, acquisto di GDDR6 in XX quantitativi etc...
E successivamente esteso anche ai recensori per evitare anche eventuali fuoriuscite di informazioni da sample non commerciali usati dai test come a volte fa anche Techpower dove stipula una lista di caratteristiche HW anche per i sample non ufficiali...
Non è così semplice, certo nessuno obbliga a firmare ma se non firmano non ricevono schede in anteprima, non hanno la review pronta all'uscita e perdono un sacco di visibilità e quindi di fatto se vogliono fare il loro lavoro devono firmare.
E' molto semplice invece perche' Nvidia non e' tenuta a dirti niente in anticipo e se vuole darti info o un prodotto lo fa totalmente alle sue condizioni, o ti adegui o ti attacchi :)
Infatti è quello che ho commentato nella notizie qua su HU, pare che Micron abbia avviato solamente la produzione delle 8 Gigabit, perdendo così almeno inizialmente uno dei vantaggi delle gddr6 vs gddr5/x, ovvero il raddoppio di densità oltre alle velocità superiori ai 12g.
mah...
Chip del genere secondo me Micron li può far inserire solo nei notebook, non vedo nessun vantaggio per le soluzioni desktop...
mikael84
26-06-2018, 19:06
Infatti è quello che ho commentato nella notizie qua su HU, pare che Micron abbia avviato solamente la produzione delle 8 Gigabit, perdendo così almeno inizialmente uno dei vantaggi delle gddr6 vs gddr5/x, ovvero il raddoppio di densità oltre alle velocità superiori ai 12g.
mah...
Non mi preoccuperei molto di Micron, già con le ex Elpida arrivava sempre ultima, facendo poi bestemmiare chi se le ritrovava al posto delle Samsung o delle hynix.:p
Chip del genere secondo me Micron li può far inserire solo nei notebook, non vedo nessun vantaggio per le soluzioni desktop...
Ci sono diversi modelli con tensione più bassa, 10/12 ad 1,25v ed i classici ad 1,35v.
Anche Hynix ha modelli da 10/12 su 1,25v, mentre tutti i modelli da 14 gb/s sono tarati ad 1,35v.
Un tempo le hd 7970 ed alcune multifase nVidia permettevano anche l'overvolt delle vram.
Le ddr5x, sono molto rilassate.
Ale55andr0
26-06-2018, 20:43
Hanno appena cominciato a produrle e sono già più diffuse di una tecnologia che Nvidia montava già nel 2016.
Cambia marmotte, quella non è cioccolata
tienitela la marmotta, che la gddr6 è una memoria standard come :read: tutte le altre generazioni:read: delle quali prende il posto, non un ritrovato tecnologico con mazzi cazzi e interposer per pochi modelli ultratop o pro come quell'inno all'inutilità delle hbm. Ovvio poi che non le troverai nelle vga da 150 euro, è pacifico. Togliti i prosciutti aemmedì dagli occhi, altro che le marmotte :rolleyes:
Thunder-74
27-06-2018, 05:51
https://www.techpowerup.com/245463/nvidia-g-sync-hdr-module-adds-usd-500-to-monitor-pricing
...mortacci loro, 500$ per il moduletto gsync???
E sembra che non sia neanche margine, ma proprio hardware costoso. Ma come mai serve roba così pesante per gestire il gsync in 4k hdr?
Che poi con l’attuale DIsplay port, non c'è sufficiente banda per gestire 4K/hdr/120hz, al punto che lo spazio colore viene compresso a 4:2:2, perdendo di qualità l'immagine. Pensa che viene consigliato di impostare lo schermo a 60hz quando si è in desktop/ambiente lavoro...
http://www.guru3d.com/news-story/asus-and-acer-uhd-g-sync-hdr-monitors-forced-to-use-color-compression-at-120144-hz.html
Inviato dal mio iPhone X utilizzando Tapatalk
Farà un figurone, sugli scaffali.
techfede
27-06-2018, 08:19
Se interessa metto un video di GamersNexus dove parlano con un avvocato americano riguardo al nuovo NDA nvidia
https://www.youtube.com/watch?v=7SXmkk_yVMU
Arrow0309
27-06-2018, 08:42
https://www.techpowerup.com/245463/nvidia-g-sync-hdr-module-adds-usd-500-to-monitor-pricing
...mortacci loro, 500$ per il moduletto gsync???
E sembra che non sia neanche margine, ma proprio hardware costoso. Ma come mai serve roba così pesante per gestire il gsync in 4k hdr?
Quoto, troppo. :O
Che poi saranno più di 500 se aggiungi pure i costi della licenza.
Che poi con l’attuale DIsplay port, non c'è sufficiente banda per gestire 4K/hdr/120hz, al punto che lo spazio colore viene compresso a 4:2:2, perdendo di qualità l'immagine. Pensa che viene consigliato di impostare lo schermo a 60hz quando si è in desktop/ambiente lavoro...
http://www.guru3d.com/news-story/asus-and-acer-uhd-g-sync-hdr-monitors-forced-to-use-color-compression-at-120144-hz.html
Inviato dal mio iPhone X utilizzando Tapatalk
Mi sbaglio io o i nuovi monitor saranno dp 1.4 (roggone compreso)?
È ovvio che non si possono gestire col dp 1.2
Edit:
Hai ragione, azzo non pensavo che anche in dp 1.4 il bandwidth fosse ancora insufficiente.
In poche parole non siamo ancora pronti per il 4K HDR oltre i 60hz.
Poco male, tornando ai monitor uw in uscita e al modulo gsync mi spiace che la LG per ridurre i costi sul suo nuovo monitor 34" uw in uscita (nanocell ips, gsync) userà ancora il vecchio modulo gsync in dp 1.2 limitando così a 120hz un panello 3440x1440 da 144hz nativo.
PS:
Vedremo il nuovo Predator X35 ed equivalente Rog quanto costeranno (qualcuno ha detto non poco)? :)
AceGranger
27-06-2018, 08:58
Mi sbaglio io o i nuovi monitor saranno dp 1.4 (roggone compreso)?
È ovvio che non si possono gestire col dp 1.2
Edit:
Hai ragione, azzo non pensavo che anche in dp 1.4 il bandwidth fosse ancora insufficiente.
In poche parole non siamo ancora pronti per il 4K HDR oltre i 60hz.
Poco male, tornando ai monitor uw in uscita e al modulo gsync mi spiace che la LG per ridurre i costi sul suo nuovo monitor 34" uw in uscita (nanocell ips, gsync) userà ancora il vecchio modulo gsync in dp 1.2 limitando così a 120hz un panello 3440x1440 da 144hz nativo.
puoi andare oltre, senza far intervenire la compressione puoi arrivare al massimo a 4K @98Hz @4:4:4
per andare a 4K @144Hz @4:4:4 dovresti usare 2 cavi, ma bisogna vedere se lo scaler dei monitor in questione supporta lo split del segnale su 2 cavi.
Arrow0309
27-06-2018, 09:08
non li puoi gestire nemmeno con la DP 1.4, al massimo arrivi a:
4K @98Hz @4:4:4
4K @144Hz @4:2:2
per andare a 4K @144Hz @4:4:4 dovresti usare 2 cavi, ma bisogna vedere se lo scaler dei monitor in questione supporta lo split del segnale su 2 cavi.
Perché, con quale scheda video ci riesci a giocare ad oltre 98hz in 4k? :D
Scherzo, si ho capito ed ho editato cmq.
BTW
A me piacerebbe un 5k ultra wide (o per coretezza 4k uw) da 38" e 165hz. :Prrr:
Quanti anni ancora ci passeranno per poter giocare? :asd:
Peccato per questi prezzi delle HBM2, sono una tecnologia interessante.
Una cosa che non ho capito e vorrei chiedere agli utenti più esperti: se non ho capito male, sia GDDR6 che HBM2 offrono una banda maggiore di GDDR5/GDDR5x al costo però di una maggiore latenza. E' vero? E se si, quanto influisce questo sulle prestazioni e in quali casi/giochi si può notare di più?
A occhio e croce immagino che vengano penalizzati gli scenari dove faresti gozzilioni di fps (200+) dove la larghezza della banda non è così influente quanto la rapidità di accesso, mentre vengono favoriti tutti gli altri casi (4k, montagne di asset) dove puoi accedere a più dati, o sbaglio?
AceGranger
27-06-2018, 09:23
Perché, con quale scheda video ci riesci a giocare ad oltre 98hz in 4k? :D
Scherzo, si ho capito ed ho editato cmq.
BTW
Quanti anni ancora ci passeranno per poter giocare? :asd:
lol ho visto che avevi editato e ho corretto pure io nello stesso momento :asd:
si bè, nemmeno la prossima Titan riuscira a gestire 4K @ 144Hz, pero diciamo che un monitor "teoricamente" dura molto di piu di una GPU.
A me piacerebbe un 5k ultra wide (o per coretezza 4k uw) da 38" e 165hz. :Prrr:
a me sarebbe piaciuto anche a 60Hz per lavorare, ma ormai ho risolto con 2 monitor 4096x2016 :D
È il "visually lossless" che non capisco, è la compressione 4:2:2 di cui parlava Thunder-74?
no con 4:2:2 per definizione perdi qualità, lì sembra utilizzino una qualche compresisone per sfruttare olttre gli attuali limiti di banda la DP 1.3, insomma la 1.4 sembra una 1.3 più sto DSC.....oppure non c'entra nulla con la DP in sè ma è solo un encoder che dovranno supportare i monitor/tv in futuro....
Thunder-74
27-06-2018, 09:58
no con 4:2:2 per definizione perdi qualità, lì sembra utilizzino una qualche compresisone per sfruttare olttre gli attuali limiti di banda la DP 1.3, insomma la 1.4 sembra una 1.3 più sto DSC.....oppure non c'entra nulla con la DP in sè ma è solo un encoder che dovranno supportare i monitor/tv in futuro....
Esatto, con questo sistema però si introduce ritardo sul segnale ...
...DSC can provide users with up to a 3:1 compression ratio that is "virtually lossless", facilitating higher resolutions and framerates. DSC requires time to decompress the visual signal on the display side, adding a small amount of lag to monitors using DSC....
https://www.overclock3d.net/news/gpu_displays/nvidia_s_g-sync_hdr_4k_144hz_monitors_reportedly_use_blurry_chroma_subsampling_at_over_120hz/1
Inviato dal mio iPhone X utilizzando Tapatalk
Arrow0309
27-06-2018, 10:29
Quindi DP1.4 a 4k 120hz hdr "senza compressione" ci arriva?
No, come ha detto anche AceGranger al max 4k 98hz.
Servirà il nuovo dp 1.5 chissà nel 2019 o 2020:
https://chefkochblog.wordpress.com/2018/01/08/displayport-1-5-offers-min-648-gb-s-for-8k60/
Arrow0309
27-06-2018, 11:10
su wikipedia dichiarano che il prossimo DP supporterà 4k 180hz HDR
This should allow for uncompressed RGB / YCBCR 4:4:4 video formats as high as:
8K (7680 × 4320) @ 60 Hz 8 bpc (24 bit/px) or 50 Hz 10 bpc (30 bit/px)
5K (5120 × 2880) @ 120 Hz 8 bpc or 100 Hz 10 bpc
4K (3840 × 2160) @ 200 Hz 8 bpc or 180 Hz 10 bpc
Tochera' pure vedere se un 5k uw (5120 x 2160) a 120hz e superiore (10 bit) sarà supportato, sempre se lo fanno. :)
Tochera' pure vedere se un 5k uw (5120 x 2160) a 120hz e superiore (10 bit) sarà supportato, sempre se lo fanno. :)
5120x2160 è un 4K allargato in termini di densità e se supporta 5120x2880@120hz significa che a 5120x2160 riesci a gestire anche 144hz e forse forse 165hz :p
AceGranger
27-06-2018, 11:36
Tochera' pure vedere se un 5k uw (5120 x 2160) a 120hz e superiore (10 bit) sarà supportato, sempre se lo fanno. :)
bè 5K @60Hz e HDR gia ci sono, credo che il passo sia breve; se li terranno come nuovi TOP gamma prima dell'arrivo degli 8K.
Esatto, con questo sistema però si introduce ritardo sul segnale ...
...DSC can provide users with up to a 3:1 compression ratio that is "virtually lossless", facilitating higher resolutions and framerates. DSC requires time to decompress the visual signal on the display side, adding a small amount of lag to monitors using DSC....
https://www.overclock3d.net/news/gpu_displays/nvidia_s_g-sync_hdr_4k_144hz_monitors_reportedly_use_blurry_chroma_subsampling_at_over_120hz/1
Inviato dal mio iPhone X utilizzando Tapatalk
eccerto, più roba ci metti fra la gpu e il monitor e per forza di cose le latenze aumentano.....io sto bene con il mio 21:9 3440x1440, wake me up when "oled-4k-120hz-si-troveranno-nelle-patatine" :O
Ale55andr0
27-06-2018, 13:26
E' uno standard nuovo, costera' tanto. Come sempre. Fine.
E' uno standard che vedremo in un numero maggiore di schede nelle varie fasce, rispetto a quella inutile sciccheria siliciosa della hbm. "Fine" :rolleyes:
E' uno standard che vedremo in un numero maggiore di schede nelle varie fasce, rispetto a quella inutile sciccheria siliciosa della hbm. "Fine" :rolleyes:
Inutili?
Sono solo la memoria di riferimento dove contano le prestazioni. Io al posto tuo andrei dagli ingegneri AMD e Nvidia a dirgli che non capiscono nulla e mettono inutili sciccherie, quando bastava usare la formula Alessandro: 'we ingegneri, ma che siete scemi? Mettete le gddr5x, cosi' spendete meno, non avete problemi a mettere l`interposer, avete meno problemi di fornitura e la gpu costa anche meno e ne vendete di piu'
Vedrai che ti risponderanno: "Graaaazie, ma come avevamo fatto a non pensarci? Noi pensavamo di mettere le hbm per i loro consumi e prestazioni migliori, ma ora che ci fai riflettere sono solo una sciccheria inutile da marketing, ma tanto chi compra gpu professionali e necessita di prestazioni e spende migliaia di euro in gpu non guarda le prestazioni, legge hbm e compra".
Pensa che scemi che non ci sono arrivati.
Ma tu pensa pure Samsung e Hynix che dicono che la domanda di HBM e` talmente elevata che non riescono a starci dietro che stanno li` a sfregarsi le mani.
"We SK Hynix, meno male che ci sono cascati tutti quanti nelle HBM, sono cosi' inutili eppure ce ne chiedono a quantita' industriale. E' risaputo che i produttori di hardware mondiali costruiscono sistemi in base all'hype e non per offrire il sistema piu` competitivo sul mercato al prezzo migliore in modo da farci piu` soldi possibili, se solo ci fosse stato Alessandro a spiegare loro che bastava mettere le gddr ed era meglio."
"Eh si, e` proprio una fortuna che un ingegnere cosi' preparato che ha alle sue spalle cosi' tante architetture di successo non lavori presso i produttori di hardware. In AMD, Nvidia, Intel sono talmente scemi che prendono gente incompetente che parla a caso sui forum. Gli ingegneri capaci come Alessandro non se li sono accaparrati".
Se lo piglia Intel, lavorerà con Koduri :eek:
AMD e nVidia, preparatevi.
Se lo piglia Intel, lavorerà con Koduri :eek:
AMD e nVidia, preparatevi.
Io sono davvero curioso di vedere cosa sforna intel, l'ultima GPU Iris Pro 580 non è davvero male, dovrebbe essere ai livelli di una Vega 8 o giusto un pelo sotto...
Thunder-74
27-06-2018, 22:26
Comunque lasciatemi dire che Koduri, sarebbe un perfetto nome per una GPU :D
Inviato dal mio iPad utilizzando Tapatalk
Comunque lasciatemi dire che Koduri, sarebbe un perfetto nome per una GPU :D
Inviato dal mio iPad utilizzando Tapatalk
Ineffetti :sofico:
https://steemitimages.com/DQmXBFoWfA22u3pbPJx73eLg1BbTM8zDdpkcf56KU1nknB4/uP6o4pB.jpg
Ale55andr0
27-06-2018, 22:58
Inutili?
Sono solo la memoria di riferimento dove contano le prestazioni. Io al posto tuo andrei dagli ingegneri AMD e Nvidia a dirgli che non capiscono nulla e mettono inutili sciccherie, quando bastava usare la formula Alessandro: 'we ingegneri, ma che siete scemi? Mettete le gddr5x, cosi' spendete meno, non avete problemi a mettere l`interposer, avete meno problemi di fornitura e la gpu costa anche meno e ne vendete di piu'
///cuttone di blateramento inutile quanto le hbm///
Io mi toglierei i prosciutti a forma di amd dagli occhi (repetita juvant) e rileggerei i miei precedenti post in cui parlavo chiaramente di schede di gaming, non delle professionali che non c'entrano un beneamatissimo con quanto siamo interessati noi, e te lo riscrivo a caratteri cubitali che sono INUTILI. Segnatelo, visto che ci tieni tanto a fare il sarcasmo....da qui ad ancora un bel pezzo le tue sante hbm le vedremo in un esiguo numero di schede mentre lo standard anche in fasce non propriamente "economiche" resteranno le gddr. Ripeto: segnatelo.
La parola che cerchi è costose, non inutili. Non hanno nulla d'inutile.
I vantaggi prestazionali e di consumi sono evidenti.
E ti ricordo che le hbm 1 le trovavamo su gpu da 400 euro come Fury nano, e le hbm1 erano più costose delle 2.
Di fatti, le abbiamo già su gpu gaming.
Non vedo nulla di assurdo nell'adozione maggiore di hbm in ambito gaming, ne troverei assurdo se Nvidia rilasciasse le gpu di fascia media e alta con hbm2 anche se non credo lo faranno, non in fascia media perlomeno.
Da questo punto di vista quoto con Alessandro, ad ora in gaming le GDDR offrono di più rispetto le HBM, anche la Titan V ne risente enormemente in BW, ma in ambito professionale il discorso è ben diverso...
Di sicuro per le architetture a venire le HBM risultano interessanti sopratutto per i chip integrati come i7 8809G che monta uno stack di HBM2 con 1024bit a 800mhz circa 204gb/s di bw (le gddr era fisicamente impossibile metterle per spazio/calore) ma per le gpu dedicate l'approccio attuale usato per le GDDR risulta ancora estremamente valido e redditizio infatti non mi sorprenderebbe se amd per le Vega che sostituiranno le attuali Rx 5xx usi le GDDR e successivamente le HBM per le sole top gamma...
Ma offrono di più cosa in cosa? ma che cosa state dicendo?
più che dirvi che con 1 stack HBM2 e un singolo controller 1024b si possono avere 4/8 GB da 204-307 GB/s e per i valori bassi 4GB@204GB/s stiamo parlando di HBM2 uscite nel 2017 (le 1.6g ma c'erano già le 8GB da 1.9g in Vega FE), come fai a dire che le GDDR offrono di più che si fermano ad oggi con le 14/16g da 1/2GB@ 56-64GB/s per 32b di connessione? qual'è il vantaggio? per non parlare dei consumi...
guardate che non si sta parlando di nVidia o di AMD...
L'unico vantaggio che hanno sono il costo delle gddr5 rispetto alle hbm, ma non ci metterei la mano sul fuoco con le gddr5x ne tanto meno con le gddr6 che ancora devono essere prodotte, trovatemi i costi e poi ne parliamo ad oggi sono solo vostre supposizioni sui costi inferiori, che poi non considerate al fatto che si risparmia in progettazione nel layout sia del Die (256b sono 8x32b di IMC) che del PCB, ma di mezzo c'è un interposer per confezionare il pacchetto questo nessuno lo toglie o lo nega.
Ripeto non è perché si chiamano GDDR6 allora te le regalano il giorno dopo che le hanno prodotte.
Hai detto niente...
Secondo mio modestissimo parere non esiste una netta demarcazione tra meglio o peggio.
Esatto, è proprio così.
Si fanno valutazioni di natura economica e si vede qual è il miglior compromesso da un punto di vista economico e prestazionale. E anche a livello prestazionale e tecnico ogni tecnologia ha i suoi pro e contro.
Come già detto in precedenza che le HBM risultino la base per i chip futuri è innegabile, la struttura delle HBM è anche stata ripresa da Intel e altri partner per le memorie HMC ma sono tecnologie che ad ora per rese e costi le rendono poco pratiche per inserirle in tutti i chip, infatti ad ora sono esclusiva delle soluzioni top gamma...
Persino la produzione delle HBM non è uguale per tutti i produttori dove negli ultimi anni stanno sviluppando diversi metodi produttivi per massimizzare le rese...
E gli ingegneri AMD e Nvidia non sono stupidi, se optano per utilizzare un vecchio standard come le GDDR per i chip minori sopratutto se in termini di banda non possiamo ancora parlare di concreti vantaggi visto che con bus ampi le GDDR offrono ancora tutta la bw necessaria e risultano quindi le soluzioni migliori per costi/compatibilità/licenze...
In futuro di sicuro avremo architetture molto diverse che rendono le HBM quasi obbligate considerando anche la particolare struttura in pila sopratutto quando il quantitativo di vram/ram arriverà a livelli elevatissimi (già ora parliamo di 24GB per il prossimo chippone full di nvidia)...
Da quello che diceva il tipo di Gamers Nexus già il 27 marzo 2018 avranno un costo per i produttori del 20% in più sulle gddr5 andandosi ad assottigliare mano mano ad un 10% e già a marzo aveva detto che la produzione di massa sarebbe scattata a giugno com'è effettivamente stato annunciato/confermato pochi giorni fa, quindi anche il resto delle informazioni direi che sono attendibili/credibili
https://youtu.be/s65jU3r6iUI?t=1m59s
A questo punto le hbm2 rispetto alle gddr5 quanto costano in più? giusto per farsi un'idea indicativa, oltre al fatto che serve interposer ed altro per implementarle
Piedone1113
28-06-2018, 14:13
Io ricordo che tempo fa erano saltati fuori un po' di numeri e si erano fatti due conti.
Alla fine cambiavano 30-40€ su tutta la vga... cioè quasi niente.
Erano conti fatti a spanna, dove non venivano conteggiati ne i costi in silicio della gpu, ne i costi di progettazione-ingegnerizzazione-produzione del pcb, ne i costi delle sezioni di alimentazione ne tanto meno quello dei dissipatori.
il vero limite di hbm1 erano la capacità, se fosse stato possibile avere stack da 8 gb gia dalla prox generazione avremmo visto dalla fascia medio-bassa a quella top hbm in tutte le salse
X-ray guru
28-06-2018, 14:31
Volevo solo ricordare che oltre al costo e alle prestazioni, una voce importante in questa diatriba HBM contro GDDR è l'approvvigionamento.
Se devo mettermi in coda e aspettare 6 mesi per avere 1 milione di pezzi, preferisco certamente un costo leggermente maggiore e meno prestazioni, se le GDDR me le consegnano in 30 giorni. ;)
Biscottoman
28-06-2018, 17:39
Cambiando discorso: ormai comunque tutto il web sembra essere sicuro che il prototipo comparso l'altro ieri su reddit sia per forza la futura 1180ti, dopo aver calcolato che il die dovrebbe essere di 676mm2 circa; manco nvidia stessa avesse dato l'annuncio ufficiale :asd:
Biscottoman
28-06-2018, 17:59
Semmai la futura Titan, la Ti la vedrai l'anno prossimo.
Potrebbe essere, anche se di certo ora come ora non c'è nulla. Ma io comunque non sto dicendo che sia la Ti o la Titan o la 1180 o anche una scheda non Geforce, semplicemente leggendo su svariati siti ora come ora è idea comunque che quella sia proprio la Ti senza ragioni specifiche a mio avviso anche perchè proprio come hai detto te parrebbe strano vedere quel chippone in questo momento in cui si sa ancora davvero poco persino sulla 1180
amon.akira
28-06-2018, 18:05
Potrebbe essere, anche se di certo ora come ora non c'è nulla. Ma io comunque non sto dicendo che sia la Ti o la Titan o la 1180 o anche una scheda non Geforce, semplicemente leggendo su svariati siti ora come ora è idea comunque che quella sia proprio la Ti senza ragioni specifiche a mio avviso anche perchè proprio come hai detto te parrebbe strano vedere quel chippone in questo momento in cui si sa ancora davvero poco persino sulla 1180
il chippone esce sempre prima "titan" poi la ti per tutti.
as usual
agosto/settembre 1180/1170 e 1 mese dopo titan cosi chi ha preso la 1180 se la ricompra...alcuni clienti nvidia sono scriptati come i giochi di cage e nvidia lo sa XD.
ricordo ancora anche qui sul forum luglio 2016 qualcuno comprò la 1080 e poi agosto la titan XD
Mi piacerebbe sapere come hanno fatto a capire l'area del die da una scheda senza gpu montata.
Ho forse si è visto un altro prototipo e sto parlando di una cosa diversa?
Da quanto ho capito hanno sfruttato la dimensioni del chip di memoria da cui hanno ricavato proporzionalmente le dimensioni del die...
Ma aspetterei qualcosa di più affidabile...
Ale55andr0
28-06-2018, 19:40
Ma offrono di più cosa in cosa? ma che cosa state dicendo?
.
12 gb di ddr 6 a 384 bit coi chip più "lenti" da 12Gbps (quelli da 48gb/s) = 576gb/s di bandwidth (per una ipotetica 2080 lissia da 3500cc li vedo già ottimali) con 1.35v anzichè 1.55v delle 5, no interposer, niente mazzi&cazzi. Se si avesse la necessità di superare quel valore, basterebbe usare i chip da 14Gbps (56Gb/s) e arrivare a 672 Gbps sempre su taglio 12gb....se le supertop invece arriveranno a 16gb raggiungerebbero i 768 e gli 896Gb/s. Se poi a qualcuno, tali stratosferici valori non bastano perchè la propria architettura è fatta coi piedi e satura/sfrutta a muzzo la banda e ha bisogno delle memorie diddio, di certo il problema NON è delle "scarse" prestazioni delle gddr6 rispetto le fantasticherrime hbm :asd:
Ora, sarcasmo a parte, è ovvio che non vedremo tonnellate di gddr6 al pronti via, ma NON venitemi a paragonare la complessità nella realizzazione e implementazione delle gddr6 (perchè a conti fatti sono una evoluzione di quanto esiste) a quella delle hbm, e siate OBIETTIVI: pesando i "vantaggi" prestazionali e di efficienza delle hbm (poca differenza di banda paragonando comunque su una base di valori assoluti già stratosferici e una manciata di watt, letteralmente parlando...voglio dire schede col DOPPIO della ram rispetto i modelli da 4gb con le vecchie ddr5 consumavano tipo 15w in più al massimo, che cazzo volete facciano risparmiare le hbm? 75w? :asd:) io avrei torto nel dire che le hbm per le nostre schede gaming, ANCHE nella fascia top di gamma uber ultra sono un esercizio INUTILE che a costo di vantaggi risibili peserà di più su costi e disponibilità rispetto a una memoria gddr6? ma andiamo, santo iddio! :rolleyes:
Intanto le hbm2 sul mercato ci sono, le gddr6? ;)
Ale55andr0
28-06-2018, 21:01
si si ci sono... e vengono prese a schiaffi dalle vga con le gddr5x :D
si si ci sono... e vengono prese a schiaffi dalle vga con le gddr5x :D
Sarà per questo che GP100 e GV100 le usano per raggiungere 750 e 870 gb/s e farsi prendere a schiaffi.
Ale55andr0
28-06-2018, 21:18
Sarà per questo che GP100 e GV100 le usano per raggiungere 750 e 870 gb/s e farsi prendere a schiaffi.
minckxia non ci credo, di nuovo tiarate fuori le vga pro :asd: ma almeno FINGETE di leggere? :doh:
...a ogni modo io nel mio pianeta GAMER vedo solo che una 1080ti straccia la vega 64 nella maggior parte dei casi e degli scenari e che fa la stessa bandwidth della rivale (che monta su le memorie diddio)... pur avendo il bus castrato da 384 a 352bit :asd: :rotfl:
Ma non c'era nessun die in quella che ho visto io, forse è un'altra immagine?
Io intendo questa: https://www.hwupgrade.it/news/skvideo/da-una-board-di-test-nvidia-alcune-info-sulle-gpu-di-prossima-generazione_76735.html
Su HWU stanno diventando pigri a copiare xD
https://cdn.segmentnext.com/wp-content/uploads/2018/06/153236sce5u9qzp88r859c.jpg.thumb_.jpg
https://segmentnext.com/2018/06/28/nvidia-next-generation-gtx-1180-ti/
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.