View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
devil_mcry
21-04-2017, 09:36
Infatti credo che hai centrato il punto...
Per la 1060 in linea generale, tutte le pascal non salgono poi tanto, murano tutte piu o meno sui 2ghz in media salvo alcuni esemplari sui 2.1ghz solo che la 1060 rispetto la 1080/1080ti o piu date le specifiche scala meno a pari clock rispetto le sorelle maggiori e personalmente questo oc delle memorie non so neanche quanto possa beneficiare su un chippetto del genere forse e non piu di un 5%...
Di gran lunga avrebbe avuto molto piu senso sulla 1070 dato che diversamente dalla 1080 monta gddr5 ed molto piu "frenata" da questo punto di vista su GP104 e avere delle memorie piu spinte a loro volta overcloccabili avrebbe colmato leggermente il divario...
La 1060 però ha un bus a 192bit... Secondo me 1060 è 1070 avrebbero giovato maggiormente del upgrade, non la 1080. Ma è da capire anche cosa le schede effettivamente montavano.
Mi spiego, diversi anni fa, al tempo Delle gtx460, le specifiche parlavano di 675mhz di core ma in Nvidia avevano sottostimato la resa.
Non ci furono ref e dopo un po' ufficialmente dissero che le specifiche di fatto erano altre
Qui mi sa che per metà è la stessa cosa, simile un po' al discorso 290/290x solo che la le ribrandizzarono
Assolutamente falso.
ATI/AMD ha spesso offerto prodotti che fornivano un miglior rapporto prestazioni/costo, eppure solo ha avuto vendite maggiori un solo anno.
Anche all'epoca della 9700pro che era anni luce superiore alla contropartita Nvidia (chi cseguiva le vga in quel periodo sa benissimo), nonostante tutto Nvidia vendeva di piu'.
Con le serie 9700/9800 Ati era davanti. Stessa storia con le 1800/1900, con le radeon HD 5xxx spaccarono il mercato con schede da 250 che andavano quanto le nvidia da 400-500 con chipponi che era grande piu' del doppio rispetto (e consumavano di piu') rispetto alle ATi. Irruppero cosi' prepotentemente sul mercato che Nvidia fu costretta a tagliare i prezzi delle 280 e delle 260 e dopo 2-3 settimane dal lancio e ridare perte dei soldi incassati indietro a chi le aveva acquistate.
Con la serie HD 5000 amd aveva indubbiamente il primato di velocita'.
La serie nvidia 4xx usci' in ritardo di 8-9 mesi, ed aveva cosi' tanti problemi (rese ,calore..etc etc) che le schede rilasciate si contavano sulle dite della mano (in realta' fu un paper launch).
Con la serie HD 6000 non si puo' certo dire che AMD fosse dietro, tutt'al piu' alla pari.
Con la serie 7xxx HD ,AMD anticipo Nvidia di 4-5 mesi.. e la 7970 non era certo piu' lenta della 680 gtx, anzi col tempo si e' visto benissimo chi aveva l'architettura migliore qualora vi fossero dubbi.
NVidia in tutti questi anni e':
-rimessa in pari con la serie 6800 prima di essere sopravanzata nuovamente dalla serie x18xx
-dominato con la serie 8800gtx per quasi 2 anni fino a quando amd non e' risalita con la serie HD 4xxx nvidia e' tornata dietro
e poi tornata a guadagnare con Maxwell ed ora con Pascal.
Quindi e' stata nettamente e di gran lunga piu' sotto che sopra come chip sfornati. Eppure le vendite non riflettono minimamente tutto cio'.
http://www.3dcenter.org/dateien/abbildungen/Add-in-Board-GPU-Market-Share-2002-to-Q3-2016.png
Questo perche' gli accordi commerciali, ed il marketing (ed Nvidia e' stata una delle pioniere nel far uso dell'astroturfing https://en.wikipedia.org/wiki/Astroturfing ovvero usare utenti fittizi nei forum per promuovere l'immagine dei propri prodotti) contano quanto se non piu' della bonta' dei propri prodotti.
AMD con la serie Athlon ha dominato per 4-5 anni consecutivi con le cpu, eppure non e' riuscita a passare il 20% del market share.
Poi si e' anche capito il perche'...vedi accordi commerciali (scorretti ed illegali) tipo quelli Intel-Dell et similia che l'hanno danneggiata.
See, vebbè, buonanotte va:doh:
Tu invece hai aggiunto qualcosa di interessante alla discussione o smentito la sua ipotesi, ve? :)
Ciò che dice è vero e il grafico lo dice chiaramente, ati/amd ha sempre venduto meno anche quando offriva un prodotto migliore.
E soprattutto laddove la differenza era abissale per ati (vedi 1/09 con la serie 4000 con quella ciofeca delle 2xx) Nvidia vendeva il doppio/triplo.
In realtà il grafico dimostra ben altro mi pare, ovvero che a partire dalla serie G-force 8 (8800 GTX) il venduto nvidia ha letteralemnte preso il volo, guarda caso proprio in seguito ad un prodotto che ha letteralmente distrutto la concorrenza in tutti i sensi, e non solo per via della stupidità degli acquirenti (aveva prestazioni quasi doppie rispetto all'allora concorrenza ATI, se ben ricordo); ma ovviamente ciò è del tutto casuale secondo te ... :mbe:
Che poi negli anni nvidia abbia approfittato della sua posizione dominante di mercato, beh dagli torto ....
Free Gordon
21-04-2017, 09:56
ma infatti è tecnicamente sbagliata la 960 (128bit), mentre la 1060 non lo è anche le 3GB non lo è cambia solo il quantitativo di ram ma il collegamento è lo stesso (192bit), ed oltre ad esserlo tecnicamente era pure prezzata male è ha vissuto di rendita grazie al carro serie 900 ed al marketing nvidia, buon per lei ma se guardiamo i clienti oggi chi l'ha comprata ne sta pagando le conseguenze come dimostrato dai test, mentre chi ha comprato le pari fascia di prezzo amd viaggia alla grande.
beh sì..la 960 al prezzo della 285/380 era una porcheria...
la rossa una cosa per volta puo fare per bene.
Adesso è il turno dei processori ma al prossimo giro 10 anni minimo gpu super.
Dovrebbe prendere esempio da verde e blu due aziende due prodotti diversi. La fusione al posto di arricchire dopo tutti questi anni li ha impoveriti
la rossa una cosa per volta puo fare per bene.
Adesso è il turno dei processori ma al prossimo giro 10 anni minimo gpu super.
Dovrebbe prendere esempio da verde e blu due aziende due prodotti diversi. La fusione al posto di arricchire dopo tutti questi anni li ha impoveriti
Il problema non è stata la fusione ma la mala-gestio inveterata per anni, ed oggi semplicemente se ne vedono i frutti, com' è naturale che sia in tutto l'universo, tranne qua dentro, ovviamente ... :doh:
Legolas84
21-04-2017, 13:54
Ma non potremmo smetterla con l'off topic? per i deliri dei soliti basta il solito thread no? ;)
mikael84
21-04-2017, 14:07
ma infatti è tecnicamente sbagliata la 960 (128bit), mentre la 1060 non lo è anche le 3GB non lo è cambia solo il quantitativo di ram ma il collegamento è lo stesso (192bit), ed oltre ad esserlo tecnicamente era pure prezzata male è ha vissuto di rendita grazie al carro serie 900 ed al marketing nvidia, buon per lei ma se guardiamo i clienti oggi chi l'ha comprata ne sta pagando le conseguenze come dimostrato dai test, mentre chi ha comprato le pari fascia di prezzo amd viaggia alla grande.
La 960 non è sbagliata, è una pura costrizione legata alla microarchitettura.
Per il collegamento dovevano utilizzare un die ben più grande, che purtroppo non pagava per le poche rop's (z-buffer/color-ops) e ne risentiva la compressione, con conseguenti valori effettivi piuttosto limitati.
Purtroppo un collegamento a vuoto, non consente di utilizzare alcune parti d'architettura che pesano non poco.
Ricorda che devi sempre attenerti ai GPC.
Con la 1060 sono stati praticamente obbligati, ma grazie ai transistor ed al doppio valore di z-buffer il collegamento è costato solo 37mmq2, con le rop's più efficienti che effettuano la compressione praticamente pari ad una 980 per le stesse unità circolanti sul MC.
Ricordiamoci cmq che è un mezzo schifo, perchè hai stampate 48 rop's e ne usi 32 ed anche la compressione ne risente (8 rop's sono circa 15gb/s di banda effettiva che perdi).:)
Ma non potremmo smetterla con l'off topic? per i deliri dei soliti basta il solito thread no? ;)
Porca troia se son ciclici
mikael84
21-04-2017, 15:20
cut.
Non c'è bisogno di sporcare il thread con tutte le review, lo so benissimo che sopratutto la 2gb oggi non rende sempre bene.
Ti sto dicendo che per eseguire i GPC ci sono dei limiti che purtroppo vanno rispettati per via della microarchitettura interna.
Al lancio le prestazioni erano allineate cmq alla 285.
Nvidia poteva rispondere con la 960TI, ovvero 1280cc ed un collegamento a 192bit, che grazie alle 8 rop's in più, rendeva meglio a livello di banda finale (poteva farlo ma visti i limiti della concorrenza non l'ha fatto).[/QUOTE]
in QHD non viene nemmeno menzionata, mentre la 380(285) continua a rullare
https://www.tomshw.it/battlefield-1-directx-12-29-schede-video-prova-84958-p3
Ci credo che è più longeva, una parte da 4gb ed è una versione di AMD con il doppio dei transistor ed un leggero cut di un chip quasi doppio.
L'altra sia di core che di transistor è pari alla 7870/370.
Quindi 960-370-270-7870.
Nvidia ha sfavorevole il prezzo, ma al lancio era pari alla 285, una scheda praticamente doppia.
https://tpucdn.com/reviews/MSI/GTX_960_Gaming/images/perfrel_1920.gif
Ora è chiaro che ne risente.:)
Free Gordon
21-04-2017, 22:34
Nvidia ha sfavorevole il prezzo, ma al lancio era pari alla 285, una scheda praticamente doppia.
https://tpucdn.com/reviews/MSI/GTX_960_Gaming/images/perfrel_1920.gif
Ora è chiaro che ne risente.:)
No ma infatti il problema è proprio quello: 960 e 285 erano schede della stessa fascia di vendita... (o perlomeno Nvidia ha fatto credere così.. :asd: )
Ora però si trovano su due fasce prestazionali diverse, la 960 è una vera porcheria.. :D
mikael84
21-04-2017, 23:39
certamente il problema più grave è il prezzo, ma che al lancio fosse uguale alla 285 importa poco perché è una fascia (tipo la mia) dove chi compra non cambia spesso, ed ora si ritrova quasi a piedi addirittura in FHD, mentre chi ha scelto amd no.
il bello di consigliare un acquisto è proprio quello, era facile dire che andava bene, ma era una scheda senza futuro alcuno e che consumasse meno è una vittoria di pirro, non come nel caso della 1060 vs 480...
No ma infatti il problema è proprio quello: 960 e 285 erano schede della stessa fascia di vendita... (o perlomeno Nvidia ha fatto credere così.. :asd: )
Ora però si trovano su due fasce prestazionali diverse, la 960 è una vera porcheria.. :D
State facendo una disinformazione incredibile.
Che la 960 sia quel che sia, perchè è pari core alla 7870 ok, sovraprezzata ok (per limiti della concorrenza), ma sia la 960 che la 285 sono schede che attualmente, salvo levare gran parte dei dettagli sono totalmente inutili.
Allora, ho preso alcuni degli ultimi giochi, pro e contro (ma la 960 a vostra detta non dovrebbe esistere, eppure).
Su dishonoread si registrano 34 fps pari (960 con 380x non 285). Risultato, ingiocabile
http://www.guru3d.com/articles_pages/dishonored_2_pc_graphics_performance_benchmark_review,6.html
Mass effect, 960 37/380x 38, 380 liscia 35 (ingiocabile)
http://www.techspot.com/review/1358-mass-effect-andromeda-benchmarks/page2.html
Dead rising 4 (titolo non certo pro ad nvidia) 380x 39 /960 34/ 285 sarà ai livelli della 960 (ingiocabile)
http://gamegpu.com/action-/-fps-/-tps/dead-rising-4-test-gpu
Watch dogs 2 380x (4gb) 31 /960 30, su 285 sta sotto (ingiocabile)
http://www.guru3d.com/articles_pages/watch_dog_2_pc_graphics_performance_benchmark_review,6.html
Mafia 3 960 40/ 380x 43, quindi su 285 o 380 liscia siamo pari (ingiocabile, o decurtando tutto ma va uguale)
http://gamegpu.com/action-/-fps-/-tps/mafia-iii-test-gpu
Ora, mi volete dire dove una sia più longeva e di un'altra fascia
Sono 2 schede che ormai, si gioca con dei vari limiti.:rolleyes:
Free Gordon
22-04-2017, 00:02
A parte che per me un gioco a 30fps non è ingiocabile... :D
Secondo me sei tu che stai difendendo una scheda indifendibile..:
https://tpucdn.com/reviews/ASUS/GTX_1050_Ti_Strix_OC/images/perfrel_1920_1080.png
Diciamo che la 960 è abbastanza indietro rispetto alla 380 (entrambi con 2GB)... ma TPU spara i dettagli al max, probabilmente si dovrebbero guardare le versioni da 4GB per avere un quadro più completo.
Più si va avanti, più la 960 farà pena...certamente a causa dello SKU da soli 2GB effettivamente.
Cmq se prendi 5 test da 5 testate differenti, si può dire abbastanza di tutto... ;)
mikael84
22-04-2017, 00:36
A parte che per me un gioco a 30fps non è ingiocabile... :D
Secondo me sei tu che stai difendendo una scheda indifendibile..:
Diciamo che la 960 è abbastanza indietro rispetto alla 380 (entrambi con 2GB)... ma TPU spara i dettagli al max, probabilmente si dovrebbero guardare le versioni da 4GB per avere un quadro più completo.
Più si va avanti, più la 960 farà pena...certamente a causa dello SKU da soli 2GB effettivamente.
Cmq se prendi 5 test da 5 testate differenti, si può dire abbastanza di tutto... ;)
E' totalmente inutile quel grafico e ti spiego il perchè:fagiano:
1)Il 13% significa che dove ne fai 30 da una dall'altra ne fai 34, dove ne fai 40 da una nell'altra ne fai 45.
Quindi non è un'altra fascia.
2) Nei grafici di TPU ci sono giochi, come BF1 ed altri che sono in DX12, e qua maxwell viene azzoppata, quindi una deve eseguire in dx11, perdendo tanti frame in strada.
3) Tra una 1050TI ed una 1050, ci passano 128 cc e 4 rop's, non certo il 32%, quindi Nvidia pare limitata dalla ram.
Non è per difendere la 960 (di cui mi frega poco), ma è giusto per mettere i puntini sulle I, sopratutto su un thread dove molti comprano questi prodotti.:)
Sul lato tecnico, come detto, la scheda andrebbe paragonata alla 370, ma con una concorrenza così, ti giochi la fascia superiore, e ci sguazzi, essendo società a scopo di lucro, m non è che chi ha preso la 960 è fesso.:p
Sulla longevità, oggi ne fai 30, domani ne fai 20. Mano al portafogli e comprare scheda successiva (1060-480):fagiano:
State facendo una disinformazione incredibile.
Che la 960 sia quel che sia, perchè è pari core alla 7870 ok, sovraprezzata ok (per limiti della concorrenza), ma sia la 960 che la 285 sono schede che attualmente, salvo levare gran parte dei dettagli sono totalmente inutili.
Allora, ho preso alcuni degli ultimi giochi, pro e contro (ma la 960 a vostra detta non dovrebbe esistere, eppure).
Su dishonoread si registrano 34 fps pari (960 con 380x non 285). Risultato, ingiocabile
http://www.guru3d.com/articles_pages/dishonored_2_pc_graphics_performance_benchmark_review,6.html
Mass effect, 960 37/380x 38, 380 liscia 35 (ingiocabile)
http://www.techspot.com/review/1358-mass-effect-andromeda-benchmarks/page2.html
Dead rising 4 (titolo non certo pro ad nvidia) 380x 39 /960 34/ 285 sarà ai livelli della 960 (ingiocabile)
http://gamegpu.com/action-/-fps-/-tps/dead-rising-4-test-gpu
Watch dogs 2 380x (4gb) 31 /960 30, su 285 sta sotto (ingiocabile)
http://www.guru3d.com/articles_pages/watch_dog_2_pc_graphics_performance_benchmark_review,6.html
Mafia 3 960 40/ 380x 43, quindi su 285 o 380 liscia siamo pari (ingiocabile, o decurtando tutto ma va uguale)
http://gamegpu.com/action-/-fps-/-tps/mafia-iii-test-gpu
Ora, mi volete dire dove una sia più longeva e di un'altra fascia
Sono 2 schede che ormai, si gioca con dei vari limiti.:rolleyes:
Gran parte dei dettagli è un immensa esagerazione, specie considerando quanto questi giochi siano strapieni di settings inutili tarpa fps. Non siamo più nel 2004-2005 dove la differenza fra low e high era immensa (pensa al primo far cry o crysis).
Quei tempi sono andati da un sacco e da possessore di i3 e 670 che cerca disperatamente scuse per comprare hardware nuovo (al più presto ryzen 1600x + 570) posso assicurarti che di giochi dove ho abbassato dettagli per mantenere i 60 fps vedendo effettivamente differenze ce ne sono pochi e nessuno.
Tanto per dire Crysis 3 da ultra a low:
http://www.gamereactor.eu/media/26/crysis3minimista_702631b.jpg
Potete anche guardarvi i video su youtube e farvi idee da soli se ci sia tutta sta necessità di chissà che gpu a 1080p (60 hz).
E mi vengono in mente duemila di filtri da -20/30 % fps, tecniche aliasing orrende e ultra costose sulla gpu, tesselazione, ecc, hai voglia.
99,9% delle persone neanche noterebbero le differenze (ma dicono di si per effetto placebo).
fraussantin
22-04-2017, 06:33
A parte che per me un gioco a 30fps non è ingiocabile... :D
Secondo me sei tu che stai difendendo una scheda indifendibile..:
https://tpucdn.com/reviews/ASUS/GTX_1050_Ti_Strix_OC/images/perfrel_1920_1080.png
Diciamo che la 960 è abbastanza indietro rispetto alla 380 (entrambi con 2GB)... ma TPU spara i dettagli al max, probabilmente si dovrebbero guardare le versioni da 4GB per avere un quadro più completo.
Più si va avanti, più la 960 farà pena...certamente a causa dello SKU da soli 2GB effettivamente.
Cmq se prendi 5 test da 5 testate differenti, si può dire abbastanza di tutto... ;)
Ancora con ste relative performance.
Questi screen sono la vera cosa inutile non la 960.
Chi comprava 960 sapeva benissimo che dovrà settare il gioco a mid, come lo sapeva chi ha comprato la 380 dopo 6 mesi.
Ho un collega che ha sotto la 760 ( si kepler piccolo e da poveri) e gioca ancora bene a molti titoli, manco ci pensa a cambiarla.
Poi aggiungo che non è che la 960 è peggiorata, è semplicemente che rispetto a quei tempi è amd che ha sistemato (finalmente) i suoi driver ottenendo un boost prestazionale.
Se poi ci mettiamo che la 285 aveva il doppio dei connettori, scaldava il doppio e al tempo in molti game famosi andava peggio, direi che era da avventati preferirla alla nuovissima 960.
Casomai in casa rossa era meglio puntare su una vecchia top di gamma a 4 cifre magari usata, pagandola di meno.
C'è ancora chi compra le 960?
Neanche i Planet Hulk la consigliavano sulle 380 😶
se parliamo di longevità esiste solo rosso.
Le verdi non durano si sa infatti mi sto trovando proprio male con la 980ti. Cosi male che non la cambio più
Ho dtto inizia ad arrancare, mica che lo fa in tutti i titoli... a parte che non sapevo manco dell'esistenza della 4GB, errore mio, ed in effetti non va poi così male, come anche comprare una 285 da 2 GB sarebbe stato un errore, mica difendo l'indifendibile, se c'è da dirlo lo dico, la 285 2GB è una PORCHERIA... altro che disinformazione... sono giorni che stiamo massacrando amd per il rebrand delle RX500 e ci viene ad accusare di fare disinformazione :rolleyes:
però mikael sai che c'è, ti do ragione così siamo tutti più tranquilli e sereni :)
bel paragone bravo, hai capito tutto tu :asd:
che poi chi ha mai detto che la 980ti non sarebbe stata longeva lo sai solo tu :stordita:
Ma se non l'avessi capito o stai solo trollando non saprei, si sta prendendo in esame una scheda di fascia media (spacciata tale) che per non si sa quale fottuto motivo abbia venduto 20 VOLTE la pari fascia di prezzo amd...
ti rendi per caso conto quanto sia 20 VOLTE?
guardando i grafici, i bench la longevità, spiegami il motivo per cui una ha venduto 20 FOTTUTISSIME VOLTE l'altra?
senza considerare le kepler precedenti, mamma mia...
non c'è bisogno che ti sforzi, si chiama MARKETING.
Ma cosa vuoi markettizzare! Nvidia ha vinto, punto, chiuso, fine delle discussioni! Victory! Flawless! Fatality! :winner:
Ho dtto inizia ad arrancare, mica che lo fa in tutti i titoli... a parte che non sapevo manco dell'esistenza della 4GB, errore mio, ed in effetti non va poi così male, come anche comprare una 285 da 2 GB sarebbe stato un errore, mica difendo l'indifendibile, se c'è da dirlo lo dico, la 285 2GB è una PORCHERIA... altro che disinformazione... sono giorni che stiamo massacrando amd per il rebrand delle RX500 e ci viene ad accusare di fare disinformazione :rolleyes:
però mikael sai che c'è, ti do ragione così siamo tutti più tranquilli e sereni :)
bel paragone bravo, hai capito tutto tu :asd:
che poi chi ha mai detto che la 980ti non sarebbe stata longeva lo sai solo tu :stordita:
Ma se non l'avessi capito o stai solo trollando non saprei, si sta prendendo in esame una scheda di fascia media (spacciata tale) che per non si sa quale fottuto motivo abbia venduto 20 VOLTE la pari fascia di prezzo amd...
ti rendi per caso conto quanto sia 20 VOLTE?
guardando i grafici, i bench la longevità, spiegami il motivo per cui una ha venduto 20 FOTTUTISSIME VOLTE l'altra?
senza considerare le kepler precedenti, mamma mia...
non c'è bisogno che ti sforzi, si chiama MARKETING.
A parte il fatto che non ce la farai mai a discutere tecnicamente con Mikael,io le ultime vere schede degne di nota amd credo siano state le hd 79xx,ne ho avute tante e sono stato soddisfatto,dopo ho avuto 290,290x e furyx che furono il peggio del peggio a confronto della controparte nvidia e non ti parlo di tecnicismi ma di prove sul campo dove venivano demolite dalle rivali nvidia,a quel punto capisci perche' una vende 20 volte l'altra,sono disposto in futuro a dare un altra possibilita' ad amd ma deve convincermi con argomenti molto seri,per carita' e' vero che nvidia fa tanto marketing ed i prezzi sono quelli che sono ma nessuno comprerebbe una vga a 1000 se dall'altra parte ci sta una vga che va uguale a 500.....
Ma cosa vuoi markettizzare! Nvidia ha vinto, punto, chiuso, fine delle discussioni! Victory! Flawless! Fatality! :winner:
Ha vinto a breve termine, da Navi in poi e l'introduzione del multigpu su singolo interposer con memoria condivisa penso la situazione inizierà a cambiare a favore di amd.
devil_mcry
22-04-2017, 13:01
Ha vinto a breve termine, da Navi in poi e l'introduzione del multigpu su singolo interposer con memoria condivisa penso la situazione inizierà a cambiare a favore di amd.
Ma intanto ancora non hanno tirato fuori Vega e si parla di Volta già per nVidia ... :D
ahahhh 😂 ...meno male che ci sei tu a sdrammatizzare :)
le Hawaii serie 200 sono ottime schede, demoliscono le rivali del tempo 700 su tutti i livelli... solo con maxwell è iniziato il divario tecnico che si è perpetrato con pascal dove amd addirittura non ha potuto proporre la fascia alta.
ma non si parla di vendite generali, ma nello specifico della 960... non c'è nessuna ragione tecnica che spieghi il divario di vendite in quella fascia se non per motivi di marketing, ha venduto perché tirata dal carro della 970 e 980.
La serie 200 e' un ottima serie PER TE,per me facevano cacare a spruzzo,la medaglia ha sempre 2 facce,a te puo' piacere a me no,consumi,temperature e prestazioni erano uno schifo e dopo averle avute sono ripassato ad nvidia,e bada bene non ho detto la stessa cosa per le ottime hd 79xx,forse oggi con driver migliori etc vanno meglio ma a me sai che interessa comprare una vga oggi per andare meglio della controparte fra 3 anni?
Legolas84
22-04-2017, 13:12
NVIDIA vende di più di AMD anche nel caso in cui AMD riesce ad eguagliarla per il semplice fatto che è riuscita a costruirsi un 'immagine a differenza della concorrente soprattutto grazie ai risultati ottenuti nella fascia alta...
Poi c'è l'ecosistema NVIDIA (effetti proprietari, g-sync, frametime ecc...) che ovviamente voi che preferite AMD schifate, ma che la maggior parte dei gamers preferisce rispetto alla controparte.
Questi sono i motivi per cui NVIDIA vende di più anche quando AMD è paragonabile e a pari prezzo...
Detto questo si potrebbe anche tornare in topic giusto?
Inviato dal mio iPhone utilizzando Tapatalk Pro
Legolas84
22-04-2017, 13:16
E comunque io Kepler non me lo ricordo affatto come un fail come qualcuno qui ora lo vuol dipingere... anzi tutt'altro....
Inviato dal mio iPhone utilizzando Tapatalk Pro
NVIDIA vende di più di AMD anche nel caso in cui AMD riesce ad eguagliarla per il semplice fatto che è riuscita a costruirsi un 'immagine a differenza della concorrente soprattutto grazie ai risultati ottenuti nella fascia alta...
Poi c'è l'ecosistema NVIDIA (effetti proprietari, g-sync, frametime ecc...) che ovviamente voi che preferite AMD schifate, ma che la maggior parte dei gamers preferisce rispetto alla controparte.
Questi sono i motivi per cui NVIDIA vende di più anche quando AMD è paragonabile e a pari prezzo...
Detto questo si potrebbe anche tornare in topic giusto?
Inviato dal mio iPhone utilizzando Tapatalk Pro
frametime ecosistema Nvidia?
gsync preferito al freesync? Da quando? E per quale motivo?
AMD ha pure innalzato i requisiti ai produttori di monitor per il Freesync 2 (il primo implementato così così su molti monitor di fascia bassa e senza LFC).
Legolas84
22-04-2017, 14:09
frametime ecosistema Nvidia?
gsync preferito al freesync? Da quando? E per quale motivo?
AMD ha pure innalzato i requisiti ai produttori di monitor per il Freesync 2 (il primo implementato così così su molti monitor di fascia bassa e senza LFC).
Se ne è già parlato all'inverosimile... il frametime su NVIDIA è migliore che su AMD ed è stato pure spiegato da mikael perché succede. Gli effetti gameswork sono un plus ad esempio hairworks su the witcher la trovo davvero gradevole. G-sync a differenza di freesync integra un metodo di riduzione dell'effetto scia (è in grado di regolare la tensione dei pixel in base alla frequenza del monitor)...
Ci sono un sacco di cose da considerare oltre ai frame medi quando si compra una scheda video.
Io lo so come ma le pensi tu Vul e non voglio certo farti cambiare idea... per te NVIDIA vende un sacco di schede solo perché abbaglia un sacco di polli... quello che io voglio dire è solamente che la verità potrebbe non essere tutta qui ma potrebbe esserci dell'altro. Ovviamente non voglio farti cambiare idea se no si parte con le solite guerre che non hanno fine e non portano da nessuna parte.
Personalmente mi trovo molto bene con NVIDIA nei videogiochi... per prendere una AMD be sognerebbe proprio che uscisse un prodotto rosso molto molto ghiotto e NVIDIA cappellasse... un po' come ai tempi di R300 e NV30 (infatti presi ATi). In tutti gli altri pc che ho in casa che NON uso per giocare ho schede video ATI o AMD....
Inviato dal mio iPhone utilizzando Tapatalk Pro
Legolas84
22-04-2017, 14:15
Vero, ma...
...se le differenze sono così piccole che serve uno strumento, per poterle vedere, ci sono veramente? :D
Ora tu mi dirai "io le vedo", io ti risponderò "io no nonostante i miei 12/10" e non ne usciremo più... :)
Ma guarda la risposta è qui... se tu non le vedi allora non hai il problema e ti troverai benissimo sia con AMD che con NVIDIA... non c'è giusto o sbagliato... ci sono le preferenze di uno o dell'altro...
Io sto solo dicendo che se una grandissima fetta di gamer preferisce NVIDIA non è solo per il marketing...
Inviato dal mio iPhone utilizzando Tapatalk Pro
Ma intanto ancora non hanno tirato fuori Vega e si parla di Volta già per nVidia ... :D
Volta sarà una gran gpu, difficile pensare altrimenti. Considerando cosa Nvidia ha tirato fuori sui 300 mm^2 con pascal, se ci metti le hbm tiri fuori quasi 100mm^2 gratis di shaders.
Non ho alcun dubbio che Volta sarà un grandissimo passo in avanti per il gaming lato prestazionale, ma Navi cambierà le carte in tavola con un approccio (iniziato nel lontano 2009-2011) che cambierà la situazione.
Detta semplicemente il mercato gpu è irrilevante per le fonderie e anche per AMD/Nvidia a lungo termine (motivo per cui si vede Nvidia spingere sempre di più nel settore computing).
Il mercato GPU desktop è poco redditizio per vari motivi: si vendono sempre meno pc e meno gpu in linea generale. Certo i profitti di Nvidia con Pascal e Maxwell sono altissimi, nessuno lo nega ma produrre chip così grandi su processi così piccoli è molto poco redditizio in quanto le rese vanno a puttane.
Se su un wafer ho 50 difetti questo significa che se su un wafer ho 100 chip grandi la metà li butto (a grandi linee). Se su un wafer ho 50 difetti ma di chip ne ho 300, butto solo un sesto dei chip.
Abbiamo già visto i problemi delle rese di tsmc (vedi titan x, titanxp e 1080ti) solo un esiguo numero di chip sono adeguati ad entrare nelle titan xp, qualcuno in più nelle titan x, qualcun altro nelle 1080ti e tantissimi si buttano.
L'abbiamo visto anche in casa AMD con il refresh di Polaris, vedi soprattutto 560 e le prestazioni elettriche della prima e seconda "generazione" di Polaris.
Ottenere rese alte è sempre più alte, fare chip grossi è costosissimo.
La soluzione preferita è fare gpu sempre più piccole.
E quindi qual'è la soluzione del futuro? Il multigpu, ma fatto in maniera differente. Poichè produrre 2 chip da 100 mm^2 è molto più economico di produrne uno da 200 mm^2 (perchè di quelli da 200 ne butterai molti ma molti di più) la soluzione portata da Navi sono gpu multiple su singolo interposer che vengono viste come una singola gpu dal software.
Sappiamo tutti che le soluzioni multi gpu odierne fanno schifo, sappiamo che anche quando uno sli/xfire è supportato (ma di giochi recenti mi viene in mente solo battlefield 1) l'alternate frame rendering okay, aumenta di molto il framerate (e uno sli di 970 va più di una singola 980ti), ma porta anche ad un esperienza più "scattosa" e a svariati frame persi.
Ergo fare molti più fps non sempre equivale ad un esperienza migliore.
Navi affronterà questi problemi uno per uno, ma gliene rimarrà uno grandissimo: come convinci gli sviluppatori a sviluppare per il multigpu?
Il primo passo è software: mantle/dx12/vulkan.
Ce n'è un secondo: il 70 % del mercato gaming è in mano alle console, gli sviluppatori non si mettono ad ottimizzare troppo per il pc, ma c'è un problema, le console sono a gpu singola.
Ergo questa strategia di AMD pagherà qualora AMD convincerà Sony e Microsoft a fare console multi gpu, il che non sarà molto difficile.
Il che è facile/difficile allo stesso tempo. I produttori di console sono fondamentalmente costretti a rivolgersi ad AMD per produrre le console in quanto ne Intel ne Nvidia possono offrire soc ai prezzi richiesti da MS e Sony (i margini sulle console sono infimi, l'ha dichiarato la stessa Nvidia di non essere interessata).
Intel e Nvidia mancano entrambi di tecnologie da poter proporre a Sony/MS: Nvidia non ha architetture x86, Intel non ha le tecnologie grafiche.
Ergo se AMD infilerà le proprie soluzioni multi gpu nelle prossime console (previste per l'inizio del prossimo decennio) AMD si ritroverà con l'intero mercato gaming a sviluppare sulle proprie cpu e gpu con filosofia MT.
Abbiamo già visto il povero e bistrattato Bulldozer recuperare punti anno dopo anno ad Haswell, non perchè sia migliorato Bulldozer ma per la direzione MT presa dai giochi (seppur piano piano).
E in quel caso il piano di AMD avrà funzionato, ma badate bene, non è il mercato GPU (noccioline) ad interessare ad AMD, ma quello cpu di Intel e lo sviluppo di giochi indirizzato a tecnologie e soluzioni MT AMD è quello che interessa davvero.
Per questo Navi è così affascinante.
Ale55andr0
22-04-2017, 14:27
Gli effetti gameswork sono un plus ad esempio hairworks su the witcher la trovo davvero gradevole.
Si abilita pure su amd, come purehair in tomb raider (tecnologia amd nota ai più col vecchio nome tressfx) sulle nvidia
...cmq il gaming su SLI/Crossfire secondo me è vittima di pregiudizi.
Ho avuto sia la doppia 480 che la doppia 1070 adesso, e ti devo dire che con entrambi mi son trovato molto bene. La sfiga è una sola: i giochi nuovi. Escono talmente acerbi che figurati se han finito di fare l'ottimizzazione multigpu... è già tanto se hanno finito le animazioni della protagonista a volte! :D
Se però ti metti nell'ottica di non comprare i giochi al day 1 (li paghi il doppio non ci sono tutti i contenuti ma in cambio di bug non te ne perdi proprio nessuno!) ma di aspettare qualche mese se non addirittura l'edizione gold, il multgpu funziona molto bene.
Scusa ma che giochi sono usciti recentemente che supportino l'AFR a parte Tomb Raider e BF1?
...cmq il gaming su SLI/Crossfire secondo me è vittima di pregiudizi.
Ho avuto sia la doppia 480 che la doppia 1070 adesso, e ti devo dire che con entrambi mi son trovato molto bene. La sfiga è una sola: i giochi nuovi. Escono talmente acerbi che figurati se han finito di fare l'ottimizzazione multigpu... è già tanto se hanno finito le animazioni della protagonista a volte! :D
Se però ti metti nell'ottica di non comprare i giochi al day 1 (li paghi il doppio non ci sono tutti i contenuti ma in cambio di bug non te ne perdi proprio nessuno!) ma di aspettare qualche mese se non addirittura l'edizione gold, il multgpu funziona molto bene.
Scusa ma che giochi sono usciti recentemente che supportino l'AFR a parte Tomb Raider e BF1?
Mi intrometto per dire il mio parere. Sento da molte parti suonare le campane a lutto per lo SLI, cosa che io invece non credo.
Per giocare in 4k con tutti effetti attivi (anche quelli che vengono considerati inutili ma che se poi andiamo a vedere una differenza in termini visivi , chi più chi meno, la danno) serve uno sli di TitanX, 1080ti o Titan xp (poco cambia fra queste tre. Tutto ciò per avere almeno 60 frames Vsyncati.
Mi riferisco a giochi quali Andromeda, GR wildlands, Deus ex MD, probabilmente anche GTA V, for Honor, Rise of TR, the division, TW3 e sicuramente me ne scordo qualcuno.
Io lo SLI lo vedo vivo e vegeto. Che poi costi parecchio è un altro paio di maniche, ma non è da confondere con la sua inutilità.
Tutto ciò a mio parere ed avendo sottomano uno sli di gp102
Se ne è già parlato all'inverosimile... il frametime su NVIDIA è migliore che su AMD ed è stato pure spiegato da mikael perché succede. Gli effetti gameswork sono un plus ad esempio hairworks su the witcher la trovo davvero gradevole. G-sync a differenza di freesync integra un metodo di riduzione dell'effetto scia (è in grado di regolare la tensione dei pixel in base alla frequenza del monitor)...
Ci sono un sacco di cose da considerare oltre ai frame medi quando si compra una scheda video.
Io lo so come ma le pensi tu Vul e non voglio certo farti cambiare idea... per te NVIDIA vende un sacco di schede solo perché abbaglia un sacco di polli... quello che io voglio dire è solamente che la verità potrebbe non essere tutta qui ma potrebbe esserci dell'altro. Ovviamente non voglio farti cambiare idea se no si parte con le solite guerre che non hanno fine e non portano da nessuna parte.
Personalmente mi trovo molto bene con NVIDIA nei videogiochi... per prendere una AMD be sognerebbe proprio che uscisse un prodotto rosso molto molto ghiotto e NVIDIA cappellasse... un po' come ai tempi di R300 e NV30 (infatti presi ATi). In tutti gli altri pc che ho in casa che NON uso per giocare ho schede video ATI o AMD....
Inviato dal mio iPhone utilizzando Tapatalk Pro
L'ultima analisi dettagliata (su guru3d) del frametime su 480 e 1060 conclude così:
Overall we can say that Pascal with the GeForce GTX 1060 and the Polaris 10 with the Radeon RX 480 performed really well in the eleven FCAT tests we ran it through. Four out of eleven tests were DirectX 12 enabled. All games passed our examination easily without any noticeable stutters or anomalies, and that is pretty good if you ask me. Any game and any title can show some game engine related stuff, but that's not what we are looking at. The nice 6 GB frame-buffer on the GTX 1060 and the 8 GB on the RAdeon RX 480 obviously helps out quite a bit in the more AA heavy environments.
Qui la recensione completa:
http://www.guru3d.com/articles_pages/radeon_rx_480_vs_gtx_1060_fcat_frametime_analysis_review,1.html
No, io non credo che Nvidia venda molte gpu perchè abbagli i polli, penso che venda più gpu del dovuto per marketing/mindshare, specie in passato più che adesso.
Dal canto mio non voglio più comprare Nvidia perchè le gpu le tengo a lungo e sono 8/9 anni che compro Nvidia perchè alla release va più veloce della concorrenza (alla release) e poi gioco dopo gioco vedo che la mia scheda (esempio la 670) passa dall'essere più veloce di una 7970 ad essere più lenta di una 7850.
Penso avvenga questo perchè Nvidia non ha gpu da vendere a chi ha schede amd, ma soprattutto a chi ha quelle nvidia.
Parliamoci chiaro, una 1050ti (potenza paragonabile ad una 670) va a volte veloce come una 780ti in certi giochi.
Se non si tratta di Nvidia che abbandona lo sviluppo driver per le architetture precedenti, non so cos'è.
Le schede AMD durano di più anche se ammetto AMD ci mette il suo per non farmi piacere le sue schede.
L'ultima analisi dettagliata (su guru3d) del frametime su 480 e 1060 conclude così:
Qui la recensione completa:
http://www.guru3d.com/articles_pages/radeon_rx_480_vs_gtx_1060_fcat_frametime_analysis_review,1.html
No, io non credo che Nvidia venda molte gpu perchè abbagli i polli, penso che venda più gpu del dovuto per marketing/mindshare, specie in passato più che adesso.
Dal canto mio non voglio più comprare Nvidia perchè le gpu le tengo a lungo e sono 8/9 anni che compro Nvidia perchè alla release va più veloce della concorrenza (alla release) e poi gioco dopo gioco vedo che la mia scheda (esempio la 670) passa dall'essere più veloce di una 7970 ad essere più lenta di una 7850.
Penso avvenga questo perchè Nvidia non ha gpu da vendere a chi ha schede amd, ma soprattutto a chi ha quelle nvidia.
Parliamoci chiaro, una 1050ti (potenza paragonabile ad una 670) va a volte veloce come una 780ti in certi giochi.
Se non si tratta di Nvidia che abbandona lo sviluppo driver per le architetture precedenti, non so cos'è.
Le schede AMD durano di più anche se ammetto AMD ci mette il suo per non farmi piacere le sue schede.
Beh tanto i giochi escono così bacati, che manco una enth riesce a tenerli a frame decenti... Fai prima a tenere di più la vecchia scheda, attendere le dovute patch, comprarlo scontato e togliere i killer settings... In questo modo resti su nvidia, cambiando la scheda almeno 1-2 anni dopo.
Tra l'altro non so quanti post fa, c'era chi affermava l'opposto, che con le kepler gioca ancora bene.
Meglio di tutti è acquistare la fascia "fermacarte", come dice alessandro, che alla metà del prezzo ti va quanto una ex main, e saluti al gatto, al cane e anche a spidermans :O
Se no, dai retta a frozen, prendi una fury e 4gb hbm che in verità si trasformano magicamente in 8zilioni, e ci campi 8 generazioni :O
Beh tanto i giochi escono così bacati, che manco una enth riesce a tenerli a frame decenti... Fai prima a tenere di più la vecchia scheda, attendere le dovute patch, comprarlo scontato e togliere i killer settings... In questo modo resti su nvidia, cambiando la scheda almeno 1-2 anni dopo.
Tra l'altro non so quanti post fa, c'era chi affermava l'opposto, che con le kepler gioca ancora bene.
Meglio di tutti è acquistare la fascia "fermacarte", come dice alessandro, che alla metà del prezzo ti va quanto una ex main, e saluti al gatto, al cane e anche a spidermans :O
Se no, dai retta a frozen, prendi una fury e 4gb hbm che in verità si trasformano magicamente in 8zilioni, e ci campi 8 generazioni :O
Io gioco ancora bene con Kepler ma giocherei ancora meglio con Tahiti o Pitcairn, anche se alla release andavano meno, specie pitcairn.
Comunque siamo OT, pace.
fraussantin
22-04-2017, 16:40
Io gioco ancora bene con Kepler ma giocherei ancora meglio con Tahiti o Pitcairn, anche se alla release andavano meno, specie pitcairn.
Comunque siamo OT, pace.
Si chiaro, ma uno non poteva stare a sperare che amd sistemasse il driver e dasse un boost.
Uno compra al momento quello che gli torna meglio.
Anche perchè se poi il boost non arriva l'inculata è doppia.
Legolas84
22-04-2017, 20:15
Guardatevi questi test fcat per rendersi conto siccome stanno le cose...
http://www.guru3d.com/articles-pages/msi-geforce-gtx-1080-gaming-x-plus-8g-review,1.html
Inviato dal mio iPhone utilizzando Tapatalk Pro
Legolas84
23-04-2017, 08:27
visto alla veloce dal cellulare, a parte tomb raider dove pare ci sia il terremoto il resto mi pare normale, nella fury intendo.
Molto semplicemente... in DX12 la situazione è pessima per AMD. Sembra la medesima situazione che esisteva in DX11 sempre lato rosso quando sono stati introdotti i test FCAT, e quindi prima della mega patch che AMD rilasciò via driver mesi dopo.
E questo vale per Tomb Raider che è osceno, ma anche per Hitman che da due colpi di mega stutter, e in Ashes che nel finale sembra un sismografo. Come diceva Mikael le DX12 hanno aiutato a far rendere meglio le GPU AMD rispetto a quanto non facessero in DX11 ma hanno introdotto non pochi problemi di latenze in queste GPU che causano quanto accade qui sopra.
In DX11 la situazione è migliore rispetto alle DX12 per AMD, ma è comunque leggermente peggio di NVIDIA. Infatti ad esempio in Alien poco prima del ventesimo secondo di test vi è un netto colpo di stuttering, in Morodr poco prima del venticinquesimo idem....
Ah, tra fury e Polaris non cambia una mazza... il problema sono i driver e l'architettura in se:
http://www.guru3d.com/articles-pages/asus-radeon-rx-580-strix-review,1.html
bagnino89
23-04-2017, 09:08
Pippe
Beh, insomma... FCAT non mente...
bel paragone bravo, hai capito tutto tu :asd:
che poi chi ha mai detto che la 980ti non sarebbe stata longeva lo sai solo tu :stordita:
Ma se non l'avessi capito o stai solo trollando non saprei, si sta prendendo in esame una scheda di fascia media (spacciata tale) che per non si sa quale fottuto motivo abbia venduto 20 VOLTE la pari fascia di prezzo amd...
ti rendi per caso conto quanto sia 20 VOLTE?
guardando i grafici, i bench la longevità, spiegami il motivo per cui una ha venduto 20 FOTTUTISSIME VOLTE l'altra?
senza considerare le kepler precedenti, mamma mia...
non c'è bisogno che ti sforzi, si chiama MARKETING.
bella valvola di sfogo il forum eh :D
Legolas84
23-04-2017, 10:10
Il colpo di stuttering per me è una schifezza bella grossa... immagina il gioco che va bello fluido e a un certo punto boom... scatto... se spendo 500 o 700 euro ste cose non devono esistere...
Poi ovvio per voi sono pippe per scontate ragioni... ;)
Io sto riportando i dati solo per dire che se la maggior parte dei gamers preferisce NVIDIA un motivo c'è e non è solo il marketing.
Ovviamente non dico che tutti la debbano preferire ci mancherebbe...
Inviato dal mio iPhone utilizzando Tapatalk Pro
bagnino89
23-04-2017, 10:18
Il colpo di stuttering per me è una schifezza bella grossa... immagina il gioco che va bello fluido e a un certo punto boom... scatto... se spendo 500 o 700 euro ste cose non devono esistere...
Poi ovvio per voi sono pippe per scontate ragioni... ;)
Io sto riportando i dati solo per dire che se la maggior parte dei gamers preferisce NVIDIA un motivo c'è e non è solo il marketing.
Ovviamente non dico che tutti la debbano preferire ci mancherebbe...
Inviato dal mio iPhone utilizzando Tapatalk Pro
Secondo me la maggior parte degli utenti che compra Nvidia (ma anche AMD eh) non ne sa nulla di frametime, stuttering, etc.
Poi è chiaro però che gli utenti più navigati ci guardano a determinate cose. Per il resto concordo con te, la superiorità Nvidia sotto questo aspetto mi sembra ovvia.
fraussantin
23-04-2017, 10:24
Il colpo di stuttering per me è una schifezza bella grossa... immagina il gioco che va bello fluido e a un certo punto boom... scatto... se spendo 500 o 700 euro ste cose non devono esistere...
Poi ovvio per voi sono pippe per scontate ragioni... ;)
Io sto riportando i dati solo per dire che se la maggior parte dei gamers preferisce NVIDIA un motivo c'è e non è solo il marketing.
Ovviamente non dico che tutti la debbano preferire ci mancherebbe...
Inviato dal mio iPhone utilizzando Tapatalk Pro
Non è solo per quello.
O meglio l'enthusiast pro come te, sa quel che vuole e sa quel che compra.
Altri lo fanno per sentito dire, perchè il luogo comune dice che nvidia è meglio , perchè si fa bella figura ( tipo come comprarsi un vestito di marca) o semplicemente perchè amd non ha vga entusiast :asd:
Cmq i motivi sono molteplici, ma se amd invece di puntare a chi spende 1000 euro in vga facendolo risparmiare, puntasse quanto prima a chi ne spende 500, imho riprenderebbe quote di mercato.
Legolas84
23-04-2017, 10:25
Secondo me la maggior parte degli utenti che compra Nvidia (ma anche AMD eh) non ne sa nulla di frametime, stuttering, etc.
Poi è chiaro però che gli utenti più navigati ci guardano a determinate cose. Per il resto concordo con te, la superiorità Nvidia sotto questo aspetto mi sembra ovvia.
Non è un aspetto trascurabile.... a cosa serve avere ottime prestazioni se poi hai lo stuttering?
PS
Comunque penso che a differenza di chi compra una console, chi compra un PC per giocare si informa anche su queste cose, oppure hanno amici a cui chiedere e di cui si fidano che queste cose le sanno. Ad esempio tutti i miei amici mi domandano sempre quando hanno un problema o devono aggiornare il loro PC. Poi ovvio ci sarà anche chi compra a scatola chiusa o si fida dei consigli del commesso che deve assolutamente venderti quello che non riesce a vendere agli altri.... ma non credo siano poi tantissimi nel mondo dei gamer.
TigerTank
23-04-2017, 10:43
Raga io direi: meno polemiche, meno pippe, pigliatevi una 1070-1080-1080Ti, giocate e vivete felici. Di questo passo Vega uscirà quando tutti penseranno all'estate e a ben altri hobbies/passatempi da bella stagione :sofico:
Legolas84
23-04-2017, 10:47
punti di vista, è peggio un costante su e giù di frame che un colpo di stuttering, che poi avviene anche nelle nvidia a volte (ho visto il test di guru sulla 1080 che hai postato) e guarda caso per un breve periodo era scomparso da molte review ai tempi delle maxwell 900... guarda caso :D
voi chi? non so frozen, ma personalmente l'ho scritto centordici volte mi sta sul culo nvidia per la sua politica marcia, non certo per la qualità a 360° dei suoi prodotti.
Fin che ci sarà la possibilità o fin che non cambieranno politica quelli di nvidia sceglierò altro, poi se devo consigliare ad altri il discorso cambia, ognuno fa quello che vuole coi propri soldi.
esatto, quelli che hanno comprato la 960 nel negozietto cosa vuoi che ne sappiano del frametime...
Se guardi bene i grafici NVIDIA non ha quelle punte improvvise verso il basso che ho evidenziato nel mio primo post. Una variazione contenuta come quelle che ha sia NVIDIA che AMD in dx11 non influiscono negativamente sull'esperienza.
Ma quel momento che ho evidenziato su AMD in DX11 in cui il frametime scende a zero per un attimo e poi torna su quello è un colpo di stuttering. E NVIDIA non lo fa. Poi vabbè le dx12 sono ancora peggio d'accordo, ma questo non vuol dire che le 11 sono esenti da problemi lato rosso.
Chi preferisce AMD ovviamente queste cose non le guarda... un po' come prima che uscissero i test FCAT... era impossibile trovare un utente ATI che ammettesse lo stuttering... poi però si è trovato il modo di misurarlo oggettivamente. E quindi ora l'unica strada e minimizzarlo.
Ovviamente in dx11 c'è da dire che AMD in single GPU ha fatto notevoli passi avanti rispetto ad anni fa... ma comunque ancora fornisce un'esperienza inferiore alla controparte.
Se poi vogliamo parlare di politiche... be direi che c'è poco da dire... a me fanno schifo tutte.... NVIDIA, AMD, Intel... ma anche Microsoft che con Windows 10 sta facendo più danni della grandine. Vogliamo parlare di APPLE?
Una delle poche aziende che con me si è comportata seriamente devo dire che è stata BMW... ma al momento di cambiare auto non mi sono fatto problemi a passare ad Audi :asd:
Inviato dal mio iPhone utilizzando Tapatalk Pro
mirkonorroz
23-04-2017, 11:05
Though in their defense, none of that is really visible on screen. But yeah, it's a difference alright.
Penso che questo riassuma il discorso in molti casi.
PS: i picchi in basso sono frame renderizzati piu' velocemente (meno millisecondi). Dovrebbero essere piu' quelli in alto a creare problemi e che lasciano "fisso" a schermo il/un frame precedente.
Legolas84
23-04-2017, 11:08
Penso che questo riassuma il discorso in molti casi.
PS: i picchi in basso sono frame renderizzati piu' velocemente (meno millisecondi). Dovrebbero essere piu' quelli in alto a creare problemi e che lasciano "fisso" a schermo il/un frame precedente.
È lo sbalzo a creare problemi.... il passaggio da valori molto diversi crea il problema, è indifferente che sia alto o basso.
mirkonorroz
23-04-2017, 11:15
È lo sbalzo a creare problemi.... il passaggio da valori molto diversi crea il problema, è indifferente che sia alto o basso.
Puoi provare a spiegarmi il perche'?
Se vado a 30FPS o 60FPS ed ad un certo punto un frame viene renderizzato molto piu' velocemente e quindi non doverbbe creare rallentamenti, perche' dovrei notare stuttering?
Ale55andr0
23-04-2017, 11:20
Una delle poche aziende che con me si è comportata seriamente devo dire che è stata BMW... ma al momento di cambiare auto non mi sono fatto problemi a passare ad Audi :asd:
Inviato dal mio iPhone utilizzando Tapatalk Pro
Buon per te, al resto del mondo l'han messa nel didietro col motore n47 e i problemi di distribuzione, peraltro pericolosssissimi se capita in autostrada, MAI ufficialmente riconosciuti e risolti in garanzia alla totalità dei proprietari (molti ci hanno rimesso oltre 4000 sacchi). Da possessore di 120d.
/ot
Legolas84
23-04-2017, 11:22
Buon per te, al resto del mondo l'han messa nel didietro col motore n47 e i problemi di distribuzione, peraltro pericolosssissimi se capita in autostrada, MAI ufficialmente riconosciuti e risolti in garanzia alla totalità dei proprietari (molti ci hanno rimesso oltre 4000 sacchi). Da possessore di 120d.
/ot
Io avevo un N47 d20A il più pericoloso di tutti.... sostituiti i tendi catena fuori garanzia e gratuitamente (quindi motore aperto completamente) con il modello d20C.....
Per me BMW si è comportata come si deve.... altri so che sono stati meno fortunati.
Legolas84
23-04-2017, 11:23
Puoi provare a spiegarmi il perche'?
Se vado a 30FPS o 60FPS ed ad un certo punto un frame viene renderizzato molto piu' velocemente e quindi non doverbbe creare rallentamenti, perche' dovrei notare stuttering?
Perchè quello dopo sarà molto più lento del precedente.... ;) Lo scatto lo avverti non quando si passa al frame più veloce, ma quando si torna a renderizzare a velocità "normale" ;)
mirkonorroz
23-04-2017, 11:28
Perchè quello dopo sarà molto più lento del precedente.... ;) Lo scatto lo avverti non quando si passa al frame più veloce, ma quando si torna a renderizzare a velocità "normale" ;)
Ma quello dopo, se renderizzato con complessita' come quelli precedenti a quello veloce, non puo' essere molto lento (o slittato di molto) se quello prima era molto veloce :confused:
Legolas84
23-04-2017, 11:30
Ma quello dopo, se renderizzato con complessita' come quelli precedenti a quello veloce, non puo' essere molto lento (o slittato di molto) se quello prima era molto veloce :confused:
Ma scusami.... se stavo renderizzando a 15ms.... poi passo a 1ms, poi ripasso a 15ms.... il salto da 15 a 1 magari lo sento meno perchè aumenta la velocità... ma poi da 1 devo ripassare a 15..... e ciao.... ;)
Legolas84
23-04-2017, 11:32
Quindi mi stai dicendo che secondo te a guidare gli acquisti nel mondo del gamer sono:
- il "tech-savy" del gruppo di amici
- il commesso
Quanti tech-savy e quanti commessi saranno dei Ren o dei Mikael che conoscono bene la teoria che ci sta dietro e quindi sanno di cosa parlano... e quanti invece dei Legolas o dei Delling, che imparano quel che possono da fonti divulgative e da piccoli esperimenti sull'hardware che hanno comprato, non privi di vizi dovuti all'inevitabile confirmation bias al quale tutti siamo soggetti?
...forse non ha torto chi pensa che gli acquisti vengano perlopiù fatti in base a fenomeni sociologici, sui quali il marketing può intervenire efficacemente.
E comunque sia, i tech-savy che hanno consigliato la 1050Ti invece della RX470 a un boato di utenti Steam farebbero meglio a smettere di dar consigli... :D
Scusami ma... non possono essere tutti ciechi o in malafede, Legolas. Quando i driver AMD facevano cagare la gente se ne lamentava e non poco, com'è che sul frametime tutti zitti?
Io resto dell'idea che quel frame "storto" in mezzo ad altri 60 nell'arco di un secondo... forse non lo si nota tanto facilmente.
Ma io non voglio mica farti cambiare idea.... io voglio solo esporre le mie. ;)
Anche perchè ragazzi se tutti la pensassimo allo stesso modo compreremmo tutti le stesse cose. Invece non è così.
Legolas84
23-04-2017, 11:33
Ma... vsync, freesync, gsync o puppamelo-sync attivati non sarebbero in grado di correggere il problema?
Il v-sync crea stuttering ovunque.... g-sync elimina il problema dello stuttering causato dal v-sync o comunque dall'assenza di sincronia tra scheda video e monitor.
Quello che vedi li è stuttering creato internamente dalla gpu....
Ancora pessime le AMD in Fcat?
Non per niente chi le ha usate in VR le ha rivendute tempo 0 (anche grazie al supporto ATW arrivato dopo quasi un anno, dettagli)
Legolas84
23-04-2017, 11:37
Ancora pessime le AMD in Fcat?
Non per niente chi le ha usate in VR le ha rivendute tempo 0 (anche grazie al supporto ATW arrivato dopo quasi un anno)
A quanto diceva mikael è dovuto alle latenze non proprio bellissime che si creano internamente alla gpu....
mirkonorroz
23-04-2017, 11:41
Ma scusami.... se stavo renderizzando a 15ms.... poi passo a 1ms, poi ripasso a 15ms.... il salto da 15 a 1 magari lo sento meno perchè aumenta la velocità... ma poi da 1 devo ripassare a 15..... e ciao.... ;)
Vabe' :D ma non riesco ad immaginarmelo :)
Se ho una periodicita' di 15 ms e la trovo fluida e ho una perturbazione a 1ms non vedo perche' tornando a 15 ms (o 16 ms) debba accorgermene.
Diverso sarebbe il discorso che a causa di quel ms ci fosse uno scarto del frame successivo e quindi vedrei un salto, ma non si era detto che nei grafici di fcat i frame sono gia' stati scartati?
Poi sembra strano che il tipo di guru3d non lo noti a schermo...
Legolas84
23-04-2017, 11:44
Vabe' :D ma non riesco ad immaginarmelo :)
Se ho una periodicita' di 15 ms e la trovo fluida e ho una perturbazione a 1ms non vedo perche' tornando a 15 ms (o 16 ms) debba accorgermene.
Diverso sarebbe il discorso che a causa di quel ms ci fosse uno scarto del frame successivo e quindi vedrei un salto, ma non si era detto che nei grafici di fcat i frame sono gia' stati scartati?
Poi sembra strano che il tipo di guru3d non lo noti a schermo...
Perchè lo stuttering è causato dalla variazione troppo grande di tempo di rendering.... non dal tempo di rendering in se....
Non so in che altro modo spiegarlo....
Legolas84
23-04-2017, 11:46
Io sono un egoista, non discuto per convincere gli altri... lo faccio per migliorare la mia comprensione delle cose.
Non penso che nvidia faccia schifo, anzi, penso sia abbastanza palese che tecnologicamente siano più avanti da diversi punti di vista. Mi infastidiscono però le loro politiche commerciali (e le numerose inculate, per dirla alla francese, che tirano ai consumatori ben sapendo di potrlo fare impunemente).
Ma temo che il commercio retail stia andando sempre più in questa direzione, non solo in questo campo. Una volta vendevi ai grossisti, che bene o male facevano da filtro: non potevi tirar loro delle inculate perché quelli l'avvocato per farti causa lo hanno e non si fanno scrupoli ad usarlo. Ora che però si vende direttamente al consumatore finale, che è ovviamente debole dal punto di vista contrattuale, le grosse corporation prendono sempre più coraggio e fanno sempre più quel che cazzo vogliono, almeno per quel che riguarda la tecnologia.
Ma si ma nn solo per la tecnologia.... da tutte le parti è così... e le aziende sono tutte uguali.... uno schifo.
Per questo quando scelgo un prodotto me ne sbatto di chi è a produrlo, ma valuto solo che quel prodotto sia conforme ai miei standard e mi soddisfi.
mirkonorroz
23-04-2017, 11:50
Perchè lo stuttering è causato dalla variazione troppo grande di tempo di rendering.... non dal tempo di rendering in se....
Non so in che altro modo spiegarlo....
Non importa, ci hai provato :)
Non so, non riesco a credere che i due casi dei picchi in alto ed in basso siano proprio equivalenti e quindi solo dovuto al delta. Inoltre il tutto dovrebbe prendere una valenza diversa a seconda del framerate medio a parita' di scostamento.
Grazie come sempre :)
Questo era un test fatto (e postato) mesi fa:
https://www.hardocp.com/article/2016/11/04/amd_nvidia_gpu_vr_perf_brookhaven_experiment/6
Abbastanza allarmante, pensavo avessero sistemato.
Legolas84
23-04-2017, 11:54
Bisogna anche capire chi si ha di fronte quando si parla di determinate schede, soprattutto di una certa fascia...
Prendo come esempio Legolas, dato che è stato quotato, e capisci dal suo PC, periferiche varie che non ha problemi di soldi, quindi spende indipendentemente se ne valga o meno la spesa...
Lui si trova bene con quello e compra quello perché può; è normale che se avesse un budget molto più limitato magari troverebbe altre soluzioni ed i commenti sarebbero differenti, ma se si può permettere il top è giusto che li spenda...
Prendo come esempio l'auto, dato che ha fatto cambio con due tipologie nettamente diverse solo perché aveva piacere o voglia di altro, senza andare sul tecnico o magari perché di auto non gli frega niente di molte cose, quindi ad ognuno le sue :D
Naturalmente Legolas non è una critica, ti ho preso come esempio in base ai commenti precedenti; poi se ho detto cose errate correggimi pure...
E' che la maggior parte delle volte nessuno guarda con obbiettività le cose; se può spendere va bene tutto, se non li ha critica a priori chi invece può...
Io difatti non ho detto che io ho ragione e loro torto....
Io stavo solo dicendo che non è che uno compra NVIDIA, spende di più per avere lo stesso identico prodotto.
NVIDIA in effetti offre qualcosa in più rispetto ad AMD in ambito gameing...
Poi ovvio sta all'utente finale decidere se vuole spendere tot o già spendendo meno è super soddisfatto. ;)
Cioè se uno se ne frega del frame time ad esempio perchè tanto gli sembra che non ci siano differenze io mica lo critico.... mi pare che il tono dei miei post fosse chiaro :)
Penso che questo riassuma il discorso in molti casi.
PS: i picchi in basso sono frame renderizzati piu' velocemente (meno millisecondi). Dovrebbero essere piu' quelli in alto a creare problemi e che lasciano "fisso" a schermo il/un frame precedente.
Tradotto
Pippe con scappellamento doppio
Tradotto
Pippe con scappellamento doppio
A doppia mano quindi?
Ma quanti ms tra l'una e l'altra?
bagnino89
23-04-2017, 14:03
A doppia mano quindi?
Ma quanti ms tra l'una e l'altra?
Senza avere stuttering possibilmente :asd:
Legolas84
23-04-2017, 14:05
Le pippe con lo stuttering sono un problema lol
Inviato dal mio iPhone utilizzando Tapatalk Pro
A doppia mano quindi?
Ma quanti ms tra l'una e l'altra?
Ah ah ah mi hai fatto ridere ..:D
Ottima questa
mircocatta
23-04-2017, 15:55
Questo era un test fatto (e postato) mesi fa:
https://www.hardocp.com/article/2016/11/04/amd_nvidia_gpu_vr_perf_brookhaven_experiment/6
Abbastanza allarmante, pensavo avessero sistemato.
Io che volevo passare da 1080 alla full Vega mmmm, mi metti dei dubbi, visto che gioco in VR anche io
Inviato dal mio HTC One M9 utilizzando Tapatalk
Io che volevo passare da 1080 alla full Vega mmmm, mi metti dei dubbi, visto che gioco in VR anche io
Inviato dal mio HTC One M9 utilizzando Tapatalk
A naso (e io ce l ho bello grosso) passare da una 1080 a Vega mi pare una cazzata anche se non usavi VR, poi magari quando esce vediamo meglio ;)
Io che volevo passare da 1080 alla full Vega mmmm, mi metti dei dubbi, visto che gioco in VR anche io
Inviato dal mio HTC One M9 utilizzando Tapatalk
Pascal ha implementato la pipeline VR in hardware (multi viewport) per aumentare le performance con il Lens Matched Shading.
Il supporto sviluppatori è ancora all'inizio, ma è una features non di poco conto se implementata.
ps. AMD ad oggi va in emulazione...
Ah ah ah mi hai fatto ridere ..:D
Ottima questa
Il mio secondo nome è: mano lesta :stordita:
Pascal ha implementato la pipeline in hardware per la VR. (multi viewport)
Il supporto sviluppatori è ancora all'inizio, ma è una features non di poco conto se implementata.
ps. AMD ad oggi va in emulazione...
In pratica dopo il pippone degli ACE via hw, che ancora se la smenano sull'essere "avanti", sulla vr son rimasti indietro...
Ahhhh meno male che ho ancora il 3d vision.
In pratica dopo il pippone degli ACE via hw, che ancora se la smenano sull'essere "avanti", sulla vr son rimasti indietro...
Ahhhh meno male che ho ancora il 3d vision.
AMD ha scelto l'approccio software.
Le CU di GCN devono sobbarcarsi tutti i calcoli sulle proiezioni multiple.
Nvidia con fermi ha introdotto la proiezione via hardware fixed. (1 per occhio)
Con Pascal hanno pompato le fixed unit per usare fino a 16 proiezioni x2. Sono parecchi calcoli in meno con LMS attivo...
AMD ha scelto l'approccio software.
Le CU di GCN devono sobbarcarsi tutti i calcoli sulle proiezioni multiple.
Nvidia con fermi ha introdotto la proiezione via hardware fixed. (1 per occhio)
Con Pascal hanno pompato le fixed unit per usare fino a 16 proiezioni per occhio. Sono parecchi calcoli in meno con LMS attivo...
In pratica, in soldoni, in parole povere, in gergo PCM "parla come magni", noi abbiamo vinto, loro perso.
Nvidia wins :winner:
In pratica, in soldoni, in parole povere, in gergo PCM "parla come magni", noi abbiamo vinto, loro perso.
Nvidia wins :winner:
Tu mi fai morire :rotfl:
In pratica, in soldoni, in parole povere, in gergo PCM "parla come magni", noi abbiamo vinto, loro perso.
Nvidia wins :winner:
Hai vinto una giacca in pelle nuova HHJ edisciòn!!11!!!1!
scorpion73
23-04-2017, 22:13
...io son bloccato nell'installazione del Vive da mia moglie.
Devo convincerla a mettere una libreria in un angolo del salotto. Le sto raccontando che serve a dare verticalità alla parete vuote sulla quale proiettiamo, l'avevo poi anche convinta, ma...
...le librerie che ho trovato fino ad ora non le piacciono, e sta cambiando idea.
Merda.
E io come lo nascondo il filo della telecamera se in quell'angolo non c'è niente? Non posso mica metterla in cima alla pianta! Dovevo prendere l'Oculus che ha molte meno pretese per il setup.
O il 3d vision... ;)
aspetta quello microsoft...
Ale55andr0
23-04-2017, 22:18
https://videocardz.com/68948/skhynix-gddr6-for-high-end-graphics-card-in-early-2018
https://videocardz.com/68948/skhynix-gddr6-for-high-end-graphics-card-in-early-2018
GDDR6 come sono rispetto le HBM e HBM2 ? .
Ale55andr0
24-04-2017, 13:19
http://wccftech.com/nvidia-volta-gpus-gddr6-memory-due-early-2018/
Crysis90
24-04-2017, 15:16
http://wccftech.com/nvidia-volta-gpus-gddr6-memory-due-early-2018/
Ma Vega????
:stordita: :fagiano: :Prrr:
Ma Vega????
:stordita: :fagiano: :Prrr:
Vega? Cancellata, non lo sapevi?
Ale55andr0
24-04-2017, 15:39
Ma Vega????
:stordita: :fagiano: :Prrr:
Vega sta per uscire dal mio radar, obnubilato dalla mia sacca scrotale che occupa il 98% dello spazio utile
fraussantin
24-04-2017, 15:43
Ma Vega????
:stordita: :fagiano: :Prrr:
Se è vero che esce un dual polaris la nave per vega è sempra in cantiere.
TigerTank
24-04-2017, 17:23
Vega sta per uscire dal mio radar, obnubilato dalla mia sacca scrotale che occupa il 98% dello spazio utile
Più che Vega, al momento la chiamerei "Vegas" visto che è tutto un azzardo di ipotesi circa la sua uscita :asd:
Crysis90
24-04-2017, 18:11
Vega? Cancellata, non lo sapevi?
Questa me l'ero persa. :D :ciapet: :asd:
fraussantin
24-04-2017, 18:27
ma lui trolla o fa il boccalone :D
è la sostituta naturale della Pro Duo uscita ESATTAMENTE 1 anno fa (Radeon Pro Duo Fiji XT 26 April 2016) con fiji e poco prima di Polaris 10, non dice nulla su Vega Gaming desktop...
Al 99% nell'aprile 2018 uscirà la Pro Duo con Vega
Boccalone è chi la compra :read:!
Aspettando le nuove vga per Boccaloni!!!!
Legolas84
24-04-2017, 19:49
Ormai si parla solo di AMD anche in questo thread :asd:
fraussantin
24-04-2017, 20:31
cosa non ti è chiaro del fatto che non è più palesemente una scheda gaming la dual gpu di amd?
:
Su quello non ci sono mai stati dubbi.
Buongiorno, si sa più o meno quando inizieranno a commercializzare seriamente le custom 1080ti? In giro ancora c'è poca roba..
Legolas84
25-04-2017, 10:17
Buongiorno, si sa più o meno quando inizieranno a commercializzare seriamente le custom 1080ti? In giro ancora c'è poca roba..
Per ora ci sono le Strix, le MSI e le Gigabyte.... anche EVGA ha iniziato a spedire le sue custom ;)
Per ora ho visto una gran fanfara fatta dagli AiB riguardo alle proprie custom, però non sono disponibile da nessuna parte, immagino sia il solito founders oggi e custom fra un mese
Custom ho visto poca roba, io sono indeciso se aspettare ancora un mese arriviamo a giugno, notoriamente nei tre mesi estivi non gioco molto per via del caldo quindi mi riaffaccio a settembre per un potenziale acquisto di una 1080 ti custom con prezzi allineati sui 750?!?
Oppure prendere adesso una 1080 a 550€
Risoluzione 3440x1440@100hz non sono molto esigente e non cambio scheda video spesso,calcolando che sto provando un po' di giochi e se scendo uno scalino dai settings ultra devo dire che la 780 ancora tiene bene, non pensavo, tutto anche grazie al GSYNC.
Per ora ci sono le Strix, le MSI e le Gigabyte.... anche EVGA ha iniziato a spedire le sue custom ;)
Io infatti volevo una evga ma spedizione direttamente da loro in italia ?
Io infatti volevo una evga ma spedizione direttamente da loro in italia ?
Chiedete nell'apposito thread i consigli per gli acquisti della casalinga [insert bestemmia]
http://hwupgrade.it/forum/showthread.php?t=2780308
Qua si parla solo di next gen AMD :O
Sicuramente il top di gamma non è mai il migliore investimento perché ha il rapporto price/performance peggiore del lotto, sempre.
Probabilmente la 1080 liscia è un acquisto più adatto alle tue esigenze. Ho sostanzialmente lo stesso dilemma, attendo Vega con il monitor freesync già in casa ma poi alla fine non so se avrò voglia di spenderci una cifra da top di gamma visto che riesco a giocare , anche se con molti compromessi, con la scheda in firma :>
Si anche perché mi è arrivato il monitor una settimana fa e vorrei godermelo con dei giochi che ho aspettato tanto per giocarli appunto in ultrawide ma adesso rosico per
ho frames bassi e non voglio aspettare ancora, la scimmia chiama..
scorpion73
25-04-2017, 17:52
Si anche perché mi è arrivato il monitor una settimana fa e vorrei godermelo con dei giochi che ho aspettato tanto per giocarli appunto in ultrawide ma adesso rosico per
ho frames bassi e non voglio aspettare ancora, la scimmia chiama..
Se non cambi scheda spesso io andrei di 1080ti.. ti pigli il top di gamma ora e stai apposto per un bel pò.. io farei così..
visto che riesco a giocare , anche se con molti compromessi, con la scheda in firma :>
Con quella scheda ho l'impressione che con gli ultimi giochi di compromessi ne debba fare veramente troppi per quel che è uno standard di qualità accettabile.. penso che giocherai su basso o al max qualcosa su medio, mi sbaglio? Ovviamente non perché è AMD ma perché è un pò parecchio anzianotta..
Legolas84
25-04-2017, 17:55
Io infatti volevo una evga ma spedizione direttamente da loro in italia ?
dal sito evga.eu te la spediscono a casa in italia ;)
dal sito evga.eu te la spediscono a casa in italia ;)
Perfetto ho messo notifica mail che c'è solo la Founders adesso ;)
Se non cambi scheda spesso io andrei di 1080ti.. ti pigli il top di gamma ora e stai apposto per un bel pò.. io farei così..
Con quella scheda ho l'impressione che con gli ultimi giochi di compromessi ne debba fare veramente troppi per quel che è uno standard di qualità accettabile.. penso che giocherai su basso o al max qualcosa su medio, mi sbaglio? Ovviamente non perché è AMD ma perché è un pò parecchio anzianotta..
Guarda non pensavo ma regge ancora moooolto bene la 780 classy
Guarda anche se vuoi i video nella prima
Pagina nel Thread ufficiale del Omen link in firma, questi i risultati che ho registrato
DOOM (su ultra mi avvicino ai 37 fps su uno step sotto sto sempre tra 40-50)
GTA5 (sempre sopra i 60 tutto maxato ma MS spento)
MASS EFFECT ANDR (su Ultra ingiocabile :D ma quanto è bello? Su High tra i 36-45)
FAR CRY PRIMAL (leggermente meglio di MEA ma stiamo li soffre su ultra )
BF1 (su ultra tra i 40-50)
Quindi diciamo che se mi accontento godo ma io non mi accontento facilmente e godere a 100 fps granitici...mi sa che mi tocca aspettare le custom Ti EVGA ;)
A proposito chi ha già preso le 1080ti come siamo messi a Coil Whine
mikael84
26-04-2017, 15:10
Gran parte dei dettagli è un immensa esagerazione, specie considerando quanto questi giochi siano strapieni di settings inutili tarpa fps. Non siamo più nel 2004-2005 dove la differenza fra low e high era immensa (pensa al primo far cry o crysis).
Quei tempi sono andati da un sacco e da possessore di i3 e 670 che cerca disperatamente scuse per comprare hardware nuovo (al più presto ryzen 1600x + 570) posso assicurarti che di giochi dove ho abbassato dettagli per mantenere i 60 fps vedendo effettivamente differenze ce ne sono pochi e nessuno.
Tanto per dire Crysis 3 da ultra a low:
http://www.gamereactor.eu/media/26/crysis3minimista_702631b.jpg
Potete anche guardarvi i video su youtube e farvi idee da soli se ci sia tutta sta necessità di chissà che gpu a 1080p (60 hz).
E mi vengono in mente duemila di filtri da -20/30 % fps, tecniche aliasing orrende e ultra costose sulla gpu, tesselazione, ecc, hai voglia.
99,9% delle persone neanche noterebbero le differenze (ma dicono di si per effetto placebo).
Non è questione di farsi idee, forse hai quotato la persona totalmente sbagliata.;)
https://www.youtube.com/watch?v=9ksEm8q2zmU
https://www.youtube.com/watch?v=c7FRC3Vm7gI
https://www.youtube.com/watch?v=KfJoUj8LwNo
Con quella scheda i 60fps li vedi a binocoli nei giochi nuovi (anche a dettagli medi-medi bassi).
A quanto diceva mikael è dovuto alle latenze non proprio bellissime che si creano internamente alla gpu....
In DX12 però...50ms
Legolas84
26-04-2017, 15:26
Non è questione di farsi idee, forse hai quotato la persona totalmente sbagliata.;)
https://www.youtube.com/watch?v=9ksEm8q2zmU
https://www.youtube.com/watch?v=c7FRC3Vm7gI
https://www.youtube.com/watch?v=KfJoUj8LwNo
Con quella scheda i 60fps li vedi a binocoli nei giochi nuovi (anche a dettagli medi-medi bassi).
In DX12 però...50ms
sisi infatti in DX11 la situazione è migliorato sebbene non sia ancora ai livelli di NVIDIA.... io dicevo che i problemi grossi a livello di frametime AMD li ha in DX12, come si vede dai grafici :)
scorpion73
26-04-2017, 16:27
Si', ovviamente dipende molto da gioco e gioco, ma giocando raramente titoli frenetici i problemi sono meno che in altri casi, oltre ai moba che ovviamente vanno a 4 milioni di fps anche con questa a 1440P.
Per esempio ora sto giocando Dishonored 2 e su questo i compromessi sono davvero troppi e ho deciso di cambiare, aspetto Vega e vedo, ma probabilmente restero' su AMD visto il monitor Freesync (Freesync che la mia scheda attuale nemmeno supporta :asd: )
Avendo già il monitor freesync condivido la tua scelta di rimanere su AMD.. io sono dall'altra parte ma anche se Vega andasse di più resterei su Nvidia anche per conto del GSync.. cambiare monitor in base alla scheda mi sembra veramente troppo e il GSync è fondamentale, almeno per me... e credo che le stesse considerazioni le possa fare tu lato AMD...
Poi sul perché io ho preso GSync e tu FreeSync beh, ognuno ha le sue preferenze :D :D
In ogni caso considera al limite un upgrade temporaneo alla 480 o una 390X usata se Vega dovesse tardare ulteriormente.
Consiglio
26-04-2017, 19:27
Ciao a tutti scrivo qui in quanto non saprei dove altro chiedere :D
Ho appena acquistato su amazon una nuova scheda e ho ricevuto il codice per riscattare uno dei giochi disponibili con l'acquisto.
Volevo sapere, una volta inserito il codice prodotto su geforce experience, riceverò un ulteriore codice del gioco scelto? Oppure è tutto fatto in modo che non posso darlo a qualche amico? (visto che a me non interessa).
grz :)
Thunder-74
26-04-2017, 22:48
Ciao a tutti scrivo qui in quanto non saprei dove altro chiedere :D
Ho appena acquistato su amazon una nuova scheda e ho ricevuto il codice per riscattare uno dei giochi disponibili con l'acquisto.
Volevo sapere, una volta inserito il codice prodotto su geforce experience, riceverò un ulteriore codice del gioco scelto? Oppure è tutto fatto in modo che non posso darlo a qualche amico? (visto che a me non interessa).
grz :)
Adesso danno dei codici che possono essere usati solo con alcune schede tipo 1080/1070. Ora non so cosa tu abbia preso. Se il tuo amico ha la medesima scheda , zero problemi, altrimenti sincerati per quali schede è utilizzabile ;)
Inviato dal mio iPhone utilizzando Tapatalk
marcolulu
26-04-2017, 23:00
Ciao a tutti scrivo qui in quanto non saprei dove altro chiedere :D
Ho appena acquistato su amazon una nuova scheda e ho ricevuto il codice per riscattare uno dei giochi disponibili con l'acquisto.
Volevo sapere, una volta inserito il codice prodotto su geforce experience, riceverò un ulteriore codice del gioco scelto? Oppure è tutto fatto in modo che non posso darlo a qualche amico? (visto che a me non interessa).
grz :)
Cmq Ghost Recon non e' poi cosi malvagio!!;)
illidan2000
26-04-2017, 23:30
Ciao a tutti scrivo qui in quanto non saprei dove altro chiedere :D
Ho appena acquistato su amazon una nuova scheda e ho ricevuto il codice per riscattare uno dei giochi disponibili con l'acquisto.
Volevo sapere, una volta inserito il codice prodotto su geforce experience, riceverò un ulteriore codice del gioco scelto? Oppure è tutto fatto in modo che non posso darlo a qualche amico? (visto che a me non interessa).
grz :)
ti chiede di collegarlo su un account uplay
Consiglio
03-05-2017, 00:47
ti chiede di collegarlo su un account uplay
scusate non ho avuto modo di collegarmi...
Cioè quindi se metto l'account del mio amico dal mio pc, dovrebbe essere tutto ok? Oppure come dicevano gli altri, serve avere una determinata scheda?
Io l'ho preso su amazon con la 1060...
illidan2000
03-05-2017, 09:04
scusate non ho avuto modo di collegarmi...
Cioè quindi se metto l'account del mio amico dal mio pc, dovrebbe essere tutto ok? Oppure come dicevano gli altri, serve avere una determinata scheda?
Io l'ho preso su amazon con la 1060...
penso di sì. basta che il tuo amico non è collegato pure lui contemporaneamente...
Consiglio
03-05-2017, 14:32
Ah ok, quindi il codice che ho ricevuto basta darlo a chiunque e lui si sceglie uno dei giochi tramite geforce experience?
Crysis90
04-05-2017, 19:11
Ma le GPU NVidia non dovevano perdere il 25/30% di prestazioni dopo il primo anno di lancio??
https://www.youtube.com/watch?v=1dhyjcnCylI
:rolleyes:
fraussantin
04-05-2017, 20:18
Kepler è invecchiato male perché era molto software (driver) dipendente, si sa.
Maxwell e Pascal son cugini stretti, finchè c'è supporto per Pasky anche Max se la caverà, è per questo che la 980ti è la best vga ever.
Ma quando uscirà Volta, votato alle DX12, usciranno anche i giochi DX12. A quel punto sarà la solita storia, le rosse se la caveranno un po' meglio mentre chi ha una verde... beh non dovrà faticare molto per convincersi che "mi serve una VGA nuova".
Non ti so dire, finchè molta utenza resterà fedele a w7 non credo che convenga a nessuno abbandonare le dx11.
La gtx 970 nonostante le critiche è stato un buon acquisto. In quella fascia di prezzo sicuramente il piú longevo in casa nvidia da un bel po di tempo.
Non ti so dire, finchè molta utenza resterà fedele a w7 non credo che convenga a nessuno abbandonare le dx11.
La gtx 970 nonostante le critiche è stato un buon acquisto. In quella fascia di prezzo sicuramente il piú longevo in casa nvidia da un bel po di tempo.
Su steam considerando solo l'utenza Windows 10 e pre 10(7 &8), più della metà ha una gpu dx12+ w10.
Tutti gli altri sistemi operativi non li considero... Chi sta su vista, xp e others evidentemente neanche vuole giocarci col PC lol.
Insomma, dai numeri a me pare proprio il contrario di quello che dici: dovrebbero sbrigarsi a pushare dx12(e vulkan soprattutto)😉
fraussantin
05-05-2017, 07:30
Su steam considerando solo l'utenza Windows 10 e pre 10(7 &8), più della metà ha una gpu dx12+ w10.
Tutti gli altri sistemi operativi non li considero... Chi sta su vista, xp e others evidentemente neanche vuole giocarci col PC lol.
Insomma, dai numeri a me pare proprio il contrario di quello che dici: dovrebbero sbrigarsi a pushare dx12(e vulkan soprattutto)😉
Sono circa metà utenza steam quelli senza w10.
Ma attenzione il 28.50% ha una vga nuova e non ha upgradato volutamente ( per idee sue e non per incompatibilità) a w10.
Chi rinuncia ad un terzo della clientela per non sviluppare in dx11?
Imho se ne parla tra 2 anni. (
A meno che non esca imminente un titolo tipo che so gta6 o cyberpunk only dx12 e faccia da traino. ( ma non sarà)
2 anni fa dissi che microsoft si era fatta gli alleati sbagliati per imporre w10 e dx12, ed infatti le dx 11 ancora regnano.
Non dico che si é ripresentato lo scenario ai tempi delle dx10, ma quasi ci siamo.
Ps per le vulkan, magari diventassero lo standard. ( che per la cronaca girano da dio si gtx970)
Ma purtroppo saranno sempre e solo una alternativa.
Micropoint_ITA
05-05-2017, 10:09
Ragazzi perdonatemi, le serie 2080 saranno previste ad agosto? Non si parlava di cadenza annuale tra una serie e l'altra (e ogni 6 mesi la ti)?
Tecnicamente gp102 è uscito a ottobre 2016 quindi quasi un anno, in teoria nvidia se vuole può anche far uscire 2070-2080 a fine estate, ma molto dipende se ha i chip pronti e se gli vale la pena visto che le attuali schede si vendono più che bene
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
TigerTank
05-05-2017, 10:59
GP104 è uscito a maggio 2016 con la 1080 seguita dalla 1070, Volta arriverà nel 2018, ora è la fase 1080Ti.
Chippini e chipponi si alternano per intervalli di circa 2 anni e sfasati di 1 anno...e direi che basti così. Per cui probabilmente chippini e Titan Volta nel 2018 e Ti nel 2019.
EDIT: corretto sigla
gp104 aka 1080/1070 a maggio/giugno, gp102 aka Titan Cut ad agosto 2016 e a marzo/aprile 2017 con 1080ti e Titan Full
con Volta non saprei, penso anch'io 2018, ma potrebbero riempire i GPC con 1 SM in più, tipo GV104 sui 400mmq con 4GPC da 6 SM da 128cc quindi:
128cc*6*4 = 3072cc la 2080 e 128cc*6*3 = 2304cc la 2070, sempre 4Raster/64ROPs e bus da 256bit gddr5x (o se già ci saranno le gddr6), ma clock un po' più alti.
mediamente la 2080 andrebbe quanto la 1080ti e la 2070 quanto la 1080.
l'aternativa sarebbe invece 6GPC da 4SM da 128cc quindi svuotare i GPC di 1 SM ma metterne 2 in più per la 2080 e fare 128cc*4*6 = 3072cc e 128cc*4*5 = 2560 la 2070, quindi 6Raster/96 ROPs ma non credo che riuscirebbero a stare nei 400mmq, mantenere bassi i consumi alti i clock e che il bus da 256bit basti anche se gddr6.
chissà cosa ne pensa mikael di queste configurazione :)
Ma cosa vuoi che pensi mikale... Che spari gpcropraster a caso per impressionare il pubblico... Nun ce capisci nulla!!!!!!!!!!!!! :winner:
Legolas84
05-05-2017, 12:25
Lol
Inviato dal mio iPhone utilizzando Tapatalk Pro
TigerTank
05-05-2017, 12:46
gp104 aka 1080/1070 a maggio/giugno, gp102 aka Titan Cut ad agosto 2016 e a marzo/aprile 2017 con 1080ti e Titan Full
con Volta non saprei, penso anch'io 2018, ma potrebbero riempire i GPC con 1 SM in più, tipo GV104 sui 400mmq con 4GPC da 6 SM da 128cc quindi:
128cc*6*4 = 3072cc la 2080 e 128cc*6*3 = 2304cc la 2070, sempre 4Raster/64ROPs e bus da 256bit gddr5x (o se già ci saranno le gddr6), ma clock un po' più alti.
mediamente la 2080 andrebbe quanto la 1080ti e la 2070 quanto la 1080.
l'aternativa sarebbe invece 6GPC da 4SM da 128cc quindi svuotare i GPC di 1 SM ma metterne 2 in più per la 2080 e fare 128cc*4*6 = 3072cc e 128cc*4*5 = 2560 la 2070, quindi 6Raster/96 ROPs ma non credo che riuscirebbero a stare nei 400mmq, mantenere bassi i consumi alti i clock e che il bus da 256bit basti anche se gddr6.
chissà cosa ne pensa mikael di queste configurazione :)
Vero vero, GP104! Ho cannato sigla.
Ogni tanto mi viene da pensare GP102 = chippini e GP100 = chipponi :D
Comunque secondo me da qui al 2018 lasciano giustamente spazio alla 1080Ti(che mi auguro abbia almeno un annetto di supremazia visto quel che costa) e ai "refresh" della 1080 e alla Titan XP. Volta nel 2018 con tanto di nuove ddr6...e chissà se vedremo le HBM2 su Titan e magari Ti. Si vedrà.
Che poi visti i giochi che escono ultimamente...non so cosa possa servire di più.
Poi se manterranno i range di upgrade avremo una gtx2070 che andrà un pelo meno della 1080Ti e una gtx2080 che andrà un 25% in più.
Abbastanza improbabile Nvidia rilasci un altra generazione fra qui a volta, non ne ha ne bisogno (sta vendendo come non mai nella sua storia) e nemmeno competizione.
L'unica probabilità minima è uno shrink su un pp più basso, ma onestamente dubito che arriverà nulla di ciò.
fraussantin
05-05-2017, 13:00
Abbastanza improbabile Nvidia rilasci un altra generazione fra qui a volta, non ne ha ne bisogno (sta vendendo come non mai nella sua storia) e nemmeno competizione.
L'unica probabilità minima è uno shrink su un pp più basso, ma onestamente dubito che arriverà nulla di ciò.
Anche perchè il rinfresco di pascal lo ha già fatto (+o-)
mikael84
05-05-2017, 14:41
gp104 aka 1080/1070 a maggio/giugno, gp102 aka Titan Cut ad agosto 2016 e a marzo/aprile 2017 con 1080ti e Titan Full
con Volta non saprei, penso anch'io 2018, ma potrebbero riempire i GPC con 1 SM in più, tipo GV104 sui 400mmq con 4GPC da 6 SM da 128cc quindi:
128cc*6*4 = 3072cc la 2080 e 128cc*6*3 = 2304cc la 2070, sempre 4Raster/64ROPs e bus da 256bit gddr5x (o se già ci saranno le gddr6), ma clock un po' più alti.
mediamente la 2080 andrebbe quanto la 1080ti e la 2070 quanto la 1080.
l'aternativa sarebbe invece 6GPC da 4SM da 128cc quindi svuotare i GPC di 1 SM ma metterne 2 in più per la 2080 e fare 128cc*4*6 = 3072cc e 128cc*4*5 = 2560 la 2070, quindi 6Raster/96 ROPs ma non credo che riuscirebbero a stare nei 400mmq, mantenere bassi i consumi alti i clock e che il bus da 256bit basti anche se gddr6.
chissà cosa ne pensa mikael di queste configurazione :)
Il 6° TPC è un'ipotesi che ho sempre valutato come possibile. Con Volta chiaramente rimarrà fissa la quota di scheduling tra WP1 e WP2, però essendo un chip più votato al parallelismo (dx12), penso si punti a migliorare o ad ampliare il sottosistema istruzioni LDS-cache.
Ampliare la cache costa tante risorse, ampliare le istruzioni meno.
Riguardo al core, dovremmo essere sui 334mmq2 con 3072cc.
Quando fai largo uso del conservative rasterizer, utilizzi tanta cache, meglio avere più istruzioni per cc, in questo modo devi passare meno per la cache.
Cache e rop's, oltre che richiedere spazio, fanno consumare tanto.:)
ahahhh mi hai fatto ribaltare :rotfl:
ego ha ragione, ma per lo meno cerco di capire ed impara qualcosina nel mio piccolo e c'è chi non la pensa come voi tranquilli :D
eh eh diciamo che nvidia non aiuta nelle sigle :D , con kepler si chiamava gk110 (ed aveva la DP), con maxwell gm200 (anche se non ha la DP) perché non ha creato un chip maxwell per la DP e con pascal gp102 perché rispetto a gp100 si differenzia per la DP oltre che per altro.
comunque a prescindere da come può creare i chip, le prestazioni saranno in linea quelle con lo stesso silicio.
Kepler GK110 gaming essendo un chip pensato per la DP( ricordo cmq che la DP delle gaming è 1/24) si porta dietro una miriade di colli di bottiglia.
In primis i raster da 8 pixel non consentono di elaborare le rop's completamente. Ogni raster processa 12 pixel ma ne elabora 8, non c'è una compressione degna, se non un misero 8:1, tanto che la banda effettiva di una Kepler si ritrova 1,5mb di cache ed appena 210/220gb/s di BW effettiva.
La 780 liscia si porta dietro addirittura due collegamenti a vuoto.
GPC-GPC-GPC-GPC
6 collegamenti.
La 780ti oltre ad un canale a vuoto che occupa spazio, integra pure 256cc per SMX di cui ogni 3 cc uno è FP64.
Si poteva anche disabilitare la FP64 come Maxwell, solo che la 980 Maxwell partiva battuta:sofico: Tutto studiato
mikael84
05-05-2017, 17:21
Cosa intendi tra WP1 e WP2? i Warp sono singoli per blocchi da 32cc.
Quindi dici mantenere gli stessi CC, ma aumentare le unità speciali e i registri... infatti anche secondo me cache e rops rimarranno le stesse proprio per i consumi utilizzando lo stesso silicio.
Volevi scrivere 434mmq con 6TPC o proprio 334mmq? mi fai venire il dubbio perché 434mmq con 4GPC da 6TPC mi sembrano tanti, ma come mi sembrano pochi 334mmq rispetto agli attuali 314mmq... ogni TPC occupa solo 5 mmq? :eek:
ma kepler non era 192cc? si il rapporto era 3:1 per la DP.
Errore di battitura, intendevo i due D.U. che eseguono i 32 cc con le unità funzionali in un rapporto di 4:1:1
I singoli SMM sono piccoli, gran parte dello spazio è richiesto dal collegamento. Un più complesso TPC GP100 è circa 7,5mmq2, di conseguenza aggiungendo un TPC, a numeri si dovrebbe restare sotto o sui 340/350mmq2 max.:)
Kepler era 256cc per SMX(192 FP64 +64 FP64) versione Titan.
Anzi andando nel dettaglio vero e proprio erano 2 SM raggruppati in un grande SMX.
SMX:
SM 1
32 (+ unità funzionali) 32 (+ uf) 32 (+ uf), di cui 2 blocchi in dipendenza (96cc).
32 (+ unità funzionali) 32 (+ uf) 32 (+ uf), di cui 2 blocchi in dipendenza (96cc, totali 192 su SMX).
mikael84
05-05-2017, 23:09
ah ok i dispatch :)
Una domanda come fai a sapere che il TPC è 7.5mmq lo hai calcolato in qualche modo è riportato su qualche paper?
sinceramente così in profondità non ho mai calolato le dimensioni delle unità, ma immagino si potrebbe partire dal die shot e usare il "righello" :sofico:
per kepler ok capito, ovviamente io contavo solo i cc fp32 usati nei giochi in pratica come fosse la 780ti, di solito parliamo sempre di quello nel calcoli sennò dovremmo dire che gp100 ha
5760cc e che gp102 ha 4080cc :D
Ne ho discusso su un forum ingegneristico Nvidia ed è anche stato rilasciato su PDF, se lo trovo te lo passo.
A livello siamo li.:p
Si si hai perfettamente ragione, il mio era giusto un appunto per lo spazio, considerando che ogni SMM/SMX alla fine integra un tot di cc e di conseguenza è più grosso.
GP100 ha un TPC che collega il polymorph engine e 2 SM con doppi registri.
1 TPC = 192cc (64 fp32+ 32 fp64/ 128 fp 16)
1 SM = 96cc (64 fp 32 + 16 fp64).
Possiamo anche dire che GP100 integra 5760cc, se guardiamo gli spazi. Chiaramente se fossero tutti FP32, primo non potrebbero essere eseguiti senza dipendenze, in secundis, le rese sarebbero a dir poco pessime.:p
GP102 utilizza i classici warp con 128cc (4 x 32 su SMM) e relative unità funzionali. 3840cc è il massimo utilizzabile.
GP100 chiaramente per collegare 4 stack HBM necessita di utilizzare 128 rop's e 4mb l2 (praticamente un 8 gpc).:)
nico88desmo
09-05-2017, 20:46
In attesa di domani pomeriggio, nel frattempo oggi al GTC è stato presentato il primo modulo GDDR6
https://videocardz.com/69304/sk-hynix-showcases-first-gddr6-wafer-at-gtc-2017
;)
Crysis90
09-05-2017, 21:16
http://wccftech.com/watch-nvidias-gtc-2017-keynote-volta-supercomputing-9-pt-may-10th/
"Volta is coming..."
Domani sarà un GRAN giorno per tutti gli NVidiani. :D
Non solo Volta, ma anche la nuova roadmap per tutte le future nuove evoluzioni delle GPU NVidia da qui ai prossimi 5/6 anni. ;)
TigerTank
09-05-2017, 21:48
Già mi vedo una Titan Volta con vram HBM2, 50-60% più veloce delle attuali Ti-Titan e venduta in esclusiva a 2000€ :O :sofico:
Già mi vedo una Titan Volta con vram HBM2, 50-60% più veloce delle attuali Ti-Titan e venduta in esclusiva a 2000€ :O :sofico:
Preparati perchè dal prossimo anno anche l'iva aumenta... forse non 2000 ma 1500€ sicuri sicuri
Crysis90
09-05-2017, 22:04
Già mi vedo una Titan Volta con vram HBM2, 50-60% più veloce delle attuali Ti-Titan e venduta in esclusiva a 2000€ :O :sofico:
Dal 2018 nelle motivazioni per cui la gente prendera il mutuo comparirà anche la voce: "mi serve per comprare Volta". :asd: :O
Preparati perchè dal prossimo anno anche l'iva aumenta... forse non 2000 ma 1500€ sicuri sicuri
Solo AMD può salvarci. :D
mikael84
09-05-2017, 22:41
Già mi vedo una Titan Volta con vram HBM2, 50-60% più veloce delle attuali Ti-Titan e venduta in esclusiva a 2000€ :O :sofico:
Tiger le HBM hanno un collegamento differente, salvo stravolgimenti, le uniche ram, saranno le ddr6 (non certo 16gb/s ma da 12 in su).:)
Le HBM le monterà la full Volta HPC GV100, con nvlink 2,0 200gb/s(50gb/s x 4).:)
Tiger le HBM hanno un collegamento differente, salvo stravolgimenti, le uniche ram, saranno le ddr6 (non certo 16gb/s ma da 12 in su).:)
Le HBM le monterà la full Volta HPC GV100, con nvlink 2,0 200gb/s(50gb/s x 4).:)
Mikael credo che volesse solo trollare, non era serio :sofico:
Comunque data per scontata la veridicità mi pare di capire dall'articolo che la serie volta salterà una nomenclatura quindi si partirà da 30x0, prevedo rebrand di prepotenza in ambito notebook :D
Crysis90
10-05-2017, 07:59
http://wccftech.com/nvidia-graphics-announcement-gtc-2017/
http://www.tweaktown.com/news/57463/nvidia-show-next-gen-volta-gpu-tomorrow/index.html
Ci siamo, gente. ;)
Intanto, altro trimestre record:
http://pro.hwupgrade.it/news/mercato/nvidia-chiude-un-altro-trimestre-record-per-la-vendita-di-gpu_68559.html
TigerTank
10-05-2017, 09:11
Tiger le HBM hanno un collegamento differente, salvo stravolgimenti, le uniche ram, saranno le ddr6 (non certo 16gb/s ma da 12 in su).:)
Le HBM le monterà la full Volta HPC GV100, con nvlink 2,0 200gb/s(50gb/s x 4).:)
Sì Mike, lo penso anch'io. Anche perchè mi sa che in ambito gaming e quantitativi di vga, le ddr6 saranno enormemente più vantaggiose come costi di produzione e prezzo-prestazioni.
E infatti le Vega causa HBM2 non avranno un grosso volume di produzione.
Mikael credo che volesse solo trollare, non era serio :sofico:
Noooo, niente trollaggini, solo una battuta :D
Di sicuro però i prezzi non li calerà, vedi pure articolo di oggi (http://pro.hwupgrade.it/news/mercato/nvidia-chiude-un-altro-trimestre-record-per-la-vendita-di-gpu_68559.html), riportato anche da Crysis90.
Crysis90
10-05-2017, 17:11
Misà che le previsioni dei prezzi al rialto per Volta sono abbastanza probabili:
http://wccftech.com/nvidia-ceo-not-worried-amd-radeon-rx-vega/
:rolleyes:
Misà che le previsioni dei prezzi al rialto per Volta sono abbastanza probabili:
http://wccftech.com/nvidia-ceo-not-worried-amd-radeon-rx-vega/
:rolleyes:
Comunque mi pare di capire che i chip sono li in attesa, entro fine 2017 dovrebbero uscire le schede in ambito pro con HBM2 e nel Q1 2018 i chip gaming...
I prezzi saranno sicuramente alti ma non so voi credo sia cosi che le piazzeranno:
3060 a 299$ => Prestazioni da 1080
3070 a 499$ => Prestazioni da 1080ti
3080 a 699$ => Prestazioni da Titan XD
Eventuale Titan cuttata a 1299$
Per tutte aggiungere il 25% di Iva in euro...
Per tutte aggiungere il 25% di Iva in euro...
Certo che in Italia stiamo messi peggio che a Cuba con l'embargo, solo che noi il cancro ce l'abbiamo dentro..:doh:
Solo AMD può salvarci. :D
... siamo fottuti.... :O
Comunque mi pare di capire che i chip sono li in attesa, entro fine 2017 dovrebbero uscire le schede in ambito pro con HBM2 e nel Q1 2018 i chip gaming...
I prezzi saranno sicuramente alti ma non so voi credo sia cosi che le piazzeranno:
3060 a 299$ => Prestazioni da 1080
3070 a 499$ => Prestazioni da 1080ti
3080 a 699$ => Prestazioni da Titan XD
Eventuale Titan cuttata a 1299$
Per tutte aggiungere il 25% di Iva in euro...
:mbe: ... mi sono perso il punto in cui dicono che saltano la serie "2xxx"... :stordita:
Legolas84
10-05-2017, 18:46
Be, io spero che comunque VEGA entri in concorrenza con GP102 in un modo o nell'altro... AMD ha avuto più di un anno a disposizione per fare questa GPU e sinceramente trovo ridicolo aspettarsi di meno....
Il problema con VOLTA esisterà solo se per il 2018 AMD non avrà nulla da presentare in risposta.... chi vivrà vedrà.... :D
... siamo fottuti.... :O
Amd non ha iRay, per questo non vede la luce in fondo al tunnel :O
E a lisa manca la giacca in pelle :O
E mentre nvidia rinnova la sede, amd si trasferisce in altro loculo http://www.edil-legno.com/images/Casetta%202x2.jpg
fraussantin
10-05-2017, 18:51
Be, io spero che comunque VEGA entri in concorrenza con GP102 in un modo o nell'altro... AMD ha avuto più di un anno a disposizione per fare questa GPU e sinceramente trovo ridicolo aspettarsi di meno....
Il problema con VOLTA esisterà solo se per il 2018 AMD non avrà nulla da presentare in risposta.... chi vivrà vedrà.... :D
Io spero ( a sperare non si spende nulla XD) che i ritardi di vega siano dovuti al fatto che i pezzi meglio stiano lavorando alla gpu modulare che sarà navii.
Ma mi sa che ha ragione raven.
Certo che in Italia stiamo messi peggio che a Cuba con l'embargo, solo che noi il cancro ce l'abbiamo dentro..:doh:
Figurati che nel 2019 è previsto un aumento fino al 26% ma siamo sempre secondi all'Ungheria che invece ha il primato europeo del 27% di iva, ma non disperare forse almeno in questo riusciremmo a ottenerne il primato...:doh:
:mbe: ... mi sono perso il punto in cui dicono che saltano la serie "2xxx"... :stordita:
In realtà non è sicuro, pero alcuni articoli riportano questo salto e pensandoci Nvidia a quasi ogni cambio radicale di architettura ha previsto almeno in ambito desktop questo salto:
GTX 2XX => GTX 4XX
GTX 7XX => GTX 9XX
E sui notebook si va di rebrand di prepotenza :sofico:
Be, io spero che comunque VEGA entri in concorrenza con GP102 in un modo o nell'altro... AMD ha avuto più di un anno a disposizione per fare questa GPU e sinceramente trovo ridicolo aspettarsi di meno....
Il problema con VOLTA esisterà solo se per il 2018 AMD non avrà nulla da presentare in risposta.... chi vivrà vedrà.... :D
Basta Aspettare! :sofico:
Ma metteti il cuore in pace, dalla fascia medio alta in su e' monopolio, come oramai da un paio d'anni...
Legolas84
10-05-2017, 19:02
Ma metteti il cuore in pace, dalla fascia medio alta in su e' monopolio, come oramai da un paio d'anni...
Esiste uno zoccolo duro di utenti che vuol comprare solo AMD, il problema però è che questi utenti acquistano prevalentemente in fascia bassa e magari una scheda ogni 3-4 anni...
Esiste uno zoccolo duro di utenti che vuol comprare solo AMD, il problema però è che questi utenti acquistano prevalentemente in fascia bassa e magari una scheda ogni 3-4 anni...
Io ho sempre comprato fascia media (nvidia) negli ultimi 10 anni ed è un errore che non farò mai più.
E difatti una settimana fa ho preso la 580.
Per quel che concerne la fascia alta, AMD lì non vende neanche se rilascia un gpu che va il 20 % della concorrenza a parità di prezzo e non credo proprio che Vega abbia chance di andare il 20 % più della 1080ti.
Legolas84
10-05-2017, 19:14
Aspettare! :sofico:
Questo ormai è il verbo che la fa da padrone :D
Io ho sempre comprato fascia media (nvidia) negli ultimi 10 anni ed è un errore che non farò mai più.
E difatti una settimana fa ho preso la 580.
Per quel che concerne la fascia alta, AMD lì non vende neanche se rilascia un gpu che va il 20 % della concorrenza a parità di prezzo e non credo proprio che Vega abbia chance di andare il 20 % più della 1080ti.
Questo non è vero, cioè le fury al loro debutto sono uscite a 450€ per la versione liscia e 600€ per Fury X e al tempo non avevano le prestazioni di ora, oltre ad avere un margine di OC molto limitato, al contrario le 980ti sono calate molto in fretta di prezzo e avevano un margine di overclock abbastanza marcato offrendo prestazioni di netto superiori...
Quindi è normale che pochi se le siano filate senza contare che ancora adesso in determinati titoli presentano colli di bottiglia...
Ora tra l'altro sono pure fuori commercio, anche se fino a un paio di mesi fa c'erano le fury lisce a 280€ spedite e francamente a quel prezzo chi l'ha presa ha fatto un buon acquisto rispetto le attuali RX 580...
Ora però, devo dire che commercialmente già l'aria è diversa e vedere prima del debutto un gioco come Prey, sponsorizzato come ottimizzato per Vega fa ben sperare su un supporto già al day one di tutto rispetto quindi spero che questi mesi di attesa servano anche per rilasciare driver all'altezza che mostrino il potenziale delle schede da subito.
Attendo i commenti di Mikael...:D
http://www.guru3d.com/news-story/nvidia-shows-testla-v100-based-on-volta.html
mikael84
10-05-2017, 19:34
Attendo i commenti di Mikael...:D
http://www.guru3d.com/news-story/nvidia-shows-testla-v100-based-on-volta.html
Se prendessi le schedine come prendo le architetture....:p
Come avevo ipotizzato sono 7 TPC per GPC
https://abload.de/img/kiezizip.png
Quindi GV104 avrà 3584cc
GV106 mid 1792cc
896 cc per GPC
Anche la cache è aumentata.
Sta sera la analizzo bene con calma:)
Come avevo ipotizzato sono 7 TPC per GPC
Non è vero, non fare il furbetto ne ipotizzavi 6 :sofico:
mikael84
10-05-2017, 19:39
Non è vero, non fare il furbetto ne ipotizzavi 6 :sofico:
Come ipotesi minima, ma posso dimostrarti il contrario (ci sono pagine di teorie):p :D
Cmq ho azzeccato pure il rapporto cache istruzioni per le dx12.
Ora la cache passa da 512kb a 768kb per collegamento.
GV104 avrà 4mb l2 contro i 2mb di GV104
Come ipotesi minima, ma posso dimostrarti il contrario (ci sono pagine di teorie):p :D
Cmq ho azzeccato pure il rapporto cache istruzioni per le dx12.
Ora la cache passa da 512kb a 768kb per collegamento.
GV104 avrà 4mb l2 contro i 2mb di GV104
Mmh, voglio crederti dai, mi aspetto pero le tue valutazioni nei minimi dettagli!! :fagiano:
Sta sera la analizzo bene con calma:):cool:
Crysis90
10-05-2017, 20:17
http://wccftech.com/nvidia-volta-gv100-gpu-tesla-v100-architecture-specifications-deep-dive/
5120 CC, 21 miliardi di transistor, 815 mm2.
:sofico: :sofico: :sofico: :eekk: :eekk: :eekk:
OMG che bestia.
Chissà che costo però.... 820mm2 è una vera piastrella.
Calcola che ci sono le HBM2, in termini di complessità del chip credo sia paragonabile ai 610mm2 di Maxwell
Se prendessi le schedine come prendo le architetture....:p
Come avevo ipotizzato sono 7 TPC per GPC
https://abload.de/img/kiezizip.png
Quindi GV104 avrà 3584cc
GV106 mid 1792cc
896 cc per GPC
Anche la cache è aumentata.
Sta sera la analizzo bene con calma:)
Toto performance delle nuove xx70 e xx80?
#escile mikael :D :D
Crysis90
10-05-2017, 20:33
OMG che bestia.
Chissà che costo però.... 820mm2 è una vera piastrella.
Sulla carta, i numeri sono impressionanti.
Sarà un mostro assurdo di potenza.
900 Gb/s di banda passante (!!!!!!!!). :eekk:
Quasi 1 Terabyte/s.
Sono curioso di leggere qualche articolo approfondito su questi nuovi Tensor Cores.
Sembra una features interessante.
E vabbè adesso parte la scimmia per Volta ... e ovviamente non vuoi accoppiarci la nuova x299? :muro:
Crysis90
10-05-2017, 20:34
Toto performance delle nuove xx70 e xx80?
#escile mikael :D :D
Una ipotetica GTX 2080 con 3584 CC (quasi +50% rispetto alla GTX 1080) e frequenze di base sui 2 Ghz, secondo me tranquillamente un +40/50% sulla GTX 1080.
in 815mm2 sono comprese la hbm?
Pensavo venissero conteggiate a parte.
Non so dirlo con sicurezza, e aspetto mikael per esserne certo in quanto negli articoli non è specificato, ma con Pascal nvidia ha dichiarato la dimensione totale HBM2 comprese quindi non credo che ora abbia cambiato approccio, se fosse cosi sarebbe un chip inumano da 1000mm2 :eek:
Una ipotetica GTX 2080 con 3584 CC (quasi +50% rispetto alla GTX 1080) e frequenze di base sui 2 Ghz, secondo me tranquillamente un +40/50% sulla GTX 1080.
Guarda secondo me a questo giro si superano anche i 2ghz per i chip gaming
Lunar Wolf
10-05-2017, 20:49
Boia che bestie....
Apparte l'iva (boia maiala di qui fenomeni laureati a Montecitorio) il 2018 tra Vega, navi e volta ne vedremo delle belle
A sto punto quasi quasi aspetto volta e mi tengo la 980ti che e' va ancora alla grande a 1440p ....
Mikael come prestazioni sto chippone superera' uno sli di 980ti? che dici?
TigerTank
10-05-2017, 21:02
Io spero ( a sperare non si spende nulla XD) che i ritardi di vega siano dovuti al fatto che i pezzi meglio stiano lavorando alla gpu modulare che sarà navii.
Ma mi sa che ha ragione raven.
Un pò come dire che per la Ferrari in Formula 1 ogni anno è quello buono, poi però se va male diventa di "transizione" :sofico:
Una ipotetica GTX 2080 con 3584 CC (quasi +50% rispetto alla GTX 1080) e frequenze di base sui 2 Ghz, secondo me tranquillamente un +40/50% sulla GTX 1080.
Sarebbe nella norma....calcola che se una Ti va un 25-30% in più della X80 di pari generazione e la X80 successiva va un 25-30% in più di quest'ultima, stiamo al 50-60% in più rispetto alla X80 precedente :)
A sto punto quasi quasi aspetto volta e mi tengo la 980ti che e' va ancora alla grande a 1440p ....
Mikael come prestazioni sto chippone superera' uno sli di 980ti? che dici?
Imho ormai calibrano gli stacchi prestazionali, complice l'assenza di overvolt a sostenere dei boost ulteriori in oc.
Probabilmente arriverà la solita X70 che andrà un pelo meno della 1080TI, la X80 che andrà un 25-30% in più e Titan/TI che andranno a loro volta un 25-30% in più della X80 :D
Senza concorrenza chi glielo fa fare di elargire troppe prestazioni in un colpo solo?
AceGranger
10-05-2017, 21:28
Se prendessi le schedine come prendo le architetture....:p
Come avevo ipotizzato sono 7 TPC per GPC
https://abload.de/img/kiezizip.png
Quindi GV104 avrà 3584cc
GV106 mid 1792cc
896 cc per GPC
Anche la cache è aumentata.
Sta sera la analizzo bene con calma:)
mi ricordo una risposta che avevano dato a un tuo post che faceva tipo cosi
"non esiste nessun 12nm" :asd: ma non ricordo chi lo aveva scritto, ora provo a spulciare i post
nico88desmo
10-05-2017, 22:19
Di seguito una descrizione piuttosto dettagliata dei miglioramenti introdotti con Volta
https://devblogs.nvidia.com/parallelforall/inside-volta/
;)
la cosa interessante sarà lo scheduling indipendente per ciascun thread all'interno di un warp (mi viene da pensare ad asynch computing, che dici mikael)?
Lato gaming, suppongo che saranno eliminati i "tensor core" e le varie "fp64".
Di seguito una descrizione piuttosto dettagliata dei miglioramenti introdotti con Volta
https://devblogs.nvidia.com/parallelforall/inside-volta/
;)
la cosa interessante sarà lo scheduling indipendente per ciascun thread all'interno di un warp (mi viene da pensare ad asynch computing, che dici mikael)?
Lato gaming, suppongo che saranno eliminati i "tensor core" e le varie "fp64".
Queste schede sono convinto che a pari cc e frequenze spingano anche di più rispetto le precedenti, sarà un bel salto considerando che probabilmente anche i clock saranno belli alti :)
mikael84
10-05-2017, 23:52
Mmh, voglio crederti dai, mi aspetto pero le tue valutazioni nei minimi dettagli!! :fagiano:
Purtroppo non si conosce il clock.
Nvidia ha sparato 1,8 flops per watt, ma questo dato sembra, malgrado i cc lontano.
Servirebbero almeno 2ghz base (sicuramente vedremo clock più alti):)
:cool:
http://wccftech.com/nvidia-volta-gv100-gpu-tesla-v100-architecture-specifications-deep-dive/
5120 CC, 21 miliardi di transistor, 815 mm2.
:sofico: :sofico: :sofico: :eekk: :eekk: :eekk:
OMG che bestia.
Chissà che costo però.... 820mm2 è una vera piastrella.
Sono schede HPC con un collegamento differente.
I GPC sono grandi circa 100mq si Pascal, aggiungiamo ben due TPC per GPC e siamo sopra i 700mmq. Fatto ciò bisogna disegnare 2 collegamenti a vuoto, cioè, 32 rop's e ben 1,5mb di cache che occupa una porzione enorme.
Toto performance delle nuove xx70 e xx80?
#escile mikael :D :D
Non si conoscono i clock, se ci basiamo sul 1,8 flops per watt, potremmo vedere clock sui 2ghz.:)
Il PP di Pascal è bloccato via resistenza, dopo tot. clock si blocca.
Calcola che ci sono le HBM2, in termini di complessità del chip credo sia paragonabile ai 610mm2 di Maxwell
No si parla di core relativo agli SMM e cc.
Il core di GP100 è molto grande perchè adotta SMM da 196cc (64fp64/12fp32), quindi gli SMM passano da 5 a 7,5mmq:)
Questo ovviamente non basta.
GP100 è collegato con 4 stack, ciò significa l'equivalente di un collemento a 512 bit.
GP100 è infatti collegato così:
3840cc/128 rop's, 4mb di cache (un collegamento a vuoto può richiedere sino a 70mmq di spazio).
GP102 è collegato con 96 rop's/3840cc e 3mb di cache.:)
Una ipotetica GTX 2080 con 3584 CC (quasi +50% rispetto alla GTX 1080) e frequenze di base sui 2 Ghz, secondo me tranquillamente un +40/50% sulla GTX 1080.
Molto dipenderà dai clock finali, Maxwell partiva da clock ben più elevati di quanto si potesse aspettare.:)
Guarda secondo me a questo giro si superano anche i 2ghz per i chip gaming
Se PP permettendo, si effettua pure un lavoro elettrico, potrebbe permettere di raggiungere i valori indicati in roadmap.
Le Pascal murano perchè, dopo tot. clock ci sono resistenze da caduta, ma anche levandole poco cambia.
La soluzione è identificare le connessioni lente ed adattarle con resistenze a bassa perdita.:)
A sto punto quasi quasi aspetto volta e mi tengo la 980ti che e' va ancora alla grande a 1440p ....
Mikael come prestazioni sto chippone superera' uno sli di 980ti? che dici?
Ali non conosco i clock che si raggiungeranno.:)
Una 2080/3080 quel che sarà, prenderà di certo una 1080ti, però non si può ancora definire il distacco.
Chiaramente potremmo vedere chip a 2ghz base.
mi ricordo una risposta che avevano dato a un tuo post che faceva tipo cosi
"non esiste nessun 12nm" :asd: ma non ricordo chi lo aveva scritto, ora provo a spulciare i post
:p
Queste schede sono convinto che a pari cc e frequenze spingano anche di più rispetto le precedenti, sarà un bel salto considerando che probabilmente anche i clock saranno belli alti :)
Si sicuramente i clock saranno più alti, non dimentichiamo anche la cache più grossa.
mikael84
10-05-2017, 23:55
Di seguito una descrizione piuttosto dettagliata dei miglioramenti introdotti con Volta
https://devblogs.nvidia.com/parallelforall/inside-volta/
;)
la cosa interessante sarà lo scheduling indipendente per ciascun thread all'interno di un warp (mi viene da pensare ad asynch computing, che dici mikael)?
Lato gaming, suppongo che saranno eliminati i "tensor core" e le varie "fp64".
Oltre alle FP64, verrà levato anche il canale del 4° stack (32 rop's e 1,5mb di cache) ed nvlink.
Il tensor core, devo vederlo meglio, ma non credo sia prerogativa gaming.
Interessante la possibilità di elaborare contemporaneamente INT ed FP32.
Crysis90
11-05-2017, 07:48
Mikael conta che c'è di mezzo un nuovo PP.
Per una GTX 2080, mi aspetto clock di base tranquillamente da 1.9 GHz in su. ;)
Se pensi che i 5120 CC di GV100 sono clokkati alla stessa frequenza dei 3584 di GP100 (pur rimanendo dentro lo stesso valore di TDP), dovresti riuscire a farti un'idea dell'efficienza che può garantire ad NVidia il nuovo PP. ;)
TigerTank
11-05-2017, 08:22
Vedremo un pò come saranno, il punto è che anche circa le pascal si ipotizzava/fantasticava sulla presenza delle HBM2 e simili ma poi la realtà si è dimostrata un pò più ridimensionata, a parte che nei prezzi :D
Di sicuro nvidia risicherà il più possibile, perlomeno in ambito vga da gaming, per dare quel TOT. di prestazioni programmate, al massimo utile possibile...soprattutto senza la minima concorrenza di fascia.
Certo che questi discorsi tecnici e inscimmiati sulle Volta fanno già sembrare obsolete le neonate 1080Ti :asd:
con la nuova uscita pascal si appresta a diventare l architettura piu svalutata della storia.
Speriamo di non vedere qualche gaming chip in agosto/settembre sarebbe il colpo di grazia in tempi record
Crysis90
11-05-2017, 09:10
con la nuova uscita pascal si appresta a diventare l architettura piu svalutata della storia.
Speriamo di non vedere qualche gaming chip in agosto/settembre sarebbe il colpo di grazia in tempi record
Non si vedrà nulla prima di Marzo 2018, visto che la mass-production delle GDDR6 non è prevista prima. ;)
sicura è la morte si dice dalle mie parti.Chi vivrà vedrà
fraussantin
11-05-2017, 09:58
Non si vedrà nulla prima di Marzo 2018, visto che la mass-production delle GDDR6 non è prevista prima. ;)
Lo penso anche io,
Se però la 3080 sarà = alla 1080ti( + o -) potrebbero anche anticipare a natale con le ddr5x e poi lasciare le 6 per la titan.
Crysis90
11-05-2017, 10:07
Lo penso anche io,
Se però la 3080 sarà = alla 1080ti( + o -) potrebbero anche anticipare a natale con le ddr5x e poi lasciare le 6 per la titan.
Un lancio sotto il periodo Natalizio non si è mai visto.
Inoltre nelle slides di ieri si è parlato di GDDR6 e HBM2 per Volta.
Le GDDR5X non sono state menzionate.
TigerTank
11-05-2017, 10:08
con la nuova uscita pascal si appresta a diventare l architettura piu svalutata della storia.
Speriamo di non vedere qualche gaming chip in agosto/settembre sarebbe il colpo di grazia in tempi record
Imho primavera 2018, probabilmente prima con le x80 pompate, seguite poi dalle x70 sulle 400-450€(si spera...). E forte svalutazione delle TI come successo con le 980TI all'arrivo delle 1070 ma con in più un cambio generazionale più incisivo tra nuovo pp e vere nuove vram.
Quindi le TI prenderanno sicuramente la mazzata sul valore tra meno di un anno, il resto sarà a livello personale. Ci sarà chi la cambierà con una X80 smenandoci o vendendola addirittura in anticipo...e chi la tirerà fino al chippone Volta, con relativo ritorno di investimento/sfruttamento rispetto ai costi attuali. E chi resterà sfasato procedendo per occasioni d'usato, cioè quelli furbi che sanno resistere alle scimmie :D
AceGranger
11-05-2017, 10:56
era Ren? ...io invece ricordo che B&C in una news diceva che il 12nm sarebbe una evoluzione del 16nm che invece di chiamarla "Compact" l'hanno chiamata così per motivi di marketing e che per il mercato gaming dovrebbero continuare ad utilizzare il 16nm FF+ più propensi al clock.
e non lo ricordo, ho una pessima memoria per i nomi, e poi mi sono stufato di cercare dopo 2 pagine :sofico:
come vedi il silicio non sembra particolarmente diverso nemmeno in densità, quindi non è detto quanto sopra a meno che consumi meno a parità di clock, ma vedremo del resto dichiarano +50% di potenza computazionale, i clock quindi sembrano simili a pascal.
presumo consumera di meno, perchè i clock sono poco piu bassi, il TDP è invariato e i core sono considerevolmente aumentati; poi con le Tesla è difficile capire quanto o meno boostera perchè hanno troppe unita di calcolo separate.
li parlano di versione customizzata per nVidia, magari parte di quella stratosferica cifra di 3 Miliardi di dollari sara servita anche per adattare questi nuovi "12"nm a frequenze piu alte; comunque anche senza aumentare le frequenze rispetto ad ora, con il solo aumento di core che hanno fatto, anche le gaming dovrebbero ricevere un bel boost.
è logico pensare al Q2 2018 per i chip gaming, comunque questa evoluzione dei 16nm chiamati adesso 12nm da tsmc ha permesso di aumentare le dimensioni del core del 40% ma di mantenere lo stesso consumo o TDP e lo stesso clock (dichiarano +50% di performance anche se in base ai TF si aggira più sul 40% che passa da 10.6 a 15TF in FP32 ma allo stesso tempo hanno inserito novità come i TC), potrebbero effettivamente usarlo anche per il gaming chissà.
credo che le Gaming arriveranno quando arriveranno in volumi le GDDR6, quindi si, credo anche io inizio Q2 o se tirano magari sul finire del Q1
mikael84
11-05-2017, 11:21
era Ren? ...io invece ricordo che B&C in una news diceva che il 12nm sarebbe una evoluzione del 16nm che invece di chiamarla "Compact" l'hanno chiamata così per motivi di marketing e che per il mercato gaming dovrebbero continuare ad utilizzare il 16nm FF+ più propensi al clock.
non capisco perché indichino 5120cc quando 128x7*6 fa 5376cc FP32 :stordita:
a conti fatti GV100 è 5376 FP32 + 2688 FP64 = 8064cc + 672tensor e le unità specializzate non dichiarate al momento ma credo saranno le stesse.
sono 64cc FP32 + 32cc FP64 + 8 TC per SM, 2 SM per TPC, 7 TPC per GPC e 6 GPC totali... GV102 quindi 64*2*7*6=5376cc
ho trovato questo:
non mi pare però corretta.
---
Comunque c'è da stare attenti a questi 12nm FFN a quanto pare sembra sempre lo stesso 16nm FF+ dedicato però al settore HPC, in pratica invece che chiamarlo 16nm FFC lo hanno chiamato 12nm FFN per motivi di marketing, quindi poco più compatto e parsimonioso dei consumi, ma meno propenso al clock come tutte le derivazioni "compact" dei nodi precedenti, per i chip gaming dovrebbero continuare ad utilizzare il 16nm FF+
la densità infatti sembra essere di poco superiore, V100 sui 12nm FFN è 21100M xtors /815mmq =25.90 M/mmq quando P100 sui 16nm FF+ è 15300M xtors / 610mmq = 25.10 M/mmq.
come vedi il silicio non sembra particolarmente diverso nemmeno in densità, quindi non è detto quanto sopra a meno che consumi meno a parità di clock, ma vedremo del resto dichiarano +50% di potenza computazionale, i clock quindi sembrano simili a pascal.
---
per ubro92, 815mmq è solo il Core, davvero enorme una cosa mai vista prima, non è compresa la superficie delle hbm2.
GV102 dovrebbe stare sui 550~600mmq, a spanne, senza le parti GPGPU.
---
ps. "Jensen sostiene che si tratta del progetto più complesso mai realizzato nei laboratori di NVIDIA, la cui componente di ricerca e sviluppo è costata 3 miliardi di dollari." :sofico:
ps. ho letto ora il link di guru3d
"Now slightly more detail, a fully enabled GV100 GPU actually consists of six GPCs, 84 Volta SMs, 42 TPCs (each including two SMs), and eight 512-bit memory controllers (4096 bits total). Each SM has 64 FP32 Cores, 64 INT32 Cores, 32 FP64 Cores, and 8 new Tensor Cores. Each SM also includes four texture units.
With 84 SMs, a full GV100 GPU has a total of 5376 FP32 cores, 5376 INT32 cores, 2688 FP64 cores, 672 Tensor Cores, and 336 texture units. Each memory controller is attached to 768 KB of L2 cache, and each HBM2 DRAM stack is controlled by a pair of memory controllers. The full GV100 GPU includes a total of 6144 KB of L2 cache. The figure in above table shows a full GV100 GPU with 84 SMs (different products can use different configurations of GV100). The Tesla V100 accelerator uses 80 SMs."
in pratica sono disabilitati 4 SM, ma il core completo era come dicevo infatti dopotutto è matematica...
E' giusto, a te il calcolo non torna (e può ingannare) perchè 5376cc è la quantità massima del chip, ma il modello Tesla ha per logica 2 TPC di ridondanza.
Di conseguenza i cc Tesla effettivi scendono a 5120.:)
Gv100 è tutto diverso dai modelli gaming, dove gli SM sono legati e non slegati al TPC (per consentire più istruzioni).
I core Tensor sono utilizzati per intelligenza artificiale e dovrebbe massimizzare la potenza delle FP32 ed FP16, quindi l'SM gaming difficilmente li avrà.
mikael84
11-05-2017, 11:46
si ma infatti anche gp100 aveva 2 TPC così (56SM abilitati invece che i 60SM totali) non me lo ricordavo più :D la tabella di guru3d mi ha rinfrescato la memoria.
chissà cosa sono i TC, dichiarano 120TF :sofico:
Dovrebbe avere una cosa simile anche Vega secondo HWFR
http://i65.tinypic.com/9h1ls6.png
Quello che veramente mi rammarica è che non si riuscirà a sfruttare tutte quelle rop's
GV100 produce 224 pixel ma ne potrà renderizzare 96 probabilmente.
GV104 invece 64 su 112.
Almeno AMD, quelle ha e quelle usa.
ciao a tutti, ma quindi se ora nvidia presenta il gv100 per il settore business, per le (ipotetiche) 2070 e 80 quanto passa solitamente?
ciao a tutti, ma quindi se ora nvidia presenta il gv100 per il settore business, per le (ipotetiche) 2070 e 80 quanto passa solitamente?
Inizi 2018 per la disponibilità delle gddr6, direi da febbraio ad aprile massimo
Inizi 2018 per la disponibilità delle gddr6, direi da febbraio ad aprile massimo
grazie :D
Quindi comunque Volta 2018?
Quindi comunque Volta 2018?
Beh, è la cosa più logica con le gddr6
Se AMD vega esce a Giugno , non è escluso che GV104 esca a Dicembre .
TigerTank
11-05-2017, 19:06
Se AMD vega esce a Giugno , non è escluso che GV104 esca a Dicembre .
Non credo...le ddr6 escono il prossimo anno e lasceranno pure un pò di spazio alla 1080Ti, visto quel che costa :D
fraussantin
11-05-2017, 19:43
Un lancio sotto il periodo Natalizio non si è mai visto.
Inoltre nelle slides di ieri si è parlato di GDDR6 e HBM2 per Volta.
Le GDDR5X non sono state menzionate.
Beh si menzionano le novità.
Anche se uscisse a maggio prossimo, non credo che monteranno gddr6 su tutta la linea.
Sulla fascia bassa e media andranno ( imho) di gddr5 e gdrr5x
Ma siccome reggono bene il passo con le prestazioni non è da escludere che in un primo momento vengano usate anche su 2080 e 2070. ( con prestazioni da titan pascal)
E lasciarsi le 6 per le quadro, le titan e tj e per un refrash.
TigerTank
11-05-2017, 20:53
Beh si menzionano le novità.
Anche se uscisse a maggio prossimo, non credo che monteranno gddr6 su tutta la linea.
Sulla fascia bassa e media andranno ( imho) di gddr5 e gdrr5x
Ma siccome reggono bene il passo con le prestazioni non è da escludere che in un primo momento vengano usate anche su 2080 e 2070. ( con prestazioni da titan pascal)
E lasciarsi le 6 per le quadro, le titan e tj e per un refrash.
Imho ddr6 su x70, x80, Ti e Titan...e HBM2 sulle pro ;)
Le vecchie probabilmente sulle più piccole come dici anche tu.
Crysis90
12-05-2017, 09:09
non è escluso che GV104 esca a Dicembre .
0 possibilità che accada.
Commercialmente non ha assolutamente senso lanciare un prodotto in quel mese (infatti non è mai successo)
con envidia il lancio di schede senza senso è assicurato. Vedi doppione titan per una manciata di cuda
Se vogliono le 5x le mettono ovunque, il progetto con le 6 differirebbe dalle hbm a priori
illidan2000
12-05-2017, 10:32
Imho ddr6 su x70, x80, Ti e Titan...e HBM2 sulle pro ;)
Le vecchie probabilmente sulle più piccole come dici anche tu.
pure la TI dovrebbe essere considerata "pro"!!! Per i "pro" gamers!!! ehehe
con envidia il lancio di schede senza senso è assicurato. Vedi doppione titan per una manciata di cuda
Se vogliono le 5x le mettono ovunque, il progetto con le 6 differirebbe dalle hbm a priori
senza senso a parte il lato economico.... Spero che quei soldini presi in questo modo li reinvesta pagando meglio i dipendenti, così che possano rilasciare drivers decenti
TigerTank
12-05-2017, 13:56
pure la TI dovrebbe essere considerata "pro"!!! Per i "pro" gamers!!! ehehe
Ciao Illy! Ah beh, in effetti mediamente ha raggiunto prezzi da prima Titan :D
mikael84
12-05-2017, 14:08
ah, però, sembrano quindi approcci simili ma solo appartenenti a due fasce diverse 815 vs 510mmq :sofico:
Direi diverse:D
GV100 ha un totale di 8064cc (5376 FP32 + 2688 FP64 nativi), AMD 4096 ST, la FP64 non è nativa ma emulata come nvidia.
128 rop's (di cui 96 elaborati:muro: ) contro 64 e cache che potrebbe essere 3 volte più grande, a meno che AMD non utilizzi 1024kb x4 di cache su due stack (fury è 256kb x8).
Diciamo che secondo HWFR, la cosa in comune sono i tensor core, e secondo sempre HWFR (che non so dove l'abbia ricavato, ma non sono sprovveduti) i Tensor core di AMD sono 256, ovvero 4 per CU.
Un tensor core produce 128 flops (256flops in FP16), per 8 =1024 flops.
128 flops per 84 SM x 1455 (119ts).
Su AMD dovrebbero essere 4 a CU.
4 x 64 =256
128 x 256 x 1500 /50ts:)
mikael84
12-05-2017, 14:33
intendevo simili come "generazione", ma diverse come fascia 815 vs 510mmq questo mi pare fisiologico :sofico:
sul discorso nativa o emulata ci sono differenze tangibili? intendi come nvidia, nel senso i chip gaming giusto?
ma perché se devi collegare 8 canali con i 6GPC devono per forza inserire anche le 16+16 rops a vuoto?
quindi 1 TC = 64cc/sp giusto? ...anch'io mi chiedevo dove avessero preso quei dati su vega, ma torna in effetti :D
Si chiaramente ero ironico:)
Nvidia nelle pro utilizza (come ben vedi dai grafici) delle FP64 completamente native e shedulate con le loro unità funzionali (da notare anche il raddoppio delle load store ed i thread da 16 cc che dimezzano i cicli di clock), mentre nelle gaming si adatta ad 1/32 (unità che sono sempre presenti nel SM, anche se poche).
AMD le emula, la Fury necessita di 16 cicli FP32 per emularne una, non ha native.:)
Sulla seconda domanda, bella domanda, e ti rispondo subito.
Per collegare 4 stack, devi fare un collegamento pari pari al 512bit ( e questo necessiterebbe di 8 GPC per sfruttarle al meglio).
Un collegamento simile a quello di GP102, necessiterebbe di 3 stack.
Quindi riassumendo.
GV100 (come anche GV102) potrebbe elaborare 168 rop's, 128 rop's sono disegnate sul chip, ma elaborate solo 96 (addirittura 88/92 in caso di cut), perchè ogni raster elabora solo 16 pixel (16x6).
GV102 quindi ne memorizzerebbe 168 in memoria, ma solo 96 max elaborate.
Sull'ultima domanda, un TPC è composto da 2 SM (sopra c'è il P.E).
Nei chip gaming, gli SM saranno unificati in SMM, di conseguenza 42 TPC totali più polymorph engine.:)
X-ray guru
12-05-2017, 15:42
quindi tra native ed emulate c'è differenza?
Ti ha già risposto Mikael: quella nativa ha bisogno di un ciclo di clock per far uscire i risultati elaborati; quella emulata, nel caso AMD, ha bisogno di 16 cicli di clock di una fp32 nativa per far uscire i risultati elaborati come se fosse una fp64.
Quindi una emulata ci mette 16 volte più tempo. ;)
mikael84
12-05-2017, 16:33
quindi tra native ed emulate c'è differenza? mi verrebbe da dire che se emuli la fp64 non puoi usare tutte e due assieme, o una o l'altra, mentre nvidia potrebbe usare tutte e due le precisioni assieme, ma non si "scalderebbe" troppo il chip così?
altra cosa, adesso con volta c'è la possibilità di fare int+fpu assieme, ma prima come facevano per gli int?
collegamento però non ho capito perché fisicamente devono disegnare 128rops come fossero 8gpc quando hai 6gpc(6 raster x16 pixel) e quindi 96rops?
l'ultima domanda era sui Tensor Core che chiamo TC, non sui TPC :D ...ma comunque apprezzo lo stesso :)
Praticamente la stessa che corre tra le FP32. Nvidia necessita di 16 clock simd per elaborare una FP64, nvidia ha le unità fisiche più le unità funzionale per i registri (load store etc).
La domanda che ho visto porti è, ma quindi anche Nvidia emula nelle gaming? Assolutamente no. Viene laserata.:)
Ad esempio il valore di 1/32 come viene ricavato?
Un SM Pascal ha 32 FP64 (64 su TPC), moltiplicando per 30 TPC abbiamo ben 1920cc FP64 nativi.
Nel chip gaming, ogni SMM ha al suo interno 128 FP32 e 4 FP64 nativi.... questo fa si che una Titan xp abbia al suo interno 64 FP64 totali.:)
Kepler gaming era in 1/24, ed ogni SMX ne aveva 8 nativi (120 su 780ti/ 960 su Titan)
Riguardo gli INT, prima eseguivi o uno o l'altro (fp), ora puoi eseguire tutto contemporaneamente.
--------------
Divido il post per parlare di collegamento.
Questo è più complesso del previsto.
Per collegare uno stack HBM, servono 2 canali (un 128bit in ddr in pratica).
Quindi:
stack 1
16 rop's/768kb--16 rop's/768kb---equivalente di un canale da 64 bit
32 rop's/1,5mb----finali per stack
Di conseguenza per collegare 2 stack (8gb), mi servono 8 collegamenti rop's e cache, e per collegarne 4 mi servono 8 collegamenti rop's cache, lo stesso di un collegamento a 512 bit.
In pratica
stack 1 = 32 rop's/1,5mb l2
stack 2= 64 rop's/3mb l2
stack 3 = 96 rop's/4,5mb l2
stack 4 = 128 rop's/ 6 mb l2
Questo è essenziale per il collegamento degli stack.
In sintesi un GP102 con HBM dovrebbe essere pensato per 3 stack, altrimenti vai a creare dei collegamenti inutili per il gaming, visto che tanto non gli sfrutti.
Tesla invece si avvantaggia dalla mole di cache e dalla BW massiccia che garantiscono 4 stack. :)
Diciamo che secondo HWFR, la cosa in comune sono i tensor core, e secondo sempre HWFR (che non so dove l'abbia ricavato, ma non sono sprovveduti) i Tensor core di AMD sono 256, ovvero 4 per CU.
Un tensor core produce 128 flops (256flops in FP16), per 8 =1024 flops.
128 flops per 84 SM x 1455 (119ts).
Su AMD dovrebbero essere 4 a CU.
4 x 64 =256
128 x 256 x 1500 /50ts:)
Hanno fatto un pochino di confusione. ;)
Quei valori di vega sono FMA ad 8bit ricavati sempre dai soliti CU. (da slide amd 512ops ad 8bit)
I tensor effettuano calcoli su matrici con un misto di input e precisioni. (hardware molto specializzato)
https://devblogs.nvidia.com/parallelforall/wp-content/uploads/2017/05/image11.png
Per i calcoli ad 8bit nvidia ha Xavier 30w per 30 Tops se non ricordo male.
quindi non è vero che Vega sia sul piano generazionale di Volta?
Perchè il piano generazionale si misura dai tensor core dedicati ?
Google allora ha vinto tutto con le sue Tensor processing unit. :D
cmq ecco la slide.;)
https://i.gadgets360cdn.com/large/amd_vega_ncu_1483624131438.jpg
AceGranger
12-05-2017, 19:42
magari si misura con il core precedente? :fagiano:
mi pare che tra gp100 e gv100 ci siano enormi differenze, un salto netto, questo intendo.
si la slide la ricordo, quindi quel 50 Tops di HWFR messo li in tabella sarebbero in realtà 50Tflops con la precisione ad 8bit e non la deep learning...
bho a me invece paiono molto simili, con Volta che aumenta tutte le caratteristiche di Pascal, aggiungendo i Tensor Core, e migliorando tutto cio che gia c'era prima.
nei Tre Miliardi di dollari paventati da Huang credo che rientrino i 2 Miliardi di Pascal, con il quale hanno buttato giu lo "scheletro" che poi si è affinato in Volta.
Legolas84
12-05-2017, 19:48
Di sicuro il passo tecnologico più grande secondo me lo ha fatto Maxwell... veramente un'architettura riuscitissima, che ha staccato in modo netto un Kepler che era si buono, ma troppo driver dipendente....
Pascal ha avuto vita facile.... ha semplicemente migliorato e perfezionato Maxwell, soprattutto grazie al processo produttivo nuovo e ai clock più alti.
Ora bisogna vedere se Volta sarà Maxwell 3.0 o se avremo un salto più netto....
magari si misura con il core precedente? :fagiano: ...mi pare che tra gp100 e gv100 ci siano enormi differenze, un salto netto, questo intendo.
si la slide la ricordo, quindi quel 50 Tops di HWFR messo li in tabella sarebbero in realtà 50Tflops con la precisione ad 8bit e non la deep learning...
Si i numeri sono quelli.
Gli 8bit sono utili per alcuni algoritmi di deep learning.
La TPU di google se non ricordo male integra porzioni 8-16 e 32bit...
Lunar Wolf
12-05-2017, 20:26
Di sicuro il passo tecnologico più grande secondo me lo ha fatto Maxwell... veramente un'architettura riuscitissima, che ha staccato in modo netto un Kepler che era si buono, ma troppo driver dipendente....
Pascal ha avuto vita facile.... ha semplicemente migliorato e perfezionato Maxwell, soprattutto grazie al processo produttivo nuovo e ai clock più alti.
Ora bisogna vedere se Volta sarà Maxwell 3.0 o se avremo un salto più netto....
Secondo me sarà un bel passo in avanti rispetto a Pascal.
AceGranger
12-05-2017, 20:28
confronta maxwell con pascal e poi pascal con volta, ti renderai conto che è essenzialmente tick e poi tock: gp100 ha in più la dp rispetto a maxwell a livello di core.
si ok, pero con Pascal hanno buttato giu tutta la parte di nVlink, la memoria condivisa fra GPU.
Con Volta hanno aggiunto la parte di Tensor Core e potenziato tutte le novita introdotte con Pascal.
ma soprattutto vorrei capire meglio questo
Enhanced Unified Memory and Address Translation Services
GV100 Unified Memory technology in Volta GV100 includes new access counters to allow more accurate migration of memory pages to the processor that accesses the pages most frequently, improving efficiency for accessing memory ranges shared between processors. On IBM Power platforms, new Address Translation Services (ATS) support allows the GPU to access the CPU’s page tables directly.
quindi c'è a tutti lgi effetti la memoria condivisa con le CPU IBM mentre con il resto hanno solo migliorato il paging con CUDA ?
Lunar Wolf
12-05-2017, 20:53
A me puzza come la gestione memoria di Vega che se non sbaglio va ad usare la ram del sistema o lo spazio sui ssd. Così ricordo di aver letto e se non sbaglio nessuno ci ha capito qualcosa di quella funzione messa sulla slide.
nico88desmo
12-05-2017, 21:58
si ok, pero con Pascal hanno buttato giu tutta la parte di nVlink, la memoria condivisa fra GPU.
Con Volta hanno aggiunto la parte di Tensor Core e potenziato tutte le novita introdotte con Pascal.
ma soprattutto vorrei capire meglio questo
Enhanced Unified Memory and Address Translation Services
GV100 Unified Memory technology in Volta GV100 includes new access counters to allow more accurate migration of memory pages to the processor that accesses the pages most frequently, improving efficiency for accessing memory ranges shared between processors. On IBM Power platforms, new Address Translation Services (ATS) support allows the GPU to access the CPU’s page tables directly.
quindi c'è a tutti lgi effetti la memoria condivisa con le CPU IBM mentre con il resto hanno solo migliorato il paging con CUDA ?
Da quanto ho capito, sembra che sia stata introdotta una nuova logica (new accesses counter) per far si che ci sia una migliore sincronizzazione fra cpu e gpu usando la unified memory.
Di fatto usare la memoria unificata significa che il programmatore, quando deve accedere ad un'area di memoria da CPU o GPU, non sa se quella parte a cui deve accedere (page) la sta usando la CPU o la GPU. Questa informazione è gestita quindi dall'OS.
Per evitare perdita di performance, bisogna minimizzare il numero di page fault, sia da parte della CPU sia da parte della GPU. Per fare questa minimizzazione, si applicano delle euristiche.
L'euristica nuova sembra che segua una logica di questo tipo: se la CPU accede ad una pagina di memoria, incrementa un contatore. Lato GPU, verifico il valore di questo contatore: se alto, significa che è molto probabile che quest'are di memoria è usata dalla CPU, per cui la tengo per lo stretto tempo necessario.
Nota: questa feature è utile nel GPGPU, nei videogiochi credo ci sia ben poco beneficio perché la maggior parte dei dati gestiti dalla GPU sono caricati nella memoria della GPU (shader, texture, vertex, ecc).
fraussantin
12-05-2017, 22:04
A me puzza come la gestione memoria di Vega che se non sbaglio va ad usare la ram del sistema o lo spazio sui ssd. Così ricordo di aver letto e se non sbaglio nessuno ci ha capito qualcosa di quella funzione messa sulla slide.
ma per il gaming a che serve?
vega avrà una quantità inutile di vram su tutte le fasce.
mikael84
12-05-2017, 23:05
si dopo che l'ho scritto mi sono ricordato che in alcuni schemi a blocchi (se guardi in rete) omettono la dp nei chip gaming anche se in realtà è fisicamente presente :rolleyes:
quindi mi pare di capire che per la natura stessa della uarch nvidia sono obbligati a scrivere le rops per i collegamenti anche se non le usano, ma il punto è perchè? :D
quindi non è vero che Vega sia sul piano generazionale di Volta?
E'una scelta di Nvidia di collegamento. E' più incasinata di come la si crede, ma le rop's Nvidia non sono del tutto sprecate, perchè memorizzando i pixel garantiscono un throughput BW maggiore (aiuta in parte anche l'MSAA).
Le rop's sono fisiche, il problema è spesso nel limite elaborativo dei raster.
Pensa che una 780 ti, poteva memorizzare 60 pixel, 48 disegnate, ma 40 elaborate.:)
si ok, pero con Pascal hanno buttato giu tutta la parte di nVlink, la memoria condivisa fra GPU.
Con Volta hanno aggiunto la parte di Tensor Core e potenziato tutte le novita introdotte con Pascal.
ma soprattutto vorrei capire meglio questo
Enhanced Unified Memory and Address Translation Services
GV100 Unified Memory technology in Volta GV100 includes new access counters to allow more accurate migration of memory pages to the processor that accesses the pages most frequently, improving efficiency for accessing memory ranges shared between processors. On IBM Power platforms, new Address Translation Services (ATS) support allows the GPU to access the CPU’s page tables directly.
quindi c'è a tutti lgi effetti la memoria condivisa con le CPU IBM mentre con il resto hanno solo migliorato il paging con CUDA ?
Nvlink è proprio la parte di forza di Volta (purtroppo riguarda solo i chip Tesla).
Si passa dagli 80gb/s (20x4 più overhead) a 300 gb/s, con 50gb/s x 6( ora a sei canali + overhead).
La prossima Vega HPC, non adottando questo standard, dichiara pci express 4, neppure a paragone.:)
https://cdn01.hardwareluxx.de/razuna/assets/1/EB6B724427A64A068AEAF1E8CEBD12E8/img/FB4688AF9EBE44C1B06281D96ADC636F/gtc17-volta-architecture-01_FB4688AF9EBE44C1B06281D96ADC636F.jpg
Ale55andr0
13-05-2017, 06:50
ma per il gaming a che serve?
vega avrà una quantità inutile di vram su tutte le fasce.
In che senso? A quel che sappiamo avrà 8gb, che è lo standard attuale
caccapupu91
14-05-2017, 16:03
Ogni volta che leggo questo thread imparo qualcosa :D
Un big grazie a voi guru :mano:
ma per il gaming a che serve?
vega avrà una quantità inutile di vram su tutte le fasce.
Ahahahhahahha fantastica :D
Ma occhio che poi ti fanno pesare i 3gb della milleessessanta! :O
mikael84
14-05-2017, 23:04
Non vedo come potrebbe, nvlink non è proprietario Nvidia?
Esiste qualcosa di simile AMD o standard?
Da ignorante ho cercato e la risposta era già nel tuo post: pcie.
Scusa però non capsico, leggo qui: https://en.wikipedia.org/wiki/NVLink
E sapendo che wikipedia spesso è inesatta ti chiedo se mi spieghi meglio, a vedere questa tabella sembra più veloce pcie 4.0 di nvlink.
Nvlink è proprietario Nvidia solo sulle HPC.
Lascia perdere wikipedia, che non serve a nulla.
Un Pcie express 3,0 è dato per 16gb/s. Ovvero 16 canali da 1gb/s, che dopo overhead scende a 800mb/s per un totale di 12,8 gb/s.
Nvlink di pascal, collega 4 canali da 20gb/s (80gb/s totali), questo significa 16 gb/s, e significa anche che un solo canale supera un collegamento pci express 3,0.
Nvlink 64 gb/s dopo l'overhead.
PCi express 12,8 gb/s dopo l'overhead (pci express 3 è il doppio).
Nvlink volta, sono 6 canali da 50gb/s;)
Il problema del Nvlink è che in game non si può utilizzare al meglio perchè le CPU normali non supportano lo standard, quindi, le gpu possono si usarlo tra di loro, ma gli scambi sulla CPU passano via pci express.
AceGranger
15-05-2017, 08:44
In quella tabella dice che nvlink volta è 25GB/s su 6 canali e pcie 4 è 64GB/s su 3 canali.
Anche se il conteggio del total data rate in/out di nvlink è palesemente sbagliato perchè 25x6 fa 150 non 100.
PCI-E 4.0 su 3 canali vuol dire che il Power 9 avra 48 Linee PCI-EX.
VEGA avra un singolo link PCI-EX 4.0 ( le solite 16 Linee )
Volta avra 6 nVlink per GPU.... e il Power 9 avra altrettanti link per un totale di sempre 48 Linee.
Le GPU Volta praticamente non si satureranno mai fra di loro perchè ogni GPU è come se avesse quasi 3 PCI-EX attivi in contemporanea; oltretutto attraverso il collegamento nVLink ogni GPU ha accesso diretto alla vram delle altre GPU e contano come se fosse un'unico grosso blocco di vram. ( la memoria condivisa è gia presente nelle attuali QUADRO GP100 e presumo anche nelle TESLA )
PCI-E 4.0 su 3 canali vuol dire che il Power 9 avra 48 Linee PCI-EX.
VEGA avra un singolo link PCI-EX 4.0 ( le solite 16 Linee )
Volta avra 6 nVlink per GPU.... e il Power 9 avra altrettanti link per un totale di sempre 48 Linee.
Le GPU Volta praticamente non si satureranno mai fra di loro perchè ogni GPU è come se avesse quasi 3 PCI-EX attivi in contemporanea; oltretutto attraverso il collegamento nVLink ogni GPU ha accesso diretto alla vram delle altre GPU e contano come se fosse un'unico grosso blocco di vram. ( la memoria condivisa è gia presente nelle attuali QUADRO GP100 e presumo anche nelle TESLA )
Significa che se metto due vga Volta in SLI la v-ram effettivamente disponibili raddoppia?:eek: :help:
AceGranger
15-05-2017, 10:26
La memoria condivisa l'hanno tutti veramente.
no.
fino ad oggi, con il GPGPU ogni scheda video doveva necessariamente caricare nella propria vram tutto il set di dati, e s non c'era abbastanza Vram ti attaccavi ( non per tutti i tipi di calcoli ma per molti si ).
ora con le QUADRO GP100 collegandole con nVlink la memoria risulta totale e il set di dati viene diviso nella memoria di entrambe le GPU e ognuna puo accedere direttamente nella memoria dell'altra.
Significa che se metto due vga Volta in SLI la v-ram effettivamente disponibili raddoppia?:eek: :help:
Ni, le colleghi in nVlink con doppio Link; praticamente è come se avessi un PCI-EX diretto fra le 2 GPU.
https://www.workstationspecialist.com/media/catalog/product/cache/1/image/1200x1200/9df78eab33525d08d6e5fb8d27136e95/n/v/nvidia-quadro-gp100-3.jpg
no.
fino ad oggi, con il GPGPU ogni scheda video doveva necessariamente caricare nella propria vram tutto il set di dati, e s non c'era abbastanza Vram ti attaccavi ( non per tutti i tipi di calcoli ma per molti si ).
ora con le QUADRO GP100 collegandole con nVlink la memoria risulta totale e il set di dati viene diviso nella memoria di entrambe le GPU e ognuna puo accedere direttamente nella memoria dell'altra.
Ni, le colleghi in nVlink con doppio Link; praticamente è come se avessi un PCI-EX diretto fra le 2 GPU.
Ma questo in ambito gaming che significa? :help:
AceGranger
15-05-2017, 10:43
Ma questo in ambito gaming che significa? :help:
in ambito Gaming non credo lo vedrai mai :p, sicuramente non con Volta.
in ambito Gaming non credo lo vedrai mai :p, sicuramente non con Volta.
Ah, uff :( :cry:
In quella tabella dice che nvlink volta è 25GB/s su 6 canali e pcie 4 è 64GB/s su 3 canali.
Anche se il conteggio del total data rate in/out di nvlink è palesemente sbagliato perchè 25x6 fa 150 non 100.
Sono bidirezionali. ;)
Quindi 150 in lettura e 150 in scrittura contemporaneamente.
Esiste qualcosa di simile AMD o standard?
L'infinity fabric. ;)
Ma passa sempre per pcie no?
Naples (opteron) ha il direct attach per le instinct.
Nvidia ha il direct attach con i Power.
Con processori diversi vai via pcie switch alla cpu.
nico88desmo
22-05-2017, 20:14
Un'altra Titan anti Vega? o semplicemente un fake?
https://videocardz.com/69742/rumor-is-this-nvidia-titan-volta
mikael84
22-05-2017, 23:07
Un'altra Titan anti Vega? o semplicemente un fake?
https://videocardz.com/69742/rumor-is-this-nvidia-titan-volta
Le Titan gaming non avranno mai NVLINK, perchè le CPU normali non supportano lo standard e si passa dal pci express.
Vega e Volta avranno più o meno lo standard dx12 piuttosto simile. AMD si è ispirata molto ad nVidia.
Nvidia ora dimezza i cicli, aumenta la cache l2/l1 ma schedula ogni cuda (il gigathread oltre al lavoro delle pipeline, assegna i thread ai warp, ma questi non riescono a sfruttare sempre e cmq tutte le unità dei warp, lasciando alcuni stadi di idle), cuda che potrebbe avvalersi anche di 1024 istruzioni, più rasterizzer conservative.
AMD stessa cosa, il lavoro parallelo passa via ACE/shader core con 50ms, questo causa spesso latenze alte (nvidia già da Pascal bufferizza in cache in ns). Ora Vega ha puntato su ACE esterni (8), shader core ed un conservative.
Questo avvicina molto Vega con Volta.
AceGranger
22-05-2017, 23:39
Le Titan gaming non avranno mai NVLINK, perchè le CPU normali non supportano lo standard e si passa dal pci express.
Vega e Volta avranno più o meno lo standard dx12 piuttosto simile. AMD si è ispirata molto ad nVidia.
Nvidia ora dimezza i cicli, aumenta la cache l2/l1 ma schedula ogni cuda (il gigathread oltre al lavoro delle pipeline, assegna i thread ai warp, ma questi non riescono a sfruttare sempre e cmq tutte le unità dei warp, lasciando alcuni stadi di idle), cuda che potrebbe avvalersi anche di 1024 istruzioni, più rasterizzer conservative.
AMD stessa cosa, il lavoro parallelo passa via ACE/shader core con 50ms, questo causa spesso latenze alte (nvidia già da Pascal bufferizza in cache in ns). Ora Vega ha puntato su ACE esterni (8), shader core ed un conservative.
Questo avvicina molto Vega con Volta.
bè ma l'nVLink puo essere usato anche fra GPU senza il supporto della CPU.
la QUADRO GP100 è su PCI-EX ma l'nVLink ce l'ha e lo usa solo per il collegamento fra GPU al posto dello SLI; anche le tesla mezzanino sono vendute da nVidia nei rack con 2 Xeon e usano l'nVLink fra di loro.
Ora, non so se servira in campo gaming, ma se usassero il chip GP100 e facessero stile prima Titan con DP disabilitabili/abilitabili via driver l'nVLink potrebbero usarlo.
dubito seriamente che lo facciano perchè si fregherebbero le vendite delle QUADRO, pero fattibile è fattibile.
mikael84
22-05-2017, 23:53
bè ma l'nVLink puo essere usato anche fra GPU senza il supporto della CPU.
la QUADRO GP100 è su PCI-EX ma l'nVLink ce l'ha e lo usa solo per il collegamento fra GPU al posto dello SLI; anche le tesla mezzanino sono vendute da nVidia nei rack con 2 Xeon e usano l'nVLink fra di loro.
Ora, non so se servira in campo gaming, ma se usassero il chip GP100 e facessero stile prima Titan con DP disabilitabili/abilitabili via driver l'nVLink potrebbero usarlo.
dubito seriamente che lo facciano perchè si fregherebbero le vendite delle QUADRO, pero fattibile è fattibile.
Si Ace dici bene, ma in game passi troppo per il pci express perchè le schede allocano dati che utilizzeranno più avanti in ram. Ovvero le GPU allocano una bella dose di dati in ram (tra cui texture in lontananza, anisotropia via TMU).
Diventi troppo dipendente dal pci e.
Chiaramente il collegamento SLI ne trarrebbe vantaggio, solo GP100 quadro collega due schede a 64 gb/s bidirezionali contro 12,8 gb/s.
Anche un tre vie SLI avrebbe vantaggio (ma ormai in game è inutile), perchè la prima scheda nvlink collega due linee alla scenda, e la seconda alla terza, quindi avremmo un 3vie a 28gb/s (40gb/s), altro che pci express. Il problema è che Nvidia ha già levato lo SLI alla 1060, figuriamoci introdurre queste tipologie. :)
infatti AMD ha pensato proprio l'HBCC per questo (che ancora va verificato).:)
Legolas84
23-05-2017, 08:37
Le Titan gaming non avranno mai NVLINK, perchè le CPU normali non supportano lo standard e si passa dal pci express.
Vega e Volta avranno più o meno lo standard dx12 piuttosto simile. AMD si è ispirata molto ad nVidia.
Nvidia ora dimezza i cicli, aumenta la cache l2/l1 ma schedula ogni cuda (il gigathread oltre al lavoro delle pipeline, assegna i thread ai warp, ma questi non riescono a sfruttare sempre e cmq tutte le unità dei warp, lasciando alcuni stadi di idle), cuda che potrebbe avvalersi anche di 1024 istruzioni, più rasterizzer conservative.
AMD stessa cosa, il lavoro parallelo passa via ACE/shader core con 50ms, questo causa spesso latenze alte (nvidia già da Pascal bufferizza in cache in ns). Ora Vega ha puntato su ACE esterni (8), shader core ed un conservative.
Questo avvicina molto Vega con Volta.
Ma quindi alla fine per Volta a livello di DX12 ci sarà un salto consistente rispetto a Pascal? Mi pare di capire che si continuerà senza motori Asyncroni Hardware cosa che conferma quanto tu hai sempre detto.
Invece al contrario AMD resasi conto dei problemi di latenza inserirà un buffer cache come ha fatto NVIDIA su Pascal?
AceGranger
23-05-2017, 08:50
Si Ace dici bene, ma in game passi troppo per il pci express perchè le schede allocano dati che utilizzeranno più avanti in ram. Ovvero le GPU allocano una bella dose di dati in ram (tra cui texture in lontananza, anisotropia via TMU).
pero correggimi se sbaglio:
le QUADRO GP100 con nVLink hanno anche la memoria unificata e ogni GPU ha accesso diretto alla ram dell'altra e la vram si somma; quindi alla fine teoricamente è come se ci fosse una "unica" GPU con tanta ram e i 2 BUS PCI-EX possono essere usati in contemporanea per trasferire dati differenti; non serve piu che ogni GPU carichi interamente gli stessi dati.
poi non so se in gaming possa essere sfruttata come cosa, ma in campo GPGPU è una piccola rivoluzione, peccato che le QUADRO GP100 costino una fucilata :cry:
pero correggimi se sbaglio:
le QUADRO GP100 con nVLink hanno anche la memoria unificata e ogni GPU ha accesso diretto alla ram dell'altra e la vram si somma; quindi alla fine teoricamente è come se ci fosse una "unica" GPU con tanta ram e i 2 BUS PCI-EX possono essere usati in contemporanea per trasferire dati differenti; non serve piu che ogni GPU carichi interamente gli stessi dati.
poi non so se in gaming possa essere sfruttata come cosa, ma in campo GPGPU è una piccola rivoluzione, peccato che le QUADRO GP100 costino una fucilata :cry:
Ma a latenze come siamo messi?
Perché nei giochi (usando il PCI-e) ci dovrebbe essere stuttering nel caso la vRAM allocata del singolo frame superi quella della singola GPU.
AceGranger
23-05-2017, 09:40
Ma a latenze come siamo messi?
Perché nei giochi (usando il PCI-e) ci dovrebbe essere stuttering nel caso la vRAM allocata del singolo frame superi quella della singola GPU.
intendi latenza dell'nVLink della lettura della GPU A nella vram della GPU B ?
"Latency between GPUs is 8~16 microseconds." nel sistema Power 8, nell'altra tabella con le 2 QUADRO dell'altra news se non leggo male è piu basso +- 6
https://www.pugetsystems.com/labs/hpc/NVIDIA-Quadro-GP100-Tesla-P100-power-on-your-desktop-893/
https://www.microway.com/hpc-tech-tips/comparing-nvlink-vs-pci-e-nvidia-tesla-p100-gpus-openpower-servers/
ma alcuni dati non ho ben capito come leggerli
mircocatta
23-05-2017, 10:37
domanda ai più esperti
con maxwell nvidia, se non ricordo male, ha introdotto una più efficace compressione dei colori, cioè ha trovato un boost prestazionale comprimendo i colori fino ad un livello accettabile (prendo per riferimento un qualsiasi confronto diretto di rendering tra una vga nvidia e una amd trovabile su youtube)
un controllo via driver su questa compressione è fattibile? per lasciare all'utenza la scelta sul livello di compressione da fare, un po quel che succede con i filtri
domanda ancora più complicata, è possibile che nvidia su tale argomento, in futuro, tornerà su livelli di compressione meno aggressivi? il tutto in
Legolas84
23-05-2017, 11:10
NVIDIA e AMD comprimono i dati in banda passante (in modo diversi e con efficienze diverse) e questo non credo influenzi in alcun modo la resa finale a schermo...
In ogni caso direi che a far luce su questo aspetto in modo efficace possano essere solo Mikael o Ren :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
mircocatta
23-05-2017, 11:18
NVIDIA e AMD comprimono i dati in banda passante (in modo diversi e con efficienze diverse) e questo non credo influenzi in alcun modo la resa finale a schermo...
In ogni caso direi che a far luce su questo aspetto in modo efficace possano essere solo Mikael o Ren :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
beh direi che non ci sia proprio nulla mi sembra azzardato
http://images.anandtech.com/doci/10325/PascalEdDay_FINAL_NDA_1463156837-010.jpg
http://images.anandtech.com/doci/10325/PascalEdDay_FINAL_NDA_1463156837-011_575px.jpg
Legolas84
23-05-2017, 11:24
Quelle immagini che io ricordi indicano che grazie all'algoritmo di Pascal ci sono molti più dati comprimibili in banda passante rispetto a Maxwell... non è la resa finale delle immagini...
Comunque potrei sbagliare e per questo aspettavo di sentire mikael o Ren...
Inviato dal mio iPhone utilizzando Tapatalk Pro
Legolas84
23-05-2017, 11:29
Comunque se il confronto è con AMD basta che ti leggi la rece di Anadtech della Fury e vedrai che ne fa uso anche lei... non sono nemmeno tecniche recentissime (anche se vengono di volta in volta migliorate).
Questo è preso da Anadtech:
"Certainly the most well-known and marquee GCN 1.2 feature is AMD’s latest generation delta color compression technology. Tied in to Fiji’s ROPs, delta color compression augments AMD’s existing color compression capabilities with additional compression modes that are based around the patterns of pixels within a tile and the differences between them (i.e. the delta), increasing how frequently and by how much frame buffers (and RTs) can be compressed."
Sono tutte funzioni per risparmiare banda ma non credo modifichino il risultato finale a schermo...
Inviato dal mio iPhone utilizzando Tapatalk Pro
NVIDIA e AMD comprimono i dati in banda passante (in modo diversi e con efficienze diverse) e questo non credo influenzi in alcun modo la resa finale a schermo...
A me pare proprio di si invece.
https://www.youtube.com/watch?v=iPV_VECf6KA
Io vedo differenze nette in più frangenti.
https://www.youtube.com/watch?v=HTcFP1ISDPo&t=107s
Secondo me la compressione Nvidia è troppo, troppo aggressiva.
https://www.technopat.net/sosyal/eklenti/pascal-memory-compression-vs-maxwell-jpg.161019/
mikael84
23-05-2017, 12:03
Ma quindi alla fine per Volta a livello di DX12 ci sarà un salto consistente rispetto a Pascal? Mi pare di capire che si continuerà senza motori Asyncroni Hardware cosa che conferma quanto tu hai sempre detto.
Invece al contrario AMD resasi conto dei problemi di latenza inserirà un buffer cache come ha fatto NVIDIA su Pascal?
Con Pascal ogni thread non sempre veniva sfruttato correttamente in alcuni calcoli, con Volta ogni thread sarà indirizzato ed allocato.
Per i risultati e qualche altra miglioria, bisognerà aspettare qualche prova.:)
Qua c'è molto da dire.
pero correggimi se sbaglio:
le QUADRO GP100 con nVLink hanno anche la memoria unificata e ogni GPU ha accesso diretto alla ram dell'altra e la vram si somma; quindi alla fine teoricamente è come se ci fosse una "unica" GPU con tanta ram e i 2 BUS PCI-EX possono essere usati in contemporanea per trasferire dati differenti; non serve piu che ogni GPU carichi interamente gli stessi dati.
poi non so se in gaming possa essere sfruttata come cosa, ma in campo GPGPU è una piccola rivoluzione, peccato che le QUADRO GP100 costino una fucilata :cry:
La Quadro GP100 utilizza il GP100 FP64 full Tesla, che è l'unica dotato di NVlink.
Nelle versioni gaming levano tutto e sarà utilizzato come standard solo dal GV100.
domanda ai più esperti
con maxwell nvidia, se non ricordo male, ha introdotto una più efficace compressione dei colori, cioè ha trovato un boost prestazionale comprimendo i colori fino ad un livello accettabile (prendo per riferimento un qualsiasi confronto diretto di rendering tra una vga nvidia e una amd trovabile su youtube)
un controllo via driver su questa compressione è fattibile? per lasciare all'utenza la scelta sul livello di compressione da fare, un po quel che succede con i filtri
domanda ancora più complicata, è possibile che nvidia su tale argomento, in futuro, tornerà su livelli di compressione meno aggressivi? il tutto in
Non è Maxwell che ha introdotto la compressione delta color ma Tonga;)
La compressione delta color è una tecnica per risparmiare banda in lettura.
Si prende un blocco 8x8 pixel e lo si comprime in varie modalità, dalla 8:1 alla 4:1 2:1.
Questo permette di risparmiare molta banda e latenze di elaborazione.
Maxwell ha sfruttato meglio la compressione, collegando un buon numero di rop's, tuttavia aveva spesso problemi a decomprimere in 2:1.
Pascal e Polaris, riescono a comprimere in qualsiasi modalità 8:1/4:1/2:1.
Pascal riesce anche a comprimere i colori adiacenti, risparmiando ulteriore banda e latenze.
Il rendering non centra una s..a....:p
Legolas84
23-05-2017, 12:30
Con Pascal ogni thread non sempre veniva sfruttato correttamente in alcuni calcoli, con Volta ogni thread sarà indirizzato ed allocato.
Per i risultati e qualche altra miglioria, bisognerà aspettare qualche prova.:)
Qua c'è molto da dire.
La Quadro GP100 utilizza il GP100 FP64 full Tesla, che è l'unica dotato di NVlink.
Nelle versioni gaming levano tutto e sarà utilizzato come standard solo dal GV100.
Non è Maxwell che ha introdotto la compressione delta color ma Tonga;)
La compressione delta color è una tecnica per risparmiare banda in lettura.
Si prende un blocco 8x8 pixel e lo si comprime in varie modalità, dalla 8:1 alla 4:1 2:1.
Questo permette di risparmiare molta banda e latenze di elaborazione.
Maxwell ha sfruttato meglio la compressione, collegando un buon numero di rop's, tuttavia aveva spesso problemi a decomprimere in 2:1.
Pascal e Polaris, riescono a comprimere in qualsiasi modalità 8:1/4:1/2:1.
Pascal riesce anche a comprimere i colori adiacenti, risparmiando ulteriore banda e latenze.
Il rendering non centra una s..a....:p
Infatti è come immaginavo ;)
Inviato dal mio iPhone utilizzando Tapatalk Pro
La compressione delta color è una tecnica per risparmiare banda in lettura.
Si prende un blocco 8x8 pixel e lo si comprime in varie modalità, dalla 8:1 alla 4:1 2:1.
Questo permette di risparmiare molta banda e latenze di elaborazione.
Maxwell ha sfruttato meglio la compressione, collegando un buon numero di rop's, tuttavia aveva spesso problemi a decomprimere in 2:1.
Pascal e Polaris, riescono a comprimere in qualsiasi modalità 8:1/4:1/2:1.
Pascal riesce anche a comprimere i colori adiacenti, risparmiando ulteriore banda e latenze.
Il rendering non centra una s..a....:p
Scusa, stai cercando di dire che la compressione non porta a risultati differenti in render?
Perchè non mi pare assolutamente così:
http://gpuopen.com/dcc-overview/
Capisco che si tratti di salvare dei delta di variazione anzichè i valori puri, quindi teoricamentesia lossless, ma non è corretto dire che non abbia a che fare con il rendering.
Ci sono anche altre tecniche di compressione che invece di qualità ne perdono (generalmente legate alle texture come l'astc).
mikael84
23-05-2017, 14:00
Scusa, stai cercando di dire che la compressione non porta a risultati differenti in render?
Perchè non mi pare assolutamente così:
http://gpuopen.com/dcc-overview/
Capisco che si tratti di salvare dei delta di variazione anzichè i valori puri, quindi teoricamentesia lossless, ma non è corretto dire che non abbia a che fare con il rendering.
Ci sono anche altre tecniche di compressione che invece di qualità ne perdono (generalmente legate alle texture come l'astc).
AMD e Nvidia utilizzano lo stesso identico modello di compressione senza perdita, quello che sottolinei tu non ha alcun senso. Tu stai ribattendo che Nvidia si vede male perchè decomprime troppo.
Per dirti Polaris ha una compressione più aggressiva di Maxwell.
A livello visivo tra le varie GPU non cambia nulla, al massimo cambia l'impostazione dei filtri a default su nvidia.;)
AceGranger
23-05-2017, 14:04
Capisco che si tratti di salvare dei delta di variazione anzichè i valori puri, quindi teoricamentesia lossless, ma non è corretto dire che non abbia a che fare con il rendering.
se è lossless vuol dire proprio che non ha nulla a che fare con la resa finale del rendering.
è come dire che un file word zippato e decompresso è qualitativamente inferiore al word di partenza e tu riesci a trovare differenze.
mikael84
23-05-2017, 14:05
se è lossless vuol dire proprio che non ha nulla a che fare con la resa finale del rendering.
è come dire che un file word zippato e decompresso è qualitativamente inferiore al word di partenza e tu riesci a trovare differenze.
Esatto
bagnino89
23-05-2017, 14:12
AMD e Nvidia utilizzano lo stesso identico modello di compressione senza perdita, quello che sottolinei tu non ha alcun senso. Tu stai ribattendo che Nvidia si vede male perchè decomprime troppo.
Per dirti Polaris ha una compressione più aggressiva di Maxwell.
A livello visivo tra le varie GPU non cambia nulla, al massimo cambia l'impostazione dei filtri a default su nvidia.;)
Ma come, di là alcuni comprano le Radeon solo per i colori migliori :asd:
OvErClOck82
23-05-2017, 14:16
Ma come, di là alcuni comprano le Radeon solo per i colori migliori :asd:
e sì che i colori sono l'unica cosa che proprio non c'entra un cazzo :asd:
AceGranger
23-05-2017, 14:19
Ma come, di là alcuni comprano le Radeon solo per i colori migliori :asd:
di la è un mondo a parte :asd:
bagnino89
23-05-2017, 14:27
e sì che i colori sono l'unica cosa che proprio non c'entra un cazzo :asd:
Ah è vero, Nvidia renderizza con filtri diversi (peggiori di AMD ovviamente) e toglie persino dettagli dalle scene (ombre e quant'altro) per fare più FPS!
:stordita:
mikael84
23-05-2017, 14:41
Ah è vero, Nvidia renderizza con filtri diversi (peggiori di AMD ovviamente) e toglie persino dettagli dalle scene (ombre e quant'altro) per fare più FPS!
:stordita:
Ma chi le dice queste fesserie.
Può succedere che un gioco driver default supporti male l'AF e la qualità è a default, oppure proprio non lo applica, lasciando le texture slavate in lontananza.
Basta regolare il pannello così, perdita fps dai 0 ai 2 circa.
Filtro struttura.
http://i68.tinypic.com/v412ec.png
Prey a qualità default, mostra migliore anisotropia che su AMD.
https://www.youtube.com/watch?v=CP2jsAuI7Ls
bagnino89
23-05-2017, 14:43
Ma chi le dice queste fesserie.
Può succedere che un gioco driver default supporti male l'AF e la qualità è a default
Basta regolare il pannello così, perdita fps 2 circa.
Prey a qualità default, mostra migliore anisotropia che su AMD.
https://www.youtube.com/watch?v=CP2jsAuI7Ls
Io mai dette fortunatamente, e guarda caso sempre tenuto AF a 16X ed Alta qualità sul pannello di controllo. Ma "di là" si parla di complotti sulla resa a video un post sì e l'altro... Pure :asd:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.