View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
techsaskia
03-03-2018, 14:54
Concordo, lasciate stare ste 2080 e puntate direttamente alla 2080Ti, queste schede di "passaggio" le mettono lì solo per allungare il brodo e fare più soldi.
La versione Ti è sempre la migliore in assoluto in termini di prezzo/prestazioni/durata nel tempo.
Guardate chi ha preso la Ti, ancora oggi non ci sono giochi che le creino problemi nemmeno FF XV che è un gioco bello pompato e con tatti effetti nvidia ammazza VGA.
io ho ancora due 980Ti e purtroppo visto che lo SLI ormai negli ultimi giochi non è supportato vorrei un upgrade...
certo che il case con una sola scheda è veramente brutto, rispetto ad un case con due scheducce... mi dovrò abituare.
la 2080 non tira nemmeno a me che ho una scheda "vecchia"... aspetterò le 2080 Ti se avranno un prezzo sotto i 750€, altrimenti andassero dopo decenni di PC gaming andassero a cagare mi compro la PS4.
Ale55andr0
03-03-2018, 16:01
la 2080 non tira nemmeno a me che ho una scheda "vecchia"... aspetterò le 2080 Ti se avranno un prezzo sotto i 750€, altrimenti andassero dopo decenni di PC gaming andassero a cagare mi compro la PS4.
della serie mia moglie mi tradisce e per punirla me lo taglio :stordita:
a me attira sia la 2080 che la 2080ti e anche ryzen 2700x :D
della serie mia moglie mi tradisce e per punirla me lo taglio :stordita:
Strano ma ho avuto lo stesso pensiero :sofico:
Anche perchè non stiamo parlando di schedine di fascia media dove effettivamente come resa siamo vicini a una console, ma già nel target di 1070/1080 in su la resa grafica è decisamente migliore senza contare la possibilità di modding, con reshade e texture pack a manetta :D
fraussantin
03-03-2018, 17:30
della serie mia moglie mi tradisce e per punirla me lo taglio :stordita:Tagliarlo non direi più cambiare gusti vs l'altro sesso XD
Legolas84
03-03-2018, 17:46
Io infatti ho sempre parlato di passaggio alle console solo nel caso in cui quando la 1080ti inizierà ad arrancare ci saranno ancora prezzi allucinanti...
Inviato dal mio iPhone utilizzando Tapatalk Pro
techsaskia
03-03-2018, 18:12
della serie mia moglie mi tradisce e per punirla me lo taglio :stordita:
semplicemente sono stanca di finanziare questo mercato di polli
Ale55andr0
03-03-2018, 21:01
Della serie la moglie non me la da più mi faccio l'amante
si, ma in questo caso cessa e pure vecchia :asd:
Ale55andr0
03-03-2018, 21:02
a me attira sia la 2080 che la 2080ti e anche ryzen 2700x :D
bravo :O
resta fedele a tua moglie e fa di tutto per non perderla, anche sputtanarti il portafoglio, perchè quella volta che te la fa vedere lo fa in 4k maxato, vuoi mettere? :O
Io infatti ho sempre parlato di passaggio alle console solo nel caso in cui quando la 1080ti inizierà ad arrancare ci saranno ancora prezzi allucinanti...
Inviato dal mio iPhone utilizzando Tapatalk Pro
e che cambia? sarebbe un downgrade in ogni caso rispetto a quanto ci sarà allora su PC, poi se ti conosco tu hai sempre avuto configurazioni spinte, cioè mi sei sempre sembrato uno che "spende" per la sua passione, è strano che questo tipo di ragionamento lo faccia un appassionato "duro" con alle spalle non so quante migliaia di euro in hardware :)
fraussantin
03-03-2018, 21:31
Della serie la moglie non me la da più mi faccio l'amanteL'amante è amd in questo caso ma non mi pare che si molto più disponibile.
Il paragone adatto è mia moglie non me la da , non trovo un altra e mi faccio una bella segxxx ! :asd:
:)
Io ho ryzen, 1080 ti, ps3, ps4, xbox, Xbox 360, cube. Non so se prendermi più avanti lo switch per Zelda e Mario, vedremo.
Da quel che ricordo ci sono più donne che uomini al mondo...;)
Finche non ti sparano 1500€ di scheda video meglio abbondare :)
TigerTank
04-03-2018, 10:24
:)
Io ho ryzen, 1080 ti, ps3, ps4, xbox, Xbox 360, cube. Non so se prendermi più avanti lo switch per Zelda e Mario, vedremo.
Da quel che ricordo ci sono più donne che uomini al mondo...;)
Finche non ti sparano 1500€ di scheda video meglio abbondare :)
Ti mancano solo un flipper vintage e un cabinato arcade :D
Io comunque per ora mi metto l'anima in pace, tanto a parte il fatto che da quando ho la fibra spesso nel tempo libero vado di streaming, avrei anche un pò di titoli in arretrato.
EDIT: comunque preparatevi che arriverà LUI (https://gaming.hwupgrade.it/news/videogames/trump-incontrera-i-rappresentanti-del-settore-per-limitare-la-violenza-nei-videogiochi_74518.html) a disintegrare il gaming, troppo violento e pericoloso.
Mi sa che nei prossimi cod, far cry e simili lo scopo primario sarà raccogliere fiori :asd:
Giovamas
04-03-2018, 11:16
e che cambia? sarebbe un downgrade in ogni caso rispetto a quanto ci sarà allora su PC, poi se ti conosco tu hai sempre avuto configurazioni spinte, cioè mi sei sempre sembrato uno che "spende" per la sua passione, è strano che questo tipo di ragionamento lo faccia un appassionato "duro" con alle spalle non so quante migliaia di euro in hardware :)
Legolas è un vero appassionato come tutti qui in questo 3d e che nvidia etc dovrebbero tenersi ben stretto. sono gli appassionati il vero business delle schede video Top. è soltanto stufo della piega che ha preso il mercato. come me del resto. da parte mia la PS4 che ho regalato a mio figlio per Natale per me equivale a non giocare
Legolas84
04-03-2018, 11:28
Legolas è un vero appassionato come tutti qui in questo 3d e che nvidia etc dovrebbero tenersi ben stretto. sono gli appassionati il vero business delle schede video Top. è soltanto stufo della piega che ha preso il mercato. come me del resto. da parte mia la PS4 che ho regalato a mio figlio per Natale per me equivale a non giocare
Non posso che quotarti... difatti se io dovessi mai divorziare dal gaming PC si tratterebbe pur sempre di un divorzio momentaneo. Sarei sempre pronto a ricontrarre matrimonio non appena i prezzi dovessero tornare normali....
Inviato dal mio iPhone utilizzando Tapatalk Pro
con una ti si potra giocare ancora per un bel po cmq..
Brutte pettegole un 1080ti vi dura fino alla PS6 :sofico:
Console, preassemblati, copirazioni m'e' venuta l'orticaria
Legolas84
04-03-2018, 13:06
Speriamo :) finché i giochi gireranno meglio sul glorioso GP102 di certo le console non mi avranno :D (a parte la switch per alcune esclusive sexy)
Poi ovvio che da appassionato spero sempre che la TI targata volta arrivi a costare tra le 700 e le 750 euro :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
La Switch ve l'appoggio, almeno Nintendo offre qualcosa davvero che su PC non esiste, avessi tempo e voglia me la prenderei volentieri
fraussantin
04-03-2018, 13:14
La Switch ve l'appoggio, almeno Nintendo offre qualcosa davvero che su PC non esiste, avessi tempo e voglia me la prenderei volentieriCosa? 3 esclusive come tutti gli altri .
Cosa? 3 esclusive come tutti gli altri .
Guarda non me ne fotte una sega di parlare di console e questa non e' la sede, dico che se proprio devo giocare qualcosa non al PC preferisco Mario o Zelda tutta la vita che mi danno qualcosa di piu' (anche solo per effetto nostalgia) che non le altre cagate di cui non mi frega niente, l'ultima console che ho avuto (e ho ancora) e' uno SNES.
Giovamas
04-03-2018, 13:23
Brutte pettegole un 1080ti vi dura fino alla PS6 :sofico:
Console, preassemblati, copirazioni m'e' venuta l'orticaria
:sofico: ad avercela.. sciaguratamente prima dello scoppio di gennaio ho venduto tutto causa trasferimento etc.. continua così e prendo la star wars e ci rivediamo l'anno prossimo:cool:
techsaskia
04-03-2018, 13:38
ragazzi potrei vedermi costretta a prendere una 2080 anzichè aspettare un altro anno dall'uscita delle 2080 per le 2080Ti...
secondo voi la 2080 sarà proprio una scheda inutile?
Legolas84
04-03-2018, 13:41
Be ragazzi Zelda è un gioco straordinario e nonostante la bassa potenza della switch viene reso magnifico anche a livello grafico grazie a una direzione artistica straordinaria :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
TigerTank
04-03-2018, 13:43
ragazzi potrei vedermi costretta a prendere una 2080 anzichè aspettare un altro anno dall'uscita delle 2080 per le 2080Ti...
secondo voi la 2080 sarà proprio una scheda inutile?
Più che inutile sarà overpriced di brutto in rapporto poi alla 2080Ti successiva.
Thunder-74
04-03-2018, 15:00
ragazzi potrei vedermi costretta a prendere una 2080 anzichè aspettare un altro anno dall'uscita delle 2080 per le 2080Ti...
secondo voi la 2080 sarà proprio una scheda inutile?
Assolutamente no, proporrà una potenza superiore ad una 1080ti. Io sono nella tua stessa situazione con uno Sli di 980ti. Già adesso se prendessimo una 1080ti, staremmo più tranquilli per tutti i titoli che non supportano lo Sli o dove questo non scala decentemente, però capisco che potrebbe sembrare un side grade per pura potenza rispetto allo Sli. Io aspetterò la 2080ti per avere un salto di prestazioni in ogni condizione rispetto allo Sli.
Inviato dal mio iPhone X utilizzando Tapatalk
ragazzi potrei vedermi costretta a prendere una 2080 anzichè aspettare un altro anno dall'uscita delle 2080 per le 2080Ti...
secondo voi la 2080 sarà proprio una scheda inutile?
definirla inutile è sicuramente esagerato e fuori luogo, di sicuro andrà qualcosa in più della 1080ti (si spera almeno un 15-20% se no che senso avrebbe di uscire) il vero problema è quanto ha detto anche TigerTank: il prezzo!
Di sicuro di listino sarà piazzata come il prezzo di una vera top di gamma fino a che non uscirà la Ti 8/10 mesi dopo, ormai nvidia ha consolidato questa prassi...se poi a questo ci aggiungi il periodo assurdo dei prezzi che girano, comprarla sarà una follia
Thunder-74
04-03-2018, 17:21
definirla inutile è sicuramente esagerato e fuori luogo, di sicuro andrà qualcosa in più della 1080ti (si spera almeno un 15-20% se no che senso avrebbe di uscire) il vero problema è quanto ha detto anche TigerTank: il prezzo!
Di sicuro di listino sarà piazzata come il prezzo di una vera top di gamma fino a che non uscirà la Ti 8/10 mesi dopo, ormai nvidia ha consolidato questa prassi...se poi a questo ci aggiungi il periodo assurdo dei prezzi che girano, comprarla sarà una follia
la serie x80 è sempre stata quella meno conveniente per via di un prezzo elevato "vicino" a quello che poi sarà della top di gamma Ti. Comunque a questo giro, se techsaskia volesse temporeggiare fino all'uscita della Ti, con un mercato falsato dal mining, le consiglierei di acquistarla direttamente da nVidia.
A questo punto vi lascio con uno screen dal sapore amaro...
https://i.imgur.com/sEh8odzh.png
la serie x80 è sempre stata quella meno conveniente per via di un prezzo elevato "vicino" a quello che poi sarà della top di gamma Ti. Comunque a questo giro, se techsaskia volesse temporeggiare fino all'uscita della Ti, con un mercato falsato dal mining, le consiglierei di acquistarla direttamente da nVidia.
A questo punto vi lascio con uno screen dal sapore amaro...
https://i.imgur.com/sEh8odzh.png
Dove però le uniche disponibili sono la Titan V a 3100 cucuzze, la Titan Xp a 1299 e la Titan Xp Jedi Order che con soli 1138 è la più conveniente del lotto :muro:
Thunder-74
04-03-2018, 18:29
Dove però le uniche disponibili sono la Titan V a 3100 cucuzze, la Titan Xp a 1299 e la Titan Xp Jedi Order che con soli 1138 è la più conveniente del lotto :muro:
si, prendila come una foto sbiadita di un "passato imperfetto"... (imperfetto non solo nella declinazione del verbo, ma anche per un mercato che tutti conosciamo...)
techsaskia
04-03-2018, 18:33
è incredibile, le 1060 su amazon stanno a 450€, le 1070 a 650€ e le 1080 Ti a oltre 1000€...
ma se ne sono proprio usciti di melone però eh.
techsaskia
04-03-2018, 18:42
è incredibile, le 1060 su amazon stanno a 450€, le 1070 a 650€ e le 1080 Ti a oltre 1000€...
ma se ne sono proprio usciti di melone però eh.
ma ci sono speranze ragionevoli che i prezzi torneranno quelli di una volta?
se si quando pensate che si potrà tornare a compare a prezzi normali?
Legolas84
04-03-2018, 18:49
Ce lo chiediamo anche noi da pagine e pagine :asd:
Inviato dal mio iPhone utilizzando Tapatalk Pro
fraussantin
04-03-2018, 18:54
è incredibile, le 1060 su amazon stanno a 450€, le 1070 a 650€ e le 1080 Ti a oltre 1000€...
ma se ne sono proprio usciti di melone però eh.
sono tutte esaurite , chi ha un pezzo o 2 in rimanenza ha tirato il prezzo al massimo nella speranza di trovare un bisognoso
ma ci sono speranze ragionevoli che i prezzi torneranno quelli di una volta?
se si quando pensate che si potrà tornare a compare a prezzi normali?
secondo me no o meglio:
''aspetto gli sconti'' o ''aspetto che cali ''non esisterà più
dovremo controllare ciclicamente lo store nvidia o lo store di chi vende direttamente e appena sono disponibili prenderla a prezzo pieno prima che i miner le esauriscano.
Thunder-74
04-03-2018, 19:12
Nella migliore ipotesi che il fenomeno mining si esaurisca, potremmo vedere una riduzione dei prezzi, ma difficilmente potrebbero tornare al prezzo pre-mining... Quello che non ho capito se attualmente la produzione delle VGA top di gamma sono in piena produzione o questa è stata limitata, perché anche questa seconda ipotesi può contribuire al prezzo smisurato di questo periodo.
In piu aggiungiamoci che di solito al lancio le trovi col contagocce....magari msrp non sara di 1500 ma in negozio, probabile..
Più che inutile sarà overpriced di brutto in rapporto poi alla 2080Ti successiva.
Questo è tutto da dimostrare. Sinora ad essere overpriced erano le Ti.
non vedo l'ora del giorno in cui i miner si disfaranno delle 1080Ti comprate a 1000 e noi non ne compreremo nemmeno una :D :D :D Il massimo sarebbe che le criptovalute andassero anche loro dal :ciapet: e si vendessero le schede per recuperare senza riuscirci. Quello sarebbe bello.
Devono mettersele tutte ....:ciapet:
Boh ora torno a giocare con la mia Titan X se qualcuno conosce un miner è subito disponibile a solo 1,5K...spedita.
la serie x80 è sempre stata quella meno conveniente per via di un prezzo elevato "vicino" a quello che poi sarà della top di gamma Ti. Comunque a questo giro, se techsaskia volesse temporeggiare fino all'uscita della Ti, con un mercato falsato dal mining, le consiglierei di acquistarla direttamente da nVidia.
A questo punto vi lascio con uno screen dal sapore amaro...
https://i.imgur.com/sEh8odzh.png
che tristezza, col senno di poi avrei dovuto prendere una 1080ti custom evga quando stavano a 660-670€ poco dopo l'uscita...e invece mi sono detto "aspettiamo che arrivino sulle 600€ e la prendo...:doh: "
MrBrillio
05-03-2018, 07:32
non vedo l'ora del giorno in cui i miner si disfaranno delle 1080Ti comprate a 1000 e noi non ne compreremo nemmeno una :D :D :D Il massimo sarebbe che le criptovalute andassero anche loro dal :ciapet: e si vendessero le schede per recuperare senza riuscirci. Quello sarebbe bello.
Devono mettersele tutte ....:ciapet:
Boh ora torno a giocare con la mia Titan X se qualcuno conosce un miner è subito disponibile a solo 1,5K...spedita.Il problema è che chi mina con le Gpu si è già rifatto quanto ha speso inizialmente per la scheda video... Quindi non è che gli pesa più di tanto se gli rimane sul groppone una 1080ti, male che fa continua a sfruttarla fino a che non schianta :D conta che fino a qualche mese fa ci si faceva 10 euro al giorno con una singola 1080ti... Fai tu.
Inviato dal mio SM-G955F utilizzando Tapatalk
TigerTank
05-03-2018, 08:20
Questo è tutto da dimostrare. Sinora ad essere overpriced erano le Ti.
Eh già, le 1080 all'uscita(soprattutto in versione FE) erano regalate ;)
Costavano 700-800€, stessi prezzi delle successive 1080Ti al lancio.
E probabilmente la storia si ripeterà, soprattutto poi con questa situazione di mercato.
Non è un caso che facciano uscire prima la Titan, poi i chippini e la Ti solo per ultima. E' massimizzare prezzi e utili.
Thunder-74
05-03-2018, 09:52
L'essere appassionato PC non significa che allora tutto quello che non è PC equivale a non giocare, ma per favore.
Ti ricordo che Legolas ha più volte ripetuto di possedere una switch di giocare a Zelda e che a lui piace molto: quindi vorresti dire che quello non è giocare?
Immagino poi che tuo figlio si stia divertendo a giocare con la PS4, e buon per lui!
Giocare non significa avere la grafica più bella, quindi l'essere appassionato di PC, modding o vga nello specifico non vuol dire che chi non lo sia non gioca, è al quanto riduttiva e insensata una affermazione del genere.
in effetti ci sono esclusive Sony che varrebbero la pena di essere giocate...Uncharted/Horizon zero dawn o il prossimo di Kojima ad esempio...
fraussantin
05-03-2018, 10:17
Sicuramente e ci metto dentro TLOU.
Io l'ho giocato sulla ps3 quasi al d1 e non è nulla di che.
È un classico uncharted con gli zombi con alcune parti stealth che appunto si alternano alle fasi tps .
Il gameplay obsoleto si accoppia ad una bella storia , ma che purtroppo esce tardi e sa di dejavu.
La gente tende ad esaltare le esclusive giusto per far rosicare gli altri.
fraussantin
05-03-2018, 10:33
Premetto e dico di non aver mai giocato agli uncharted o a giochi con gli zombi, ma per me è tutto l'opposto, ricordo di essermi pure commosso per la storia :cry:
Però è una cosa soggettiva dire se un gioco mi piace oppure no, ci sta i gusti sono gusti non discuto la tua opinione, ma esula dal fatto che sia su console o su PC.La storia è bella non si discute è solo che appunto è piena di elementi ricorrenti in quel tipo di giochi \film \serietv ecc
Legolas84
05-03-2018, 11:32
Personalmente ho preferito di gran lunga Uncharted a TLOU.... per il senso di avventura e il taglio dei personaggi e la storia leggera....
TLOU l'ho trovato carino come gameplay ma la storia niente di che anzi... non che sia un brutto gioco ma di sicuro non un capolavoro :)
Ed infine, con le console si gioca di certo, come si gioca anche in full HD con schedine di fascia media... ma è innegabile con con GP102 in 3440x1440 maxato magari pure con g-sync si gioca moooooolto meglio soprattutto per persone come me che vedono la differenza tra un gioco in very high o max e medium.
Zelda è un gioco immenso per molti aspetti, e la scelta di renderlo "un disegno" è stata azzeccata per superare i limiti tecnici di un tablet (sebbene molto potente come Tablet e con un'ambiente di sviluppo che è una garanzia essendo sviluppato direttamente da NVIDIA. Nintendo si è praticamente fatta fare la console da NVIDIA a livello di hardware e ambiente di sviluppo).
Però se si parla di grafica The Witcher 3 prende Zelda e ci palleggia facendo gol nel WC..... e insieme a Zelda anche i vari Doom, Wolfenstain.... che poi anche Wolf, bel gioco per carità, ma graficamente assolutamente mediocre.
fraussantin
05-03-2018, 12:32
Personalmente ho preferito di gran lunga Uncharted a TLOU.... per il senso di avventura e il taglio dei personaggi e la storia leggera....
TLOU l'ho trovato carino come gameplay ma la storia niente di che anzi... non che sia un brutto gioco ma di sicuro non un capolavoro :)
Ed infine, con le console si gioca di certo, come si gioca anche in full HD con schedine di fascia media... ma è innegabile con con GP102 in 3440x1440 maxato magari pure con g-sync si gioca moooooolto meglio soprattutto per persone come me che vedono la differenza tra un gioco in very high o max e medium.
Zelda è un gioco immenso per molti aspetti, e la scelta di renderlo "un disegno" è stata azzeccata per superare i limiti tecnici di un tablet (sebbene molto potente come Tablet e con un'ambiente di sviluppo che è una garanzia essendo sviluppato direttamente da NVIDIA. Nintendo si è praticamente fatta fare la console da NVIDIA a livello di hardware e ambiente di sviluppo).
Però se si parla di grafica The Witcher 3 prende Zelda e ci palleggia facendo gol nel WC..... e insieme a Zelda anche i vari Doom, Wolfenstain.... che poi anche Wolf, bel gioco per carità, ma graficamente assolutamente mediocre.Zelda per un ragazzino che ha ricevuto in regalo la switch è un gioco da 200 ore.
Grafica stupenda per la switch , ambientazione spettacolare , iterazione con meteo \ambiente , ecc ecc.
Ma per chi ha un pc con 2000 giochi dopo 10 ore si rompe le palle.
Provatelo sul cemu funziona bene io dopo poche ore mi sono stufato.
Legolas84
05-03-2018, 12:46
Eh va be queste sono opinioni personali, io penso di essere un veterano e non mi ha ancora stufato :) Anzi magari trovassi una tale cura dei dettagli nei giochi per le altre piattaforme, proprio a partire dall'interazione con l'ambiente
Zelda per un ragazzino che ha ricevuto in regalo la switch è un gioco da 200 ore.
Grafica stupenda per la switch , ambientazione spettacolare , iterazione con meteo \ambiente , ecc ecc.
Ma per chi ha un pc con 2000 giochi dopo 10 ore si rompe le palle.
Provatelo sul cemu funziona bene io dopo poche ore mi sono stufato.Io sto a 100h e passa, ne ho 26 di anni e mi sto divertendo ancora da matti :V
Inviato dal mio XT1068 utilizzando Tapatalk
appleroof
05-03-2018, 17:04
se fosse vero potrei aspettare il BTS...vedremo
https://www.hwupgrade.it/news/skvideo/future-schede-geforce-da-nvidia-secondo-noi-non-prima-del-computex_74556.html
Eh già, le 1080 all'uscita(soprattutto in versione FE) erano regalate ;)
Costavano 700-800€, stessi prezzi delle successive 1080Ti al lancio.
E probabilmente la storia si ripeterà, soprattutto poi con questa situazione di mercato.
No. Fino alla generazione precedente.
L'hanno scorso hanno sbordato e infatti non l'ho presa. Non so ancora se ho fatto male, vedremo...
Giovamas
05-03-2018, 20:11
L'essere appassionato PC non significa che allora tutto quello che non è PC equivale a non giocare, ma per favore.
Ti ricordo che Legolas ha più volte ripetuto di possedere una switch di giocare a Zelda e che a lui piace molto: quindi vorresti dire che quello non è giocare?
Immagino poi che tuo figlio si stia divertendo a giocare con la PS4, e buon per lui!
Giocare non significa avere la grafica più bella, quindi l'essere appassionato di PC, modding o vga nello specifico non vuol dire che chi non lo sia non gioca, è al quanto riduttiva e insensata una affermazione del genere.
Calma.. io gioco ancora baldur's gate 2... ed icewind dale. Il mio primo gioco è stato Pagan quando la grafica era quella che era con il mitico P90 con il bug. Parlavo in generale non per me. se c'è la storia a me la grafica non interessa. era una mia opinione per te insensata, ma ti stimo lo stesso sei uno degli utenti migliori qua:)
TigerTank
05-03-2018, 21:04
No. Fino alla generazione precedente.
L'hanno scorso hanno sbordato e infatti non l'ho presa. Non so ancora se ho fatto male, vedremo...
Anche le maxwell x80 costicchiavano, viaggiavano sulle 600€ e più, poi a cavallo tra il 2014 e il 2015 calarono parecchio, tant'è che ci fu chi comprò certi modelli anche a meno di 500€...per poi ricrescere nei mesi successivi.
Con le Pascal invece abbiamo avuto un periodo non molto bello, prima con la novità delle "founder edition" con sovrapprezzo e poi tutto il casino mining + crescita costi di produzione delle memorie.
Calma.. io gioco ancora baldur's gate 2... ed icewind dale. Il mio primo gioco è stato Pagan quando la grafica era quella che era con il mitico P90 con il bug. Parlavo in generale non per me. se c'è la storia a me la grafica non interessa. era una mia opinione per te insensata, ma ti stimo lo stesso sei uno degli utenti migliori qua:)
La grafica è relativa, ci sono titoli con graficone ma noiosissimi ed indie leggeri ma validissimi. Poi beh...chi è della vecchia guardia spesso riscopre titoli come quelli che citi(mitici e capolavori) e li rigioca per dei "ritorni di fiamma" :D
Giovamas
05-03-2018, 21:20
La grafica è relativa, ci sono titoli con graficone ma noiosissimi ed indie leggeri ma validissimi. Poi beh...chi è della vecchia guardia spesso riscopre titoli come quelli che citi(mitici e capolavori) e li rigioca per dei "ritorni di fiamma" :D
OT
yes hai totalmente ragione. ricordo mitica rivista K... leggevo da militare le recensioni. Era solo per rispondere al vivace ma amichevole scambio di battute con Gridrice. non potrei mai giocare ad un rpg alla ps4:) per questo non mi piace la consolle (in questo senso è non giocare perché adoro gli rpg old syle e per me sono quelli il "game") e nessun modding o lucine o OC può lontanamente avvicinarsi allo sconfiggere Kangaxx, o Firekraag o sedurre una mezzelfa acida di nome Jaheira:D :cool:
fine OT :)
Legolas84
05-03-2018, 21:39
Allora intendiamoci, anche io sono come te Giovamas. Per me Baldur's Gate 2: Shadows of Amn è la perfezione videoludica. Sono un Dungeon Master di Dungeons & Dragons da prima del 2000 e con il mio storico gruppo gioco ancora ora. Ho spaziato da OD&D, AD&D, D&D terza edizione, Quinta ed. ecc... Proprio il mese scorso abbiamo iniziato una nuova campagna di AD&D.
Penso anche che l'infinity engine con la sua grafica 2d isometrica e le sprite sia una soluzione validissima per rappresentare un gioco di D&D e lo stile artistico delle aree di tutta questa serie di giochi era semplicemente sublime. La grafica per me non è il fattore più importante, il fattore più importante è quello che un gioco mi lascia; voglio che mi dispiaccia quando lo finisco. Recentemente The Witcher 3 mi ha dato sensazioni simili, grazie ad un coinvolgimento incredibile.
Detto questo però non nego che se un gioco oltre che la sostanza mette in bella mostra una grafica spaccamascella sono ben contento! Se ci sono possibilità di avere miglioramenti grafici, li voglio eccome. Ad esempio le creature di The Witcher 3 con HairWorks per me sono imprescindibili per quanto migliorano la qualità....
È giusto valutare un gioco a 360 gradi.... la grafica non è tutto, e davanti ad alcuni capolavori indie si accetta tutto, ma in ogni caso non va trascurata.
PS
La Romance andava fatta su Viconia :asd:
Pss
Vogliamo parlare di Neverwinter Nights? Quando è uscito aveva grafica spaccamascella, un singleplayer convincente e un Toolset da capolavoro. Penso che sia il gioco a cui ho giocato di più in vita mia online (ci gioco ancora ora in realtà).
Giovamas
05-03-2018, 21:49
Penso anche che l'infinity engine con la sua grafica 2d isometrica e le sprite sia una soluzione validissima per rappresentare un gioco di D&D e lo stile artistico delle aree di tutta questa serie di giochi era semplicemente sublime. La grafica per me non è il fattore più importante, il fattore più importante è quello che un gioco mi lascia; voglio che mi dispiaccia quando lo finisco. Recentemente The Witcher 3 mi ha dato sensazioni simili, grazie ad un coinvolgimento incredibile.
PS
La Romance andava fatta su Viconia :asd:
Grande quoto tutto Master! TW3 perfetto connubio tra grafica spaccamascella ed una storia incredibile (cioè.. le ladies of the woods con quella musica.. e qul dipinto.. poesia) . Allora ben venga l'hardware per sostenerlo.
PS
Su Vic in una delle mie run ci ho provato ma nulla! in compenso Tashia e Saerileth png mods mi sono piaciute tantissimo. se fai un'altra run prova il mod di tashia. una sorceress elfica :D
meglio chiudere l'OT va o il mod ci lancia un "gate" o un orrido avvizzimento
PSS2 .. Aribeth.. l'ho adorata.
Legolas84
05-03-2018, 21:51
Grande quoto tutto Master! TW3 perfetto connubio tra grafica spaccamascella ed una storia incredibile (cioè.. le ladies of the woods con quella musica.. e qul dipinto.. poesia) . Allora ben venga l'hardware per sostenerlo.
PS
Su Vic in una delle mie run ci ho provato ma nulla! in compenso Tashia e Saerileth png mods mi sono piaciute tantissimo. se fai un'altra run prova il mod di tashia. una sorceress elfica :D
meglio chiudere l'OT va o il mod ci lancia un "gate" o un orrido avvizzimento
L'importante è che non mi lanci una Disgiunzione di Mordenkainen sul mio hardware ;) /FineOT
techsaskia
05-03-2018, 21:52
Nella migliore ipotesi che il fenomeno mining si esaurisca, potremmo vedere una riduzione dei prezzi, ma difficilmente potrebbero tornare al prezzo pre-mining... Quello che non ho capito se attualmente la produzione delle VGA top di gamma sono in piena produzione o questa è stata limitata, perché anche questa seconda ipotesi può contribuire al prezzo smisurato di questo periodo.
ma la legge di mercato non funziona che più c'è richiesta + il prezzo scende?
veramente nvidia non riesce a produrre tante schede quanta è la richiesta?
mi pare impossibile.
Legolas84
05-03-2018, 21:55
ma la legge di mercato non funziona che più c'è richiesta + il prezzo scende?
veramente nvidia non riesce a produrre tante schede quanta è la richiesta?
mi pare impossibile.
Il problema è che non è NVIDIA che le produce, le progetta solamente. Tutte le GPU vengono prodotte in fonderie che producono anche molte altre cose, quindi NVIDIA "affitta"per così dire delle linee di produzione. Se la fonderia non ne ha altre da darle, o se prenderne altre fosse antieconomico ecco che più di tot non si riesce a produrre.
techsaskia
05-03-2018, 22:00
Il problema è che non è NVIDIA che le produce, le progetta solamente. Tutte le GPU vengono prodotte in fonderie che producono anche molte altre cose, quindi NVIDIA "affitta"per così dire delle linee di produzione. Se la fonderia non ne ha altre da darle, o se prenderne altre fosse antieconomico ecco che più di tot non si riesce a produrre.
mi rifiuto di credere che un progetto già realizzato possa essere antieconomico da stampare, sopratutto se venduto a 1000€...
ma non scherziamo dai.
Legolas84
05-03-2018, 22:04
mi rifiuto di credere che un progetto già realizzato possa essere antieconomico da stampare, sopratutto se venduto a 1000€...
ma non scherziamo dai.
Le linee delle fonderie sono generalmente tutte occupate da tante aziende diverse, e le linee non sono nemmeno tutte uguali. Quindi è possibile che più di così non si possa andare.
Senza contare che con Volta alle porte chi mai andrebbe ad aumentare la produzione di Pascal?
techsaskia
05-03-2018, 22:06
Le linee delle fonderie sono generalmente tutte occupate da tante aziende diverse, e le linee non sono nemmeno tutte uguali. Quindi è possibile che più di così non si possa andare.
Senza contare che con Volta alle porte chi mai andrebbe ad aumentare la produzione di Pascal?
a me qui sembra che la produzione si sia proprio stoppata, altro che aumentare.
poi con tutti i cinesi che muoiono di lavoro ci credo ancora meno che non ci arrivano. è solo un modo per convincere i polli a cacciare ancora + soldi e a "naturalizzare" una incremento di prezzi.
dati certi non ne ho, è solo una mia idea.
certo è che se arriviamo ad avere delle schedine low end come le 1060 a 400 e rotti euro, il gaming PC è proprio alla frutta.
fraussantin
05-03-2018, 22:07
ma la legge di mercato non funziona che più c'è richiesta + il prezzo scende?
veramente nvidia non riesce a produrre tante schede quanta è la richiesta?
mi pare impossibile.
Veramente la legge di mercato funziona esattamente al contrario.
Più sale la domanda più alza il valore , più nessuno si incula un prodotto e più devono svenderlo .
Lo stesso in produzione. Se le macchine son ferme accettano ordini a tutti i prezzi.
Se ti devi raccomandare per fartene fare alcune le paghi quanto pare a loro.
techsaskia
05-03-2018, 22:08
Veramente la legge di mercato funziona esattamente al contrario.
Più sale la domanda più alza il valore , più nessuno si incula un prodotto e più devono svenderlo .
a parità di offerta più sale la domanda più scende il prezzo,
il prezzo sale solo se diminuisce l'offerta.
io faccio tutt'altro che economia ma così mi ricordo :sofico:
fraussantin
05-03-2018, 22:12
a parità di offerta più sale la domanda più scende il prezzo,
il prezzo sale solo se diminuisce l'offerta.
io faccio tutt'altro che economia ma così mi ricordo :sofico:
A parità di offerta ( nvidia che vende) più persone vogliono quei prodotti ( domanda)e più il prezzo sale . Mi pare ovvio .
Se nessuno volesse le schede e se ne stassero li a prendere polvere il prezzo calerebbe . Come linea generale è così.
Poi ci sono casi in cui poca domanda fa alzare i costi di produzione , ma non è questo il caso.
techsaskia
05-03-2018, 22:16
A parità di offerta ( nvidia che vende) più persone vogliono quei prodotti ( domanda)e più il prezzo sale . Mi pare ovvio .
Se nessuno volesse le schede e se ne stassero li a prendere polvere il prezzo calerebbe . Come linea generale è così.
Poi ci sono casi in cui poca domanda fa alzare i costi di produzione , ma non è questo il caso.
comunque vada, andassero a quel paese 450€ una 1060 mi fa accapponare la pelle :stordita:
fraussantin
05-03-2018, 22:16
comunque vada, andassero a quel paese 450 una 1060 mi fa accapponare la pelle :stordita:Su questo :mano:
a parità di offerta più sale la domanda più scende il prezzo,
il prezzo sale solo se diminuisce l'offerta.
io faccio tutt'altro che economia ma così mi ricordo :sofico:
In pratica ti stai contraddicendo :D
Thunder-74
05-03-2018, 23:47
Tempo fa era uscito un articolo con il quale il ceo di AMD dichiarava che intendeva aumentare la produzione delle gpu, ma anche se questo fosse stato praticabile (perché comunque dipende molto dalla resa produttiva in base alla qualità dei wafer di silicio), il problema si poneva per lo stato di incapacità di aumentare la produzione di chip di memoria, per il fatto che svariati devices dai tablet ai cell ecc, ne fanno largo uso. Sono in atto da parte di Samsung e TMSC, progetti di espansione con nuovi stabilimenti di produzione, ma certo non sarà possibile nell’immediato futuro.
Inviato dal mio iPhone X utilizzando Tapatalk
majinbu7
06-03-2018, 09:04
Zelda per un ragazzino che ha ricevuto in regalo la switch è un gioco da 200 ore.
Grafica stupenda per la switch , ambientazione spettacolare , iterazione con meteo \ambiente , ecc ecc.
Ma per chi ha un pc con 2000 giochi dopo 10 ore si rompe le palle.
Provatelo sul cemu funziona bene io dopo poche ore mi sono stufato.
Io ho 43 anni, la mia piattaforma principale per il game è il PC, ma ho anche la switch con Zelda e 130 ore all'attivo, sarò circa a metà gioco e quando inizio una sessione mi ci perdo non accorgendomi che sono già passate 3/4 ore :D
Tornano in topic, ma allora la nuova serie nvidia non si vedrà fino a quest'estate?
Giovamas
06-03-2018, 09:27
ah ok, allora questo è un altro discorso ancora e che posso condividere ;)
mi sono espresso male in effetti nel precedente intervento :cincin: :mano:
aorus 6gb 1060 a 489 mazza che prezzi. Sempre piu felice di avere la mia bimba treenne
aorus 6gb 1060 a 489 mazza che prezzi. Sempre piu felice di avere la mia bimba treenne
Siete riusciti a procreare poi ? Di sti tempi anche se ci viene fuori una 1050ti e' tutto oro colato...
fraussantin
06-03-2018, 11:13
aorus 6gb 1060 a 489 mazza che prezzi. Sempre piu felice di avere la mia bimba treenneedit ho preso una cantonata assurda scusate :D
Luca1980
06-03-2018, 11:24
Penso stesse parlando della 980 Ti :D
Giovamas
06-03-2018, 12:00
su eprezzo è apparsa una 1080ti a 742 (ricondizionata) ;)
Penso stesse parlando della 980 Ti :D
si certo.
Ma il mio dramma si consumerà se le nuove vga includeranno novita lato hdmi/audio.
Con l uso che ne faccio una eventuale apertura al pcm 9/11 ch sarebbe irresistibile per me :fagiano:
mefistole1978
06-03-2018, 14:20
su eprezzo è apparsa una 1080ti a 742 (ricondizionata) ;)
n'affare:doh:
Giovamas
06-03-2018, 15:08
n'affare:doh:
durata quanto un gatto in tangenziale :stordita:
Thunder-74
06-03-2018, 15:12
n'affare:doh:
durata quanto un gatto in tangenziale :stordita:
comunque non era male: era la versione con wubbo della MSI, quindi di partenza più costosa di un 100/150€. In descrizione c'era scritto "confeziona aperta mai usata"...
fraussantin
06-03-2018, 15:17
comunque non era male: era la versione con wubbo della MSI, quindi di partenza più costosa di un 100/150. In descrizione c'era scritto "confeziona aperta mai usata"...Se è ricondizionata è usata , guastata riparata e poi rimessa in vendita.
fabietto27
06-03-2018, 15:18
comunque non era male: era la versione con wubbo della MSI, quindi di partenza più costosa di un 100/150. In descrizione c'era scritto "confeziona aperta mai usata"...Traspare tutta la tua afflizione per la privazione di hardware recente di cui sei vittima.....ti sono vicino buon Thunder.E scrivi pure qui se ti fa sentire meglio.
Inviato dal vivavoce della mia Daf Variomatic
Thunder-74
06-03-2018, 16:09
Traspare tutta la tua afflizione per la privazione di hardware recente di cui sei vittima.....ti sono vicino buon Thunder.E scrivi pure qui se ti fa sentire meglio.
Inviato dal vivavoce della mia Daf Variomatic
Carissimo, scrivo qui perché rappresenta l'anticamera in attesa di acquistare qualcosa di nuovo. Pascal, a parte non si trova a prezzi decenti, ma non è mai stato più di tanto nei miei pensieri. Sicuramente se fossi stato con una sola 980ti, avrei preso la 1080ti al lancio è fatto da tester. Adesso aspetto il lancio di Ampere o come si chiamerà. Probabile tirare avanti per quasi un annetto in attesa della 2080ti. Speriamo solo di non dover vivere con il dito sul tasto F5 in attesa di un briciolo di disponibilità :fagiano:
@fraussantin
Ho riportato la dicitura che si trovava su ePRICE , poi sulla veridicità tutto da verificare. Diciamo che se fosse stato quanto riportato , il prezzo ci stava tranquillamente per un modello con full cover
Inviato dal mio iPhone X utilizzando Tapatalk
Mai acquisto fu più ‘azzeccato’ delle mie 1080ti... però speriamo ‘sta bolla del mining scoppi .. presto.
TigerTank
06-03-2018, 22:11
E insomma, pensavo di lamentarmi ancora un po' del mining, poi però la moglie mi ha appena regalato un Millennium Falcon UCS per il mio quarantesimo, quindi addio mondo ci vediamo fra 23 settimane quando avrò finito di montarlo :D
Sticaxxi, costa praticamente quanto una 1080Ti a pompata di prezzo intermedia.
Almeno puoi dire di avere a che fare con una cosa di valore equivalente :asd:
Legolas84
06-03-2018, 22:32
Sticaxxi, costa praticamente quanto una 1080Ti a pompata di prezzo intermedia.
Almeno puoi dire di avere a che fare con una cosa di valore equivalente :asd:
È una vera figata io adoro anche l’executor... non li compro solo perché so già che il mio gatto li farebbe cadere....
Inviato dal mio iPhone utilizzando Tapatalk Pro
mikael84
07-03-2018, 00:47
In dx12 invece la vedi più longeva di Pascal o anche qui non dovrebbero esserci grosse differenze?
Ho letto solo ora Apple:)
E' quasi una contraddizione, ma le dx12, ed il calcolo parallelo, su Nvidia servono a poco, potrebbe farne quasi a meno.
Partiamo dal presupposto che le schede video, non sono quasi mai capaci di esprimersi al 100%, qualche stadio lavora in idle.
La differenza pura, è che i normali dati dalla CPU, presi dall'Host, vengono inviati al gigathread engine, che raccoglie i dati dalla ram e li passa alla vram.
Fatto questo, crea, ed invia i thread da eseguire agli SM.
All'interno del SM, c'è un contatore thread, e tramite quello comandi il calcolo parallelo.
In DX11, non hai problemi, cerchi di sfruttare il possibile, in DX12, il contatore suddivide, i thread in blocchi di 4x4 ognuno dialogante con le LDS (AMD con le LDS perde 1/4 del teorico flops).
Questo significa, che i blocchi paralleli, lavorano a parte, ed i dati memorizzati vengono allocati in L2.
Con Volta, si cerca di eliminare gli stadi di idle, in quanto, il lavoro del warp, passa per i thread, questi gruppi di calcolo possono lavorare indipendentemente.
Volta, in sintesi cerca di offrire flessibilità di calcolo per gli sviluppatori, non lasciando stadi di idle, ed allo stesso tempo, aumenta la L2, dove immagazzina dati paralleli.
AMD prima di Vega, utilizzava gli AC per lo stesso scopo, sfruttare tutte le ALU, m i lavori svolti dagli AC, venivano "sbattuti" alo shader core, con relative latenze altissime.
Ora anche Vega ha 3 conservative, come le avrà Volta.
Quindi o programmi gli SM, o perdi totalmente, vedi i dx12 Nvidia, con Volta, non hai più questi problemi.
Sia Volta che Vega (dx11-dx12) possono sfruttare il totale teorico delle ALU.
Chiaro che AMD, quando deve emulare le LDS passa ad 1/4 delle operazioni.:)
P. S. Non mi ero accorto che eri passato alla 1080 :fagiano:
Si Apple, il giusto per avere i 60fps, quasi sempre. Mi godo alcuni mattoni al meglio. la TI l'ho acquistata 2 volte, la galax su Bpm(considerando la garanzia diretta, però mi hanno fatto perdere quasi un mese, ogni volta che acquistavi, era finita. Alla fine ho trovato un'offerta su Amazon.
Devo dire un buon upgrade, nel mio caso.:) Dove scendevo anche a 46/47, qua ci passo sempre a 60fps.:)
Giovamas
07-03-2018, 09:27
E insomma, pensavo di lamentarmi ancora un po' del mining, poi però la moglie mi ha appena regalato un Millennium Falcon UCS per il mio quarantesimo, quindi addio mondo ci vediamo fra 23 settimane quando avrò finito di montarlo :D
fantastico caro coetaneo (io a luglio)! Io ho lo star destroyer (impero rulez!) buon lavoro :D e complimenti a tua moglie che ti fa questi regali :)
scusate l'OT
TigerTank
07-03-2018, 09:41
Ho letto solo ora Apple:)
E' quasi una contraddizione, ma le dx12, ed il calcolo parallelo, su Nvidia servono a poco, potrebbe farne quasi a meno.
Partiamo dal presupposto che le schede video, non sono quasi mai capaci di esprimersi al 100%, qualche stadio lavora in idle.
La differenza pura, è che i normali dati dalla CPU, presi dall'Host, vengono inviati al gigathread engine, che raccoglie i dati dalla ram e li passa alla vram.
Fatto questo, crea, ed invia i thread da eseguire agli SM.
All'interno del SM, c'è un contatore thread, e tramite quello comandi il calcolo parallelo.
In DX11, non hai problemi, cerchi di sfruttare il possibile, in DX12, il contatore suddivide, i thread in blocchi di 4x4 ognuno dialogante con le LDS (AMD con le LDS perde 1/4 del teorico flops).
Questo significa, che i blocchi paralleli, lavorano a parte, ed i dati memorizzati vengono allocati in L2.
Con Volta, si cerca di eliminare gli stadi di idle, in quanto, il lavoro del warp, passa per i thread, questi gruppi di calcolo possono lavorare indipendentemente.
Volta, in sintesi cerca di offrire flessibilità di calcolo per gli sviluppatori, non lasciando stadi di idle, ed allo stesso tempo, aumenta la L2, dove immagazzina dati paralleli.
AMD prima di Vega, utilizzava gli AC per lo stesso scopo, sfruttare tutte le ALU, m i lavori svolti dagli AC, venivano "sbattuti" alo shader core, con relative latenze altissime.
Ora anche Vega ha 3 conservative, come le avrà Volta.
Quindi o programmi gli SM, o perdi totalmente, vedi i dx12 Nvidia, con Volta, non hai più questi problemi.
Sia Volta che Vega (dx11-dx12) possono sfruttare il totale teorico delle ALU.
Chiaro che AMD, quando deve emulare le LDS passa ad 1/4 delle operazioni.:)
Si Apple, il giusto per avere i 60fps, quasi sempre. Mi godo alcuni mattoni al meglio. la TI l'ho acquistata 2 volte, la galax su Bpm(considerando la garanzia diretta, però mi hanno fatto perdere quasi un mese, ogni volta che acquistavi, era finita. Alla fine ho trovato un'offerta su Amazon.
Devo dire un buon upgrade, nel mio caso.:) Dove scendevo anche a 46/47, qua ci passo sempre a 60fps.:)
Eh sì Mike, dalla gtx980Ti alla 1080 hai guadagnato una % di prestazioni che ti è utile con i titoli recenti :)
Per il resto, a me pare che le dx12 al momento siano ancora un tantinello in alto mare...
È una vera figata io adoro anche l’executor... non li compro solo perché so già che il mio gatto li farebbe cadere....
Cosa che a me successe tanti anni fà con il mio bellissimo x-wing :cry: , volato giù dalla mensola causa gatto. Erano gli anni dove si giocava al pc senza tutte le paranoie attuali, con la nuova trilogia in corso(la prima) e capolavori come Knight of The Old Republic, Outcast e Jedi Academy.
Per il resto, a me pare che le dx12 al momento siano ancora un tantinello in alto mare...
indovina perchè?
fraussantin
07-03-2018, 09:59
indovina perchè?Quando lo dissi 3 anni fa che microsoft fece una cazzata ad mettersi contro nvidia per lanciare w10 e dx 12 ero un troll . Adesso siamo sempre in dx11 e vulcan sta sui cellulari.
Giovamas
07-03-2018, 11:40
Cosa che a me successe tanti anni fà con il mio bellissimo x-wing :cry: , volato giù dalla mensola causa gatto. Erano gli anni dove si giocava al pc senza tutte le paranoie attuali, con la nuova trilogia in corso(la prima) e capolavori come Knight of The Old Republic, Outcast e Jedi Academy.
tu mi trascini in OT.. KOTOR capolavoro (Bastila :oink: ) e Darth Traya in KOTOR 2 il miglior cattivo della storia. superiore ad irenicus
PS a me lo Start destroyer l'ha terminato il mio doby attratto da una pallina lasciata incautamente lì accanto dalla mia dolce metà....
Riguardo alle DX12 quoto Fraussantin. ricordo bene. Io non ho ahimè le vostre competenze ma immagazzino tutto e da anni seguo le vostre dritte. e ricordo quanto evidenziato tempo fa :)
Quando lo dissi 3 anni fa che microsoft fece una cazzata ad mettersi contro nvidia per lanciare w10 e dx 12 ero un troll . Adesso siamo sempre in dx11 e vulcan sta sui cellulari.
nvidia innova :stordita:
le sw ufficiali (a volte si trovano titoli indie che supportano meglio tecnologie nuove dei vari mega studios, per dire) si sono sedute, che je frega di quei quattro stronzi che hanno una vga amd? si beccano engine dx11 che strangolano lo scheduler in hw e effetti gameswork già fatti e finiti con aa spaziotemporaliborghiani che puta caso viaggiano benissimo sulle architetture nuove nvidia, incredibbile.....
e le statistiche steam volano!!!!! :sofico:
mikael84
07-03-2018, 15:43
nvidia innova :stordita:
le sw ufficiali (a volte si trovano titoli indie che supportano meglio tecnologie nuove dei vari mega studios, per dire) si sono sedute, che je frega di quei quattro stronzi che hanno una vga amd? si beccano engine dx11 che strangolano lo scheduler in hw e effetti gameswork già fatti e finiti con aa spaziotemporaliborghiani che puta caso viaggiano benissimo sulle architetture nuove nvidia, incredibbile.....
e le statistiche steam volano!!!!! :sofico:
Finchè non uscirà la PS5 e relativa Xbox, non cambierà mai nulla. Sempre la stessa minestra riscaldata e rattoppata.:p
fraussantin
07-03-2018, 15:48
nvidia innova :stordita:
le sw ufficiali (a volte si trovano titoli indie che supportano meglio tecnologie nuove dei vari mega studios, per dire) si sono sedute, che je frega di quei quattro stronzi che hanno una vga amd? si beccano engine dx11 che strangolano lo scheduler in hw e effetti gameswork già fatti e finiti con aa spaziotemporaliborghiani che puta caso viaggiano benissimo sulle architetture nuove nvidia, incredibbile.....
e le statistiche steam volano!!!!! :sofico:Che brontoli sempre. Ubisoft ha fatto il patto con il diavolo( amd :asd:) per per far cry 5 ..
Ottimizzazioni , dx12, e BUNDLE .... Ah già ma non ci sono schede da vendere... :D
Eh sì Mike, dalla gtx980Ti alla 1080 hai guadagnato una % di prestazioni che ti è utile con i titoli recenti :)
Per il resto, a me pare che le dx12 al momento siano ancora un tantinello in alto mare...
Cosa che a me successe tanti anni fà con il mio bellissimo x-wing :cry: , volato giù dalla mensola causa gatto. Erano gli anni dove si giocava al pc senza tutte le paranoie attuali, con la nuova trilogia in corso(la prima) e capolavori come Knight of The Old Republic, Outcast e Jedi Academy.
Molto dipende anche dai clock della 980ti, se non erro quella di mike arrivava sui 1400mhz più o meno, e con questo clock va anche meno di una
[email protected] ma sui 1500mhz sei li in prestazioni, però in OC portando la 1080 a 2.1ghz ottieni quei 10-12fps in più che possono aiutare, ma dipende anche dalla differenza in €€ se la perdita è minima può anche valerne la pena se però la perdita è consistente meglio tenersi la 980ti...
In DX12 alla fine non c'è nulla, penso che inizieranno a prendere concretamente piede forse tra 2-3 anni, dove l'attuale potenza di una 980ti/1080 la trovi nei chippetti xx50/ti XD
In DX12 alla fine non c'è nulla, penso che inizieranno a prendere concretamente piede forse tra 2-3 anni, dove l'attuale potenza di una 980ti/1080 la trovi nei chippetti xx50/ti XD
Mah, ho i miei seri dubbi.
La roadmap di AMD non prevede nulla fino ad un generico Navi nel 2020. Ma conoscendo AMD può essere benissimo un ennesimo tonfo nell'acqua stile Vega.
La roadmap Nvidia non ha ancora nulla di ufficiale sulla prossima generazione, solo rumors.
Ma la vedo molto difficile rilascino qualcosa di nuovo che vada più di un 20-25% fra segmento e segmento. Non ce la vedo proprio una 2060 che va il 25% più della 1060 al prezzo di (lancio) della 2060. O una 2070 che vada il 20-25% più di una 1070 sotto i 450-500 euro.
Quindi a conti fatti, ma cosa cambia?
Ergo, qualsiasi cosa "nuova" esca nei prossimi due anni ce la teniamo buona fino al 2022-2023.
Ergo la 980ti avrà ancora ottime ragioni d'esistere al tempo, come del resto una 7970 ha tutt'ora ottime ragioni d'esistere a 1080p, nonostante i sette anni passati. Non c'è assolutamente nulla in commercio che una 7970 non regga a 1080p se scendi di qualche dettaglio e filtro (filtri e dettagli spesso nemmeno visibili). Figuriamoci, anche a dettagli sparati al massimo una 7970 sta spesso e volentieri ben sopra i 30 fps, figuriamoci se tagli qualcosa qui e lì. Battlefield 1 ad Ultra fa dai 30 ai 45 fps, 34 fps medi su Hitman 2016 tutto al max, 36 su far cry primal. I titoli più esigenti e una scheda di 7 anni fa li regge ad fps anche "giocabili" e con tutto al massimo. E se abbassi qualcosina vai come un treno anche in quelli.
E' davvero deprimente la lentezza e la mancanza di competizione nel mondo delle gpu moderne.
Una volta con una gpu di 3 anni prima ti sognavi di installare l'ultimo titolo uscito.
Ora con una gpu decente di 3 anni prima tutt'al più ti chiedi se devi cambiare tecnica AA e abbassare le ombre a qualità media.
Thunder-74
07-03-2018, 18:33
E intanto Vulkan si aggiorna alla versione 1.1 con supporto al multi GPU ed altro. Io credo più in queste API che nei DX12, anche se devo dire che in quei pochi titoli che è stato introdotto il supporto al multiGPU, ho avuto un boost anche del 30% rispetto alle DX11. In singola prestazioni in linea...
LINK (http://www.guru3d.com/news-story/khronos-group-releases-vulkan-1.html)
Che brontoli sempre. Ubisoft ha fatto il patto con il diavolo( amd :asd:) per per far cry 5 ..
Ottimizzazioni , dx12, e BUNDLE .... Ah già ma non ci sono schede da vendere... :D
Quella promo non a caso vale per pc oem che loro le schede le hanno, nel canale retail invece....bene, UN titolo..poi?
mikael84
08-03-2018, 01:35
Molto dipende anche dai clock della 980ti, se non erro quella di mike arrivava sui 1400mhz più o meno, e con questo clock va anche meno di una
[email protected] ma sui 1500mhz sei li in prestazioni, però in OC portando la 1080 a 2.1ghz ottieni quei 10-12fps in più che possono aiutare, ma dipende anche dalla differenza in €€ se la perdita è minima può anche valerne la pena se però la perdita è consistente meglio tenersi la 980ti...
In DX12 alla fine non c'è nulla, penso che inizieranno a prendere concretamente piede forse tra 2-3 anni, dove l'attuale potenza di una 980ti/1080 la trovi nei chippetti xx50/ti XD
Si esatto Ubro, molto dipende dai vari clock, un 1500x7900/8000 è davvero in linea con una 1080 DC /(1700), scendendo, rischi di prenderle su vari giochi dalla 1070, per via delle latenze.
Ricordo che le GPU Maxwell, hanno ram leggermente non all'altezza.
La 2070 dovrebbe montare almeno le 9ghz (288gb/s) e le 1080, in linea con 8 GPC maxwell, dovrebbe montare le 12 gb/s.
Il 3d mark passando da 10 ad 11gb/s segna quasi 2000 punti in più, segno, che per equiparare un 512bit a 7gb/s maxwell, servirebbe sia in teoria che in pratica una ram a 12 gb/s buoni.:)
Mah, ho i miei seri dubbi.
Ma la vedo molto difficile rilascino qualcosa di nuovo che vada più di un 20-25% fra segmento e segmento. Non ce la vedo proprio una 2060 che va il 25% più della 1060 al prezzo di (lancio) della 2060. O una 2070 che vada il 20-25% più di una 1070 sotto i 450-500 euro.
Quindi a conti fatti, ma cosa cambia?
Ergo, qualsiasi cosa "nuova" esca nei prossimi due anni ce la teniamo buona fino al 2022-2023.
I vantaggi saranno più netti, già ora come ora una 1070 sta a circa un 30% la 1060.
Tieni presente che la 2060, avrà un SMM in meno, ma avrà alcune migliorie interne, banda, e clock. Nel peggiore dei casi, con le più infime Hynix 12gb/s, passa a 288gb/s, più probabile compressione migliore.
Teoricamente la 2060 sarà più vicina alla 1080 che alla 1070, con un 40-50% a salire su certi titoli.:) .
In alcuni titoli potrebbe anche stargli un pelo sopra (50%).
Su Vega invece, il problema sta sugli shader engine.
Vi potrà sembrare strano, ma a pari clock, Vega è più scarso di Fury.
Dividendo i geo engine in vari array shader, Vega aumenta le latenze sulla L1.
Fury può partizionare, 4 CU (256st) che dialogano con la l1 e la l2 contemporaneamente.
Vega solo 3. Questo significa che ogni 192 st (15 cicli di clock), devi accedere alla l1 ed alla l2 (10-20 cicli).
Fury, può lavorare con 256 st a 19cicli condividendo la l1. Quindi se il 4 CU utilizzato in sequenza, deve accedere alla L1 non spreca tanti cicli inutili.
Senza considerare che il rapporto in banda è nettamente superiore a Fury, pur condividendo la stessa ampiezza effettiva.
E' come se la 1080/TI utilizzasse la BW di maxwell.
Vega punta forte al carico non gaming, dove riesci a sfruttare al meglio le fp32 (pari a 1080ti) e sulla BW ed l2 ( paradossalmente superiori alla 1080ti).
Nvidia questi problemi non li ha, mantiene sempre un chip totalmente scalabile, dove ogni stadio viene raddoppiato.:)
per come sono andate le cose molti che hanno svenduto il proprio gm200 all uscita di pascal oggi si staranno chidendo se è stata la mossa giusta
TigerTank
08-03-2018, 11:11
per come sono andate le cose molti che hanno svenduto il proprio gm200 all uscita di pascal oggi si staranno chidendo se è stata la mossa giusta
No, il punto è semmai che al momento causa prezzi delle 1080/1080Ti non è conveniente fare l'upgrade perchè comunque una 980Ti non la puoi rivendere a prezzo maggiorato. Salvo proprio esigenze estreme di maggiori prestazioni oppure occasioni particolari(come ha fatto Mike).
Io vendetti la mia gtx980Ti Classified a 450€ nel settembre 2016 ma ormai nessuno ti dà più una cifra del genere per una vga con 3 anni sulle spalle.
Chi ha già Pascal invece credo pensi di aver fatto bene ad acquistarla quando la situazione era ancora "normale", cioè prima del boom del mining e degli aumenti dei costi delle memorie, per cui direi che sia stata la mossa giusta, soprattutto se parliamo di 1080Ti a 700-750€(che oggi sembrano prezzi economici) :D
Thunder-74
08-03-2018, 11:35
per come sono andate le cose molti che hanno svenduto il proprio gm200 all uscita di pascal oggi si staranno chidendo se è stata la mossa giusta
Sinceramente se fossi stato con una singola 980ti, avrei già fatto il cambio vga all’uscita della 1080ti e adesso stavo con il sorriso sulla bocca in attesa di eventi migliori. Il boost da Maxwell a Pascal per pari fascia (x70 - x80 - x80ti), è stato parecchio tangibile sotto ogni punto di vista , prestazionale/consumi, quindi credo che al massimo possano esserci persone che rimpiangono di non averlo fatto quando i prezzi erano più abbordabili pre-mining
Inviato dal mio iPhone X utilizzando Tapatalk
Thunder-74
08-03-2018, 12:20
C'è da dire che se compri le FE sul sito nVIDIA in realtà i prezzi sono tuttosommato onesti (io sarò anche di parte, ma resto dell'idea che ci sia una speculazione dei vendor su questa storia del costo delle vga).
La EKWB ha fatto i kit "liquid" che con 200 euro dissipi sia la CPU che la GPU. Non saranno all'altezza del custom loop da 500 euro, ma è cmq molto meglio degli elicotteri nel case.
A 'sto punto piuttosto che pagare 200 euro in più il dissipatore di Asus o Zotac (per la sola VGA) tantovale prenderela FE e liquidarla, dico io.
si, il problema è che non sono mai disponibili sul sito nVidia. Puoi mettere la notifica, ma devi fare i turni al pc per accaparrartene una...
appleroof
08-03-2018, 12:22
Ho letto solo ora Apple:)
E' quasi una contraddizione, ma le dx12, ed il calcolo parallelo, su Nvidia servono a poco, potrebbe farne quasi a meno.
Partiamo dal presupposto che le schede video, non sono quasi mai capaci di esprimersi al 100%, qualche stadio lavora in idle.
La differenza pura, è che i normali dati dalla CPU, presi dall'Host, vengono inviati al gigathread engine, che raccoglie i dati dalla ram e li passa alla vram.
Fatto questo, crea, ed invia i thread da eseguire agli SM.
All'interno del SM, c'è un contatore thread, e tramite quello comandi il calcolo parallelo.
In DX11, non hai problemi, cerchi di sfruttare il possibile, in DX12, il contatore suddivide, i thread in blocchi di 4x4 ognuno dialogante con le LDS (AMD con le LDS perde 1/4 del teorico flops).
Questo significa, che i blocchi paralleli, lavorano a parte, ed i dati memorizzati vengono allocati in L2.
Con Volta, si cerca di eliminare gli stadi di idle, in quanto, il lavoro del warp, passa per i thread, questi gruppi di calcolo possono lavorare indipendentemente.
Volta, in sintesi cerca di offrire flessibilità di calcolo per gli sviluppatori, non lasciando stadi di idle, ed allo stesso tempo, aumenta la L2, dove immagazzina dati paralleli.
AMD prima di Vega, utilizzava gli AC per lo stesso scopo, sfruttare tutte le ALU, m i lavori svolti dagli AC, venivano "sbattuti" alo shader core, con relative latenze altissime.
Ora anche Vega ha 3 conservative, come le avrà Volta.
Quindi o programmi gli SM, o perdi totalmente, vedi i dx12 Nvidia, con Volta, non hai più questi problemi.
Sia Volta che Vega (dx11-dx12) possono sfruttare il totale teorico delle ALU.
Chiaro che AMD, quando deve emulare le LDS passa ad 1/4 delle operazioni.:)
Si Apple, il giusto per avere i 60fps, quasi sempre. Mi godo alcuni mattoni al meglio. la TI l'ho acquistata 2 volte, la galax su Bpm(considerando la garanzia diretta, però mi hanno fatto perdere quasi un mese, ogni volta che acquistavi, era finita. Alla fine ho trovato un'offerta su Amazon.
Devo dire un buon upgrade, nel mio caso.:) Dove scendevo anche a 46/47, qua ci passo sempre a 60fps.:)
Ciao Mike, tranquillo lo avevo immaginato che non acevi letto :)
Adesso sto con il cell e mi risulta difficile quotarti come vorrei, ma insomma mi pare di capire, riassumendo, che Volta sia in definitiva più "future proof" di Pascal rispetto al modo di programmare (cosa non scontata :D), direi ottimo
Per l'upgrade, io pure lo volevo fare, fui tentato moltissimo a giugno, con circa 150 euro avrei fatto il salto, però devo dire di non essermi pentito perché grazie al g-sync non soffro quando cala ai livelli che dici, adesso dopo anni di piccoli salti mi aspetto un boost notevole già con la 2070 (smenandoci di più ovvoo, la perfezione non c'è :D :cool: )
fabietto27
08-03-2018, 12:55
si, il problema è che non sono mai disponibili sul sito nVidia. Puoi mettere la notifica, ma devi fare i turni al pc per accaparrartene una...Organizzati.https://uploads.tapatalk-cdn.com/20180308/6f8bf3bd8b84fcbd940c64f093f0d691.jpg
Inviato dal vivavoce della mia Daf Variomatic
Lothianis
08-03-2018, 13:28
Organizzati.https://uploads.tapatalk-cdn.com/20180308/6f8bf3bd8b84fcbd940c64f093f0d691.jpg
Inviato dal vivavoce della mia Daf Variomatic
Sempre la pic pronta!
athlon xp 2400
08-03-2018, 13:54
una bella titan v e passa la paura :sofico:
TigerTank
08-03-2018, 14:11
Organizzati.https://uploads.tapatalk-cdn.com/20180308/6f8bf3bd8b84fcbd940c64f093f0d691.jpg
Ahahahah sei peggio della tortura dei legnetti sotto le unghie :sofico:
fabietto27
08-03-2018, 14:18
Sempre la pic pronta!Tu non fare il fenomeno che in tempo zero ti faccio comprare il 34" ahahahAhahahah sei peggio della tortura dei legnetti sotto le unghie :sofico:Lo faccio per il tuo bene buon Thunder....capisco e conosco ciò che ti si agita dentro.....non voglio vederti ridotto come uno Smigol qualsiasi che ti aggiri per casa urlando...Il mio ssssssilicio 😁
Inviato dal vivavoce della mia Daf Variomatic
Thunder-74
08-03-2018, 14:38
Tu non fare il fenomeno che in tempo zero ti faccio comprare il 34" ahahahLo faccio per il tuo bene buon Thunder....capisco e conosco ciò che ti si agita dentro.....non voglio vederti ridotto come uno Smigol qualsiasi che ti aggiri per casa urlando...Il mio ssssssilicio
Inviato dal vivavoce della mia Daf Variomatic
Traquillo fabiè , non ho bisogno di fare i turni al PC: Pascal non mi interessa... aspetto il nuovo ormai. Oltretutto sto giocando veramente "nulla" in questo periodo... riprenderò un po' con Far Cry 5 nei ritagli di tempo, che però scarseggia di brutto.
In questo momento le hanno tutte tranne la Titan... corri Forrest, corri :)
vero, chi fosse interessato approfittasse ;)
mikael84
08-03-2018, 15:35
Ciao Mike, tranquillo lo avevo immaginato che non acevi letto :)
Adesso sto con il cell e mi risulta difficile quotarti come vorrei, ma insomma mi pare di capire, riassumendo, che Volta sia in definitiva più "future proof" di Pascal rispetto al modo di programmare (cosa non scontata :D), direi ottimo
Hai centrato tutto.:)
Da 3dmark una Titan V a 1700/1800 sta a circa un 55% sulla TI reference, con clock più o meno simili. I picchi massimi rilevati sono stati in doom e Sniper elite, con il primo a +76%.
Purtroppo, il chip sembra avere qualche collo di bottiglia su alcuni giochi, sia via rop's/raster che via CPU bottleneck.
Per l'upgrade, io pure lo volevo fare, fui tentato moltissimo a giugno, con circa 150 euro avrei fatto il salto, però devo dire di non essermi pentito perché grazie al g-sync non soffro quando cala ai livelli che dici, adesso dopo anni di piccoli salti mi aspetto un boost notevole già con la 2070 (smenandoci di più ovvoo, la perfezione non c'è :D :cool: )
Si ci sarà, eccome....penso che la 2070 e la 1080ti saranno le schede migliori di quest'anno, in caso di offerte (meglio la prima, chiaro), la 2080 temo che avrà prezzi abbastanza elevati per quel 20% in più.
Per spendere bene, l'unica sarà la 2080ti.:)
mikael84
08-03-2018, 18:43
aspetta un attimo, ma davvero credi che la 2070 e la 1080ti a stock abbiano le stesse prestazioni? quindi ne deduco che stimi che nvidia non taglierà completamente un GPC come con la 1070, ma lascerà un paio di SM attivi in più?
[email protected] ghz → 14.3TF (3584cc) 4GPC
[email protected] ghz → 13.1TF (3840cc) 6GPC
[email protected] ghz → 12.2TF (3584cc) 6GPC-2SM
[email protected] ghz → 11.8TF (2944cc) 3GPC+2SM
[email protected] ghz → 10.8TF (2688cc) 3GPC
[email protected] ghz → 9.2TF (2560cc) 4GPC
[email protected] ghz → 6.9TF (1920cc) 3GPC
Quindi queste sono le stime a stock mi pare di capire, perciò solamente una 2070+2SM (in stile 970 per intenderci anche se aveva solo 1 SM in più) può sperare di avvicinarsi ad una 1080ti e quindi fare +50% sulla 1070... però mi pare comunque abbastanza tirata perché poi bisogna vedere l'overclock e che scali più di pascal per il discorso degli stadi moltiplicatori inferiori (tipo maxwell→pascal).
La cosa che mi lascia perplesso è vedere che nonostante uno scaling del +77% in TF tra la 1080ti e la 1070 in termini di performance questo si traduce nel +55% in QHD.
Il che non è poi molto lontano, anzi, dal +100% di TF di Vega vs Polaris con un +70% di performance, lo scaling mi pare simile tra i chip Pascal e Polaris/Vega (+70~72%).
i numeri li ho presi da CBase.de:
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-fps-2560-1440
Dici che con Volta/Ampere questo fattore si riallinerà per via dei miglioramenti ai thread di cui parla nVidia?
Sinceramente non le ho mai completamente allineate, in quanto ancora non si conoscono le specifiche finali.
Il discorso che fai tu, riguarda solo ed esclusivamente la potenza teorica, ma non tiene conto di tutti gli altri fattori (uso delle ALU e rispettive latenze, accesso e quantità L2/l1, BW effettiva, bontà rasterizzatore, accesso e latenze a quest'ultimo, efficienza rop's etc, nonchè l'utilizzo dei thread paralleli).
Basta prendere una 1080 11gb/s mediamente sotto i 1950, che già in QHD sta sotto il 17% (secondo queste medie ovviamente)
https://tpucdn.com/reviews/MSI/GTX_1080_Gaming_X_Plus_11_Gbps/images/perfrel_2560_1440.png
Diminuisci le latenze, aumenta la l2 da 2mb a 3mb, aumenta la quantità di BW (12/14gb/s), migliora la compressione, le latenze geometriche, il numero dei CC, le possibili maggiori istruzioni (meno accesso in cache) e vedrai che non starai poi molto sotto, anzi.:)
A questo vanno aggiunti i titoli che sfrutteranno al meglio i thread e la flessibilità.
Bisogna chiaramente vedere titolo per titolo, nei casi estremi, 3 GPC vs 4 (2080) la differenza sarà intorno al 25%.
L'esempio puro dei flops, lo puoi notare pure qua.
https://tpucdn.com/reviews/ASUS/GTX_1070_Ti_STRIX/images/perfrel_2560_1440.png
13% stock su stock tra 980ti e 1070 a favore di quest'ultima, eppure hanno mediamente gli stessi TF, ma la 980ti è in vantaggio sulla BW, sulla cache l1 ed l2, sulle rop's, eppure...:read:
thunderforce83
08-03-2018, 23:04
aspetta un attimo, ma davvero credi che la 2070 e la 1080ti a stock abbiano le stesse prestazioni? quindi ne deduco che stimi che nvidia non taglierà completamente un GPC come con la 1070, ma lascerà un paio di SM attivi in più?
[email protected] ghz → 14.3TF (3584cc) 4GPC
[email protected] ghz → 13.1TF (3840cc) 6GPC
[email protected] ghz → 12.2TF (3584cc) 6GPC-2SM
[email protected] ghz → 11.8TF (2944cc) 3GPC+2SM
[email protected] ghz → 10.8TF (2688cc) 3GPC
[email protected] ghz → 9.2TF (2560cc) 4GPC
[email protected] ghz → 6.9TF (1920cc) 3GPC
Quindi queste sono le stime a stock mi pare di capire, perciò solamente una 2070+2SM (in stile 970 per intenderci anche se aveva solo 1 SM in più) può sperare di avvicinarsi ad una 1080ti e quindi fare +50% sulla 1070... però mi pare comunque abbastanza tirata perché poi bisogna vedere l'overclock e che scali più di pascal per il discorso degli stadi moltiplicatori inferiori (tipo maxwell→pascal).
La cosa che mi lascia perplesso è vedere che nonostante uno scaling del +77% in TF tra la 1080ti e la 1070 in termini di performance questo si traduce nel +55% in QHD.
Il che non è poi molto lontano, anzi, dal +100% di TF di Vega vs Polaris con un +70% di performance, lo scaling mi pare simile tra i chip Pascal e Polaris/Vega (+70~72%).
i numeri li ho presi da CBase.de:
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-fps-2560-1440
Dici che con Volta/Ampere questo fattore si riallinerà per via dei miglioramenti ai thread di cui parla nVidia?
ma queste stime su 2070/2080 da dove vengono fuori?
illidan2000
09-03-2018, 10:10
ma lato memorie come stiamo messi?
Thunder-74
09-03-2018, 11:10
Si certo ci sono poi da considerare tutte le migliorie architetturali, infatti per quello in fondo ho messo come punto di domanda se con Volta/Ampere tireranno fuori qualche punto % in più oltre al dato dei TFlops, pensavo che magari sulla base del gv100 con la TitanV ci avessi ragionato :D
Però a vederla così ecco, una 2070 con un GPC completamente laserato la vedo sotto, mentre una 2070+2SM alla pari.
Il poco che si sa è che i GPC saranno composti da 7SM invece che 5SM, quindi è facile trovare il conto totale dei CC (vedi GV100 TitanV e cioè 6GPC da 5376cc con attivi 5120cc, usando 2SM per ridondanza del chip), e il resto delle migliorie che però è difficile capire quanto porteranno in % come incremento.
Mentre sui clock mi baso sulle stime che ha fatto Mikael tempo fa, e cioè intorno i 2ghz a stock.
Quello che non si sanno per certo sono gli altri aspetti come banda/tdp ma anche qua si possono fare delle stime come l'utilizzo delle gddr6 da 12/14 gbps.
La mia stima/ipotesi è che si avrà un +20% in occupazione area del chip con un +40~50% di performance medie, poi come per il caso della 2070 molto dipende come la taglieranno rispetto alla 2080.
Come vedi mikael riporta che una 1080/11g clockata 2ghz sta a -17% sulla 1080ti in QHD a stock, quindi penso che stima una 2080 a +40% sulla 1080 a quel clock, farebbe quindi 140% che diviso il 117% della 1080ti porta la 2080 a +20% da quest'ultima:
1080 stock 91%
1080-11g@2ghz 100%
1080ti stock 117%
2080 stock (2ghz) 140%
(quindi significa +50% sullo stock 1080 e +40% sulla 1080-11g@2ghz e +20% sulla 1080ti stock)
alla fine ci balla un +10% possibile dato dalle migliorie.
Credo che le tue non siano stime campate in aria... rispecchierebbero anche un certo trend visto in passato.
Sinceramente se fossi stato con una singola 980ti, avrei già fatto il cambio vga all’uscita della 1080ti e adesso stavo con il sorriso sulla bocca in attesa di eventi migliori. Il boost da Maxwell a Pascal per pari fascia (x70 - x80 - x80ti), è stato parecchio tangibile sotto ogni punto di vista , prestazionale/consumi, quindi credo che al massimo possano esserci persone che rimpiangono di non averlo fatto quando i prezzi erano più abbordabili pre-mining
Inviato dal mio iPhone X utilizzando Tapatalk
Era piu in chiave svendere senza motivo una scheda che va bene. Quando oggi paradossalmente puoi piazzarla ad un prezzo migliore.
Chiaramente nessuno si aspettava una situazione come l attuale .
Ad ogni modo io sono felice invece di non aver cambiato per l uso che ne faccio mai chip fu piu azzeccato.
Thunder-74
09-03-2018, 12:22
Era piu in chiave svendere senza motivo una scheda che va bene. Quando oggi paradossalmente puoi piazzarla ad un prezzo migliore.
Chiaramente nessuno si aspettava una situazione come l attuale .
Ad ogni modo io sono felice invece di non aver cambiato per l uso che ne faccio mai chip fu piu azzeccato.
Si ad oggi, aspetta sereno se non hai bisogno :).
thunderforce83
09-03-2018, 14:59
Si certo ci sono poi da considerare tutte le migliorie architetturali, infatti per quello in fondo ho messo come punto di domanda se con Volta/Ampere tireranno fuori qualche punto % in più oltre al dato dei TFlops, pensavo che magari sulla base del gv100 con la TitanV ci avessi ragionato :D
Però a vederla così ecco, una 2070 con un GPC completamente laserato la vedo sotto, mentre una 2070+2SM alla pari.
Il poco che si sa è che i GPC saranno composti da 7SM invece che 5SM, quindi è facile trovare il conto totale dei CC (vedi GV100 TitanV e cioè 6GPC da 5376cc con attivi 5120cc, usando 2SM per ridondanza del chip), e il resto delle migliorie che però è difficile capire quanto porteranno in % come incremento.
Mentre sui clock mi baso sulle stime che ha fatto Mikael tempo fa, e cioè intorno i 2ghz a stock.
Quello che non si sanno per certo sono gli altri aspetti come banda/tdp ma anche qua si possono fare delle stime come l'utilizzo delle gddr6 da 12/14 gbps.
La mia stima/ipotesi è che si avrà un +20% in occupazione area del chip con un +40~50% di performance medie, poi come per il caso della 2070 molto dipende come la taglieranno rispetto alla 2080.
Come vedi mikael riporta che una 1080/11g clockata 2ghz sta a -17% sulla 1080ti in QHD a stock, quindi penso che stima una 2080 a +40% sulla 1080 a quel clock, farebbe quindi 140% che diviso il 117% della 1080ti porta la 2080 a +20% da quest'ultima:
1080 stock 91%
1080-11g@2ghz 100%
1080ti stock 117%
2080 stock (2ghz) 140%
(quindi significa +50% sullo stock 1080 e +40% sulla 1080-11g@2ghz e +20% sulla 1080ti stock)
alla fine ci balla un +10% possibile dato dalle migliorie.
ottimo...il tuo discorso ci sta tutto quindi credo proprio che mi rassegno ad aspettare a settembre le prossime schede :D
mikael84
09-03-2018, 15:25
Si certo ci sono poi da considerare tutte le migliorie architetturali, infatti per quello in fondo ho messo come punto di domanda se con Volta/Ampere tireranno fuori qualche punto % in più oltre al dato dei TFlops, pensavo che magari sulla base del gv100 con la TitanV ci avessi ragionato :D
Però a vederla così ecco, una 2070 con un GPC completamente laserato la vedo sotto, mentre una 2070+2SM alla pari.
Questo perchè continui a fare 1 a 1 sui flops, tralasciando tutto il resto.
Tu fai questo ragionamento, ma come ti ho fatto vedere con la 1070, non vai ad 1/1 :fagiano:
2944/2ghz (circa) 5,8tf
3584cc/1650(circa) 5,9tf.
Se la 1070 a pari flops, aveva anche i maggiori stadi della TI, gli stava il 20% avanti.:)
Anche il lavoro elettrico è importante, e non solo per i clock, con Pascal hanno rivisto i circuiti.
Si mi pare di ricordare che sia così perché lo è GV100, ma chissà magari ce ne ficcano direttamente 8 di SM, così facendo faresti un GA102 da 600mmq e un GA104 da 400mmq... proprio come Maxwell :read:
ps. e GA106 da 250mmq (per via del collegamento in più)
con 7SM si ha che il GPC diventa grande circa 93~95mmq (con 64bit e 16rops, 2-3mb L2), con 8SM diventerebbe quindi 100~102 mmq dato che ogni SM è circa 7-8~mmq...
Magari ci fanno la sorpresa dato che è un chip spoglio di tutto ciò che non è gaming, gli basterebbe pompare leggermente i TDP per farlo, e verrebbe fuori una 2080 da 4096cc@2ghz :sofico: una Vega in salsa nVidia.
Un SMM è grande circa 5,56mmq, 7,5mmq il Tesla FP64.
Quindi teoricamente un GV104 a 7 TPC dovrebbe essere grande 358/360 a cui andrà aggiunto 1mb l2.
Sugli 8 TPC, penso sia uno dei primi lanci a 7nm, però bisogna trovare il modo di raddoppiare le rop's e chiudere con dei raster da 32 rop's, altrimenti la freni troppo.
GX104 4096cc/128rop's a 2,4ghz. :eek:
mikael84
09-03-2018, 18:30
Ok, quindi presumi che scalerà meglio in quanto a performance/Tflops.
Secondo me non ci tornano i numeri perché io considero una cosa diversa, io considero l'SM in toto e mi sono accorto mentre scrivevo quindo che lo chiamo SM ma in realtà è il TPC, e quindi non solamente la ALU fp32 con unità specializzate.
per i TPC ricordavo che quelli di GV100 con la FP64+TC fossero 10.5mmq :stordita: mentre quelli da Gaming quindi senza le cose "inutili" soltanto 7.5mmq, anche perché poi (7.5mmq +40% di spazio = 10.5mmq)
Mah, secondo me già Ampere clockato bene può reggere gli 8TPC con il GPC attuale da 16rops (64rops@2ghz = 128gp/s e cioè quasi come la 1080ti
[email protected] = 150gp/s), poi con il 7nm raddoppi le rops quindi 32 e ci metti 10TPC → 5120cc/128rops, in pratica doppi come hardware una 1080, ma per il clock le variabili sono troppe attualmente, ma si circa +20% i clock ci può stare.
C'è il TPC e l'SM, quest'ultimo è a sua volta diviso in 2 su i chip tesla. Quindi 2 SM per TPC.
Riguardo al totale TPC volta, siamo intorno agli 8,8/9mmq2, mentre salvo stravolgimenti, rimarrà a 5,5 (circa) sui chip gaming, visto che come Pascal verrà spogliato di tutto.
Rispetto a Pascal, cambia il collegamento alla l2, dove ogni GPC è più grosso (4/6mb).
Levando i due canali a vuoto di Tesla ti rimangono poco più di 700mmq2.;)
techsaskia
10-03-2018, 12:57
ragazzi una delle mie schede mi ha lasciato...
sembra che le 980Ti durino 2 anni. sul forum di EVGA è strapieno di utenti con 980Ti bruciate nonostante overclock assolutamente non spinti.
insomma una delle due schede mi ha lasciato. adesso ho solo una 980Ti che ad oggi serve a poco e a niente.
non so nemmeno se mandare in RMA l'altra per via dello sbatti, secondo voi quanto vale una 980Ti oggi? vale la pena di mandarla in RMA?
niente, sono sempre + convinta di dover saltare sulle 2080... speriamo che non abbiano prezzi folli.
Legolas84
10-03-2018, 13:17
Scusami, hai una EVGA che è Top per gli RMA, garanzia di 3 anni e gestione rapida e trasparente del cambio e non vorresti usufruire della garanzia?????? :fagiano:
Contattali subito e fatti cambiare sta scheda va....
TigerTank
10-03-2018, 13:26
ragazzi una delle mie schede mi ha lasciato...
sembra che le 980Ti durino 2 anni. sul forum di EVGA è strapieno di utenti con 980Ti bruciate nonostante overclock assolutamente non spinti.
insomma una delle due schede mi ha lasciato. adesso ho solo una 980Ti che ad oggi serve a poco e a niente.
non so nemmeno se mandare in RMA l'altra per via dello sbatti, secondo voi quanto vale una 980Ti oggi? vale la pena di mandarla in RMA?
niente, sono sempre + convinta di dover saltare sulle 2080... speriamo che non abbiano prezzi folli.
Beh ma in fondo, anche con i titoli che non hanno supporto Sli finora hai avuto solo una gtx980Ti. Comunque concordo con Legolas84, vai di garanzia ;)
Poi per le prossime si vedrà, per ora si sa poco o nulla.
ragazzi una delle mie schede mi ha lasciato...
sembra che le 980Ti durino 2 anni. sul forum di EVGA è strapieno di utenti con 980Ti bruciate nonostante overclock assolutamente non spinti.
insomma una delle due schede mi ha lasciato. adesso ho solo una 980Ti che ad oggi serve a poco e a niente.
non so nemmeno se mandare in RMA l'altra per via dello sbatti, secondo voi quanto vale una 980Ti oggi? vale la pena di mandarla in RMA?
niente, sono sempre + convinta di dover saltare sulle 2080... speriamo che non abbiano prezzi folli.
sbattimento?
basta che mandi la scheda in germania, spendi 10/15 euro.
Te ne mandano una refurbished in poco tempo, 4-5 giorni lavorativi dalla ricezione della guasta.
Legolas84
10-03-2018, 13:31
Se accetti di farti bloccare il valore della scheda sulla carta di credito ti mando immediatamente una nuova scheda e ti sbloccano i soldi quando ricevono la guasta :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
aled1974
10-03-2018, 14:01
ragazzi una delle mie schede mi ha lasciato...
sembra che le 980Ti durino 2 anni. sul forum di EVGA è strapieno di utenti con 980Ti bruciate nonostante overclock assolutamente non spinti.
insomma una delle due schede mi ha lasciato. adesso ho solo una 980Ti che ad oggi serve a poco e a niente.
non so nemmeno se mandare in RMA l'altra per via dello sbatti, secondo voi quanto vale una 980Ti oggi? vale la pena di mandarla in RMA?
niente, sono sempre + convinta di dover saltare sulle 2080... speriamo che non abbiano prezzi folli.
considerando il sovrapprezzo del mercato dell'usato e la next gen prevista per l'autunno, IMHO eccome se vale la pena "lo sbatti" :mano:
anzi, io in ogni caso ci perderei quei 15 euro che leggo poco sopra anche se i prezzi fossero normali, lo sbattimento non mi sembra poi molto a fronte di una rivendita con guadagno da circa 350 euro oggi
poi boh vedi tu, se effettivamente per te sti soldi non valgono la pena di una spedizione allora portala all'isola ecologica o vendila come guasta, tanto anche così vedo che le schede video vanno via come il pane in tempo fame ;)
ciao ciao
walter.caorle
10-03-2018, 14:20
Assolutamente rma, anche se fossero 50€ figuriamoci 300 e passa... Sul ticket é meglio specificare che ti serve per lo sli :stordita:
Tocca ingannare l'attesa:
https://thumb.ibb.co/eJEN07/IMG_20180309_221705.jpg (https://ibb.co/eJEN07)
Tocca ingannare l'attesa:
https://thumb.ibb.co/eJEN07/IMG_20180309_221705.jpg (https://ibb.co/eJEN07)
:eek: 2265 sulla gpu a 1.11?! ma i voltaggi non murano a 1.09 in ov? 53°C e niente tagli di temp? ha una shunt mode? se è una 1080 ci riprendi la Ti stock a quelle frequenze con molta probabilità...e se invece è una 1080ti, alla faccia della scheda fortunata :rolleyes: :mbe:
:eek: 2265 sulla gpu a 1.11?! ma i voltaggi non murano a 1.09 in ov? ha una shunt mode? se è una 1080 ci riprendi la Ti stock a quelle frequenze con molta probabilità...e se invece è una 1080ti, alla faccia della scheda fortunata :rolleyes: :mbe:
1080 con bios unlocked, ha ancora margine ma essendo una reference a liquido (sottodimensionato) forse e' meglio non esagerare, qua era con ventole semispente senno' si attesta sui 49C...
caccapupu91
10-03-2018, 19:47
1080 con bios unlocked, ha ancora margine ma essendo una reference a liquido (sottodimensionato) forse e' meglio non esagerare, qua era con ventole semispente senno' si attesta sui 49C...
pascal? bios unlocked? quando e come? aaaaaa
Legolas84
10-03-2018, 20:17
C’è un bios Asus.... sicuramente esclude il power limit... 😊
Inviato dal mio iPhone utilizzando Tapatalk Pro
techsaskia
10-03-2018, 23:18
Scusami, hai una EVGA che è Top per gli RMA, garanzia di 3 anni e gestione rapida e trasparente del cambio e non vorresti usufruire della garanzia?????? :fagiano:
Contattali subito e fatti cambiare sta scheda va....
va bene ... però che barbonazzi, mi potevano mandare una 1080Ti in cambio...
thunderforce83
11-03-2018, 02:17
Questo perchè continui a fare 1 a 1 sui flops, tralasciando tutto il resto.
Tu fai questo ragionamento, ma come ti ho fatto vedere con la 1070, non vai ad 1/1 :fagiano:
2944/2ghz (circa) 5,8tf
3584cc/1650(circa) 5,9tf.
Se la 1070 a pari flops, aveva anche i maggiori stadi della TI, gli stava il 20% avanti.:)
Anche il lavoro elettrico è importante, e non solo per i clock, con Pascal hanno rivisto i circuiti.
Un SMM è grande circa 5,56mmq, 7,5mmq il Tesla FP64.
Quindi teoricamente un GV104 a 7 TPC dovrebbe essere grande 358/360 a cui andrà aggiunto 1mb l2.
Sugli 8 TPC, penso sia uno dei primi lanci a 7nm, però bisogna trovare il modo di raddoppiare le rop's e chiudere con dei raster da 32 rop's, altrimenti la freni troppo.
GX104 4096cc/128rop's a 2,4ghz. :eek:
ragazzi per cortesia parlate per i comuni mortali:D in pratica cosa ci dobbiamo aspettare dalla prossima generazione 2070/2080?
intanto complimenti per la dialettica tecnica che la dice lunga sul tuo sapere sulle gpu...
appleroof
11-03-2018, 10:50
ragazzi per cortesia parlate per i comuni mortali:D in pratica cosa ci dobbiamo aspettare dalla prossima generazione 2070/2080?
intanto complimenti per la dialettica tecnica che la dice lunga sul tuo sapere sulle gpu...
2070 circa come una 1080ti, 2080 a spanne +20/30% sulla 1080ti, in dx12 il vantaggio dovrebbe migliorare ulteriormente :fagiano:
appleroof
11-03-2018, 12:58
Secondo me avete aspettative troppo alte
Mi baso su quanto successo finora da Kepler in poi, ovviamente siamo ancora nel campo dell'opinabile
fraussantin
11-03-2018, 15:26
1170 è brutto come nome.
2000 seires è più figo
illidan2000
12-03-2018, 12:04
È un'ipotesi ma siamo praticamente tutti d'accordo che 11xx faccia schifo :D
sono d'accordo che 11xx possa essere la prossima nomenclatura
VanCleef
12-03-2018, 12:31
Boh, so solo che essendo generazioni dopo 10 viene 11, ma "esteticamente" mi sembra decisamente meglio 20
Huawei style... Parlo della serie P. Vabbè che sono riusciti a far uscire due P8 lite in anni diversi...
TigerTank
12-03-2018, 13:43
sono d'accordo che 11xx possa essere la prossima nomenclatura
Naaa secondo me spareranno la "serie duemila" che a livello pubblicitario suona meglio di "millecento" :D
fraussantin
12-03-2018, 13:57
Huawei style... Parlo della serie P. Vabbè che sono riusciti a far uscire due P8 lite in anni diversi...
quello per altri motivi .. il p8 lite aveva un''nome'' sulle spalle un po come il nokia 3310
illidan2000
12-03-2018, 14:17
Naaa secondo me spareranno la "serie duemila" che a livello pubblicitario suona meglio di "millecento" :D
vedremo.... se vanno avanti a migliaia, presto avremo la gtx 10000 :)
fraussantin
12-03-2018, 14:28
vedremo.... se vanno avanti a migliaia, presto avremo la gtx 10000 :)
ma no semplicemente cambiaranno magari in gtC ...
Credo che ormai non siano tanto le prestazioni il punto cruciale ma i prezzi.
esatto.
vedremo.... se vanno avanti a migliaia, presto avremo la gtx 10000 :)Neanche ci arrivano, cambieranno nome.
Si parla comunque di roba che vedremo tra 18/20 anni (se la vedremo)
Inviato dal mio XT1068 utilizzando Tapatalk
Legolas84
12-03-2018, 14:56
La prima GeForce si chiamava GeForce 256.... possono chiamarla un pò come vogliono l'importante è che la qualità rimanga quella che li ha sempre contraddistinti (NV30 a parte).
appleroof
12-03-2018, 18:00
Per i più tecnici, interessante - secondo me- post sul forum di b3d:
A few quick points:
According to my tests, Titan V has less geometry performance: 21 geometry engines vs 28 geometry engines on Titan X (1 engine shared per 4 SMs vs 1 engine per SM).
I've done some low-level analysis of the Volta tensor cores (including instruction set), and my personal opinion is it's a somewhat rushed and suboptimal design. I think there's significant power efficiency gains to be had by rearchitecting it in the next-gen.
There's some interest in FP8 (1s-5e-2m) even for training in the research community and Scott Gray hinted it would be available on future GPUs/AI HW in the next year or two; so it's likely NVIDIA will support it, let alone because Jen-Hsun likes big marketing numbers...
groq (startup by ex-Google TPU HW engineers) looks like they might be using use 7nm for a chip sampling before the end of the year; so there might be some pressure for NVIDIA to follow sooner than later. Remember than 7nm might be (much?) less cost efficient initially, but should still be more power efficient.
My personal guess is that we'll have 2 new NVIDIA architectures in 2018, both derived from Volta (e.g. still dual-issue with 32-wide warps and 32-wide register file but 16-wide ALUs) with incremental changes for their target markets:
Gaming architecture on 12nm (also for Quadro). Might include 2xFP16 and/or DP4A-like instructions for inferencing, but no Tensor Cores or FP64. Availability within 3-6 months. (il post è di martedì scorso ndr)
HPC/AI architecture on 7nm with availability for lead customers in Q4 2018, finally removing the rasterisers/geometry engines/etc... (not usable for GeForce/Quadro).
I'm going to write up what I've found out about the V100 Tensor Cores in the next week or so and hopefully publish it soon - probably just as a blog post on medium, not sure yet... (haven't written anything publicly in ages and sadly the Beyond3D frontpage doesn't have much traffic these days other suggestions welcome though!)
TigerTank
12-03-2018, 18:23
vedremo.... se vanno avanti a migliaia, presto avremo la gtx 10000 :)
beh presto non direi Illy :D
Se calcoli un "migliaio" ogni 2 anni, e che la 2000 esce quest'anno, ai 10000 ci arrivano tra 16 anni, calcolando un paio di anni a generazione :sofico:
techsaskia
12-03-2018, 20:10
ma avete visto che schifo che ha fatto nvidia con il GPP?
compro nvidia per interesse ma spero sempre che AMD le rompa il sedere a calci.
techsaskia
12-03-2018, 21:21
Se non fossimo capre inizieremmo a comprare prevalentamente da brand multi-marca (MSI, Asus) e non da quelli single-brand (Evga, Zotac) per difendere i nostri interessi di consumatore.
Ma siamo nati per belare, e quindi sempre di più la VGA dovremo pagare... :D
non è che comprando da Asus risolvi il problema.
io personalmente quando posso stare lontano da Asus ci sto volentieri, sono famosi per avere un'assistenza pessima e quindi io per fare i miei interessi scelgo il brand che ha la migliore assistenza.
Legolas84
12-03-2018, 21:26
Adesso non solo chi compra NVIDIA è un fesso che di hardware non capisce niente, ma finalmente hanno ricevuto la benedizione anche tutti quelli che comprano EVGA, Zotac e marchi monobrand :asd:
techsaskia
12-03-2018, 21:28
Adesso non solo chi compra NVIDIA è un fesso che di hardware non capisce niente, ma finalmente hanno ricevuto la benedizione anche tutti quelli che comprano EVGA, Zotac e marchi monobrand :asd:
eh ragazzi, il mondo diventa sempre più difficile,
vi lascio con una saggia citazione: "sembrava ieri che era oggi".
techsaskia
12-03-2018, 21:55
...poi non vi lamentate se la VGA costa miliardi però :)
L'assistenza cmq ve la deve fornire chi l'ha venduta, non il produttore.
rispetto l'opinione di tutti ma ormai le ho sentite tutte :D
mi manca solo di sentire che il prezzo delle GPU è aumentato per via del reddito di cittadinanza.
Legolas84
12-03-2018, 22:14
Vuoi una risposta seria? Attualmente NVIDIA produce schede migliori, EVGA e Zotac garantiscono assistenza diretta e vantaggi sulla garanzia così come Galax.
Ci sono altre aziende che vogliono i miei soldi? Si mettano a produrre schede migliori di NVIDIA e gli altri brand si mettano ad offrire vantaggi superiori a quelli citati sopra.
Di sicuro non compro perchè preferisco un marchio o perchè spero che se do i miei soldi ad AMD allora sconfiggerà NVIDIA :asd: (mettendola proprio su un discorso da bimbi)
Semplicemente i miei soldi li do a chi produce il prodotto che reputo migliore e per me più conveniente.
Quando NVIDIA buttò fuori NV30 tutti qui parlarono di fail. Tutti avevano delle Radeon nel case in quel tempo compreso io. La situazione tornò a stabilizzarsi un poco con NV35, ma nessuno in quel tempo si sognava di difendere NVIDIA, non qui almeno.
Idem con Prescott vs il GLORIOSO Athlon64.
Ora invece non si riesce ad accettare che qualcuno dovrebbe rimboccarsi le maniche e lavorare sodo invece di aspettare la carità dell'utenza. E tengo a precisare che questo vale per il gaming, perchè nel mining non mi pare che AMD abbia problemi, anzi....
Legolas84
12-03-2018, 22:50
Guarda che AMD non c'entra proprio niente in questo discorso.
Ti sta bene che vengano fatte politiche di cartello per tenere alti i prezzi? Be my guest, a me pare poco razionale.
I prezzi in questo momento sono alti per motivi che con le “politiche di cartello” c’entrano ben poco.
Le politiche di cartello esistono eccome e hanno già coinvolto AMD e NVIDIA
https://www.tomshw.it/amd-nvidia-cartello-2-milioni-dollari-18315
Semplicemente trovo assurdo il tuo discorso che chi compra da brand monomarca sia una pecora belante. Io nemmeno ci ho mai pensato al fatto che EVGA è monobrand, ma è una delle poche Marche che si può comprare tranquillamente anche da siti che non offrono una buona assistenza risparmiando un bel po e potendo però anche contare su un servizio top.
Comprare una Gigabyte al posto di una Galax non cambierà un bel niente, i prezzi salgono per il mining e per l’ingordigia di NVIDIA e AMD... (che come vedi pure si accordano per spennarci, e alcuni utenti stanno pure qui a litigare per quale marchio è più etico dell’altro :asd: )
Inviato dal mio iPhone utilizzando Tapatalk Pro
Simedan1985
13-03-2018, 00:15
Il cartello esiste eccome...ieri ho trovato una vecchia fattura dove avevo acquistato una 4870x2 a 390 euro!! Di che cosa stiamo parlando??
mikael84
13-03-2018, 01:18
Per i più tecnici, interessante - secondo me- post sul forum di b3d:
A few quick points:
According to my tests, Titan V has less geometry performance: 21 geometry engines vs 28 geometry engines on Titan X (1 engine shared per 4 SMs vs 1 engine per SM).
I've done some low-level analysis of the Volta tensor cores (including instruction set), and my personal opinion is it's a somewhat rushed and suboptimal design. I think there's significant power efficiency gains to be had by rearchitecting it in the next-gen.
There's some interest in FP8 (1s-5e-2m) even for training in the research community and Scott Gray hinted it would be available on future GPUs/AI HW in the next year or two; so it's likely NVIDIA will support it, let alone because Jen-Hsun likes big marketing numbers...
groq (startup by ex-Google TPU HW engineers) looks like they might be using use 7nm for a chip sampling before the end of the year; so there might be some pressure for NVIDIA to follow sooner than later. Remember than 7nm might be (much?) less cost efficient initially, but should still be more power efficient.
My personal guess is that we'll have 2 new NVIDIA architectures in 2018, both derived from Volta (e.g. still dual-issue with 32-wide warps and 32-wide register file but 16-wide ALUs) with incremental changes for their target markets:
Gaming architecture on 12nm (also for Quadro). Might include 2xFP16 and/or DP4A-like instructions for inferencing, but no Tensor Cores or FP64. Availability within 3-6 months. (il post è di martedì scorso ndr)
HPC/AI architecture on 7nm with availability for lead customers in Q4 2018, finally removing the rasterisers/geometry engines/etc... (not usable for GeForce/Quadro).
I'm going to write up what I've found out about the V100 Tensor Cores in the next week or so and hopefully publish it soon - probably just as a blog post on medium, not sure yet... (haven't written anything publicly in ages and sadly the Beyond3D frontpage doesn't have much traffic these days other suggestions welcome though!)
No Apple, è una cosa impensabile, a meno che non si dimostrino questi test.
Nei ratio teorici dovrebbe risultare.:)
Ad esempio, non voglio parlare della concorrenza, ma è un buon mezzo per capire che la Titan V non si può paragonare nel gaming.
Vega ad esempio (chip a quanto pare pensato per altro) non ha abilitato neppure la compressione (utilizzata su Fury), questo succede anche nella Titan v sicuramente, guardando i minimi.
https://abload.de/thumb/lmks5rob.png (http://abload.de/image.php?img=lmks5rob.png)
Il vero Volta/Ampere dovremmo vederlo, e di certo non è una questione geometrica, ma di puro sfruttamento/clock/memoria/compressione :)
Charo che mantiene tutte le caratteristiche, almeno hardware delle Tesla.
TigerTank
13-03-2018, 08:51
...poi non vi lamentate se la VGA costa miliardi però :)
L'assistenza cmq ve la deve fornire chi l'ha venduta, non il produttore.
Guarda che a parte Amazon(venduto e spedito da) "chi te l'ha venduta" per la garanzia poi si rifà ad eventuali distributori o appunto direttamente ai produttori. Se poi la compri presso un vat player o un dropshipper, meglio se ti metti a pregare perchè facile che i tempi diventino eterni :D
Se si compra una vga da svariate centinaia di €, meglio avere il fondoschiena parato...il che significa raro shop con un solido post-vendita o produttore che offre garanzia diretta tipo Evga. Tralasciando le schede "pompate" come le Classified o le Kingpin, le altre acx in condizioni di mercato "normali" hanno prezzi in linea con le altre dotate dei semplici 2 anni di garanzia tramite venditore.
fraussantin
13-03-2018, 09:26
https://www.tomshw.it/nvidia-p102-100-gtx-1080-ti-castrata-minare-92213
Thunder-74
13-03-2018, 11:23
https://www.tomshw.it/nvidia-p102-100-gtx-1080-ti-castrata-minare-92213
Speriamo!!!
EDIT: Notizie "Verdi":
LINK Turing (https://overclock3d.net/news/gpu_displays/nvidia_s_turing_series_of_gpus_are_expected_to_enter_mass_production_in_q3/1)
LINK nVidia e il mining (http://www.guru3d.com/news-story/nvidia-cautious-that-possible-cryptocurrency-demand-might-drop.html)
caccapupu91
13-03-2018, 11:37
che si traduce in "valanga di gpu usate esauste" xD
fraussantin
13-03-2018, 12:56
Cmq lato garanzia , si presuppone sempre che il prodotto venga utilizzato in scopi previsti .
L'uso non consono di un prodotto invalida sempre la garanzia.
Tipo se compro un auto da strada e ci faccio il rally e si rompe qualcosa se ne accorgono col cazzo che la riparano gratis
TigerTank
13-03-2018, 13:24
Esistono due tipi di garanzia: quella "di legge" e quella "convenzionale" (in america "limited warranty").
La limited warranty è quella del produttore, che normalmente è quella che usa chi ha una partita IVA (ovvero il negoziante). Ma tu privato puoi chiedere che venga applicata la garanzia di legge, che è molto più potente di solito, regolata dal codice del consumo. Come funziona? Semplice, per due anni (e due mesi) tu puoi contestare al venditore qualsiasi difetto di conformità. Questo rende nullo il contratto di vendita e ti dà diritto ad un rimborso completo del prezzo d'acquisto, senza che tu debba pagare nulla (nemmeno le spese di spedizione per il reso) entro i tempi previsti dalla legge (che ora a memoria non ricordo).
Poi ovviamente i venditori preferiscono indirizzarti sulla garanzia del produttore perché a loro conviene (non foss'altro che per le spese di spedizione) ma tu sei tutelato da entrambe le garanzie e puoi scegliere di volta in volta quale applicare. Basta che quando ti dicono "caro cliente devi fare così così e cosà" tu rispondi "caro venditore, la ringrazio ma desidero che venga applicata la garanzia di legge, come da codice del consumo, che prevede la restituzione del prodotto non conforme ed il rimborso completo, senza nessun onere a mio carico".
Notare poi che la "non conformità" è un concetto molto più potente del "difetto". Non conformità = non rispetta le promesse fatte in fase di vendita (pubblicità compresa). Ovviamente se si rompe non rispetta nessuna promessa :D ma il concetto è molto più largo (per intenderci, se sulla scatola c'è scritto che fa i 1860 mhz ma poi nel tuo case non ci arriva perché a quei livelli ci arriva solo in discesa col vento a favore) è non conforme.
IMHO l'unico caso nel quale ha senso curarsi di una limited warranty molto buona è quando compri dal VAT player a prezzo improbabile (a tutti gli effetti incauto acquisto).
Eh, magari fosse tutto rose e fiori come scrivi. Tra teoria e realtà spesso c'è un abisso dove per ottenere quanto scritto qui sopra ti tocca un'odissea di sbattimento, per non parlare delle perdite di tempo per disponibilità fasulle :D
In quanto a vga nuove i principali suggerimenti di tutela post vendita credo che ormai siano: comprarla da nvidia, comprarla da evga, acquistare evga o KFA2 per la garanzia diretta smarcandosi dallo shop, comprare tutte le altre principalmente su amazon.
Giovamas
13-03-2018, 14:10
https://www.tomshw.it/nvidia-p102-100-gtx-1080-ti-castrata-minare-92213
incrociamo le dita... :)
Basta che castrano quelle gaming in modo da non renderle convenienti per minare. Assieme a queste siamo salvi.
Basta che castrano quelle gaming in modo da non renderle convenienti per minare. Assieme a queste siamo salvi.
Il problema è di stampo legale, non puoi farlo...
Luca1980
13-03-2018, 14:32
Però potrebbero fare BIOS non flashabili e set di driver separati in modo da fornire prestazioni antieconomiche in mining.
appleroof
13-03-2018, 14:35
No Apple, è una cosa impensabile, a meno che non si dimostrino questi test.
Nei ratio teorici dovrebbe risultare.:)
Ad esempio, non voglio parlare della concorrenza, ma è un buon mezzo per capire che la Titan V non si può paragonare nel gaming.
Vega ad esempio (chip a quanto pare pensato per altro) non ha abilitato neppure la compressione (utilizzata su Fury), questo succede anche nella Titan v sicuramente, guardando i minimi.
https://abload.de/thumb/lmks5rob.png (http://abload.de/image.php?img=lmks5rob.png)
Il vero Volta/Ampere dovremmo vederlo, e di certo non è una questione geometrica, ma di puro sfruttamento/clock/memoria/compressione :)
Charo che mantiene tutte le caratteristiche, almeno hardware delle Tesla.
Non posso giudicare Mike, è troppo tecnico per le mie conoscenze. Mi limito a dire che l'autore del post è Arun, mod di quel forum frequentato sopratutto da ingegneri e veri e propri addetti ai lavori (anche pezzi grossi).
Comunque prendo atto della tua opinoone, l'ho postato proprio per chiedere un parere dai più tecnici :D
Cmq nel frattempo...https://www.tomshw.it/nvidia-p102-100-gtx-1080-ti-castrata-minare-92213
fraussantin
13-03-2018, 14:50
Il problema è di stampo legale, non puoi farlo...Certo che puoi
AceGranger
13-03-2018, 15:30
Il problema è di stampo legale, non puoi farlo...
scusa ma mi sfugge il perchè sarebeb illegale.
le QUADRO come credi che le facciano ? sono esattamente come le GTX solo che hanno driver specifici e sul PCB hanno delle resistenze differenti che, a seconda del loro valore, "dicono" ai driver se sono Quadro, GTX o Tesla; nelle ultime versioni hanno anche qualche cosa in piu oltre le resistenze, perchè non si sono piu visti gli hrd mod ( che io sappia magari ci sono ancora ).
potrebbero tranquillamente fare una nuova linea di GPU, chiamarla Miner, e fare driver differenti per GTX e Miner; il problema è che il mondo del mining è molto instabile e dovrebbero "scommettere" che l'andamento continui cosi e quindi investire a lungo termine per creare una nuova linea di GPU; se fosse stato un mercato meno fluttuante, avremmo avuto una linea di GPU Miner gia da tempo.
fraussantin
13-03-2018, 15:38
ma dove non puoi farlo?
le QUADRO come credi che le facciano ? sono ESATTAMENTE come le GTX solo che hanno loro driver e sul PCB hanno delle resistenze differenti che, a seconda del valore, "dicono" ai driver se sono Quadro, GTX o Tesla.
potrebbero tranquillamente fare una nuova linea di GPU, chiamarla Miner, e fare driver differenti per GTX e Miner; il problema è che il mondo del mining è molto instabile e dovrebbero "scommettere" che l'andamento continui cosi e quindi investire a lungo termine per creare una nuova linea di GPU.
se fosse stato un mercato meno fluttuante, avremmo avuto una linea di GPU Miner gia da tempo.
Il problema base è che sempre dallo stesso forno escono.
Se hanno una produttività per 100 chip al mese ( per dire)
A cose standard( sempre per ipotesi) 10 vanno sulle quadro 90 sulle gtx e le pappano i miner.
Facendo quello che tutti speriamo 10 andrebbero alle quadro , 45 sulle mining e 45 sulle gtx.
In questo modo avremmo delle schede da comprare noi , ma sarebbero cmq un numero inferiore a quello richiesto e il prezzo rimarrebbe alto.
Però almeno nvidia si tutela il mercato pc gaming e scongiura l'invasione di gpu usate ex mining.
Scusate la domanda, ma a Nvidia cosa volete che importi chi compra le schede e come le utilizza?
A lei interessa solo venderle, giustamente...:mbe:
X-ray guru
13-03-2018, 15:53
scusa ma mi sfugge il perchè sarebeb illegale.
Sarebbe illegale scoraggiare l'uso mining sulle schede attuali con trick hardware e software, dato che escono dal progetto con una destinazione d'uso molto generica e con dichiarate certe prestazioni sui CUDA core, ecc.
Se invece Nvidia decidesse di fare delle schede tra loro simili, ma sue due linee di prodotto diverse (per game e mining), potrebbe farlo benissimo ma dovrebbe tenere in piedi due linee di prodotto invece di una, con costi aggiuntivi potenzialmente forti (certificazioni diverse, assistenza post-vendita diversa, marketing diverso, commerciale diverso, ecc.)
fraussantin
13-03-2018, 15:54
Scusate la domanda, ma a Nvidia cosa volete che importi chi compra le schede e come le utilizza?
A lei interessa solo venderle, giustamente...:mbe:Gli importa e come. Si è detto più volte e lei stessa lo ha dichiarato
Ci Tiene ad avere una clientela stabile e sicura comec i pc gamer . Prenderli a calci in culo per "servire" i miner non è cosa saggia. Se il mining finisce e i gamer sono andati tutti vs le console riconquistarli sarebbe dura.
appleroof
13-03-2018, 17:12
scusa ma mi sfugge il perchè sarebeb illegale.
le QUADRO come credi che le facciano ? sono esattamente come le GTX solo che hanno driver specifici e sul PCB hanno delle resistenze differenti che, a seconda del loro valore, "dicono" ai driver se sono Quadro, GTX o Tesla; nelle ultime versioni hanno anche qualche cosa in piu oltre le resistenze, perchè non si sono piu visti gli hrd mod ( che io sappia magari ci sono ancora ).
potrebbero tranquillamente fare una nuova linea di GPU, chiamarla Miner, e fare driver differenti per GTX e Miner; il problema è che il mondo del mining è molto instabile e dovrebbero "scommettere" che l'andamento continui cosi e quindi investire a lungo termine per creare una nuova linea di GPU; se fosse stato un mercato meno fluttuante, avremmo avuto una linea di GPU Miner gia da tempo.
quoto
fraussantin
13-03-2018, 17:27
L'unico modo per non far minare è BIOS firmato e driver che legge la firma per installarsi, con in più un timer di aggiornamento del driver che se non lo aggiorni taglia le prestazioni progressivamente. Altrimenti tengo un driver vecchio e poi ci faccio girare l'algoritmo di hash nuovo che quel driver non sega e siamo da capo. Insomma mi sembra complicato.
L'alternativa è che gli AiB si fottano e nVidia è AMD comincino a fare solo vendita diretta limitando i possibili acquisti per persona, ancora più improbabile.Beh con la serie 2000 dovrai per forza usare un driver nuovo.
Cmq il blocco deve essere via hw altrimenti gli cambiano il bios e saluti.
Un po come il blocco k sui processori intel.c
X-ray guru
13-03-2018, 17:39
Che mondo strano: tutti a farsi seghe mentali su chi mangia carne, sulle energie rinnovabili, sull'inquinamento e l'ecologia e poi si buttano nel cesso (anzi, nell'atmosfera) TeraWatt giornalieri per scambiarsi le faccine sui social e minare...:confused: :confused:
Se invece Nvidia decidesse di fare delle schede tra loro simili, ma sue due linee di prodotto diverse (per game e mining), potrebbe farlo benissimo ma dovrebbe tenere in piedi due linee di prodotto invece di una, con costi aggiuntivi potenzialmente forti (certificazioni diverse, assistenza post-vendita diversa, marketing diverso, commerciale diverso, ecc.)
Esatto, ed è quello che intendevo io. Vedrete che qualcosa lo faranno in tal senso. Tanto per cominciare nessuno gioca 24/7 (credo ;) ).
mirkonorroz
13-03-2018, 20:31
Ma di solito chi fa mining "serio", non ha le motherboard con tanti slot e li riempie di schede?
Non basterebbe produrre tot schede "sbloccate" per il mining e tot "bloccate" per il gaming, bloccandole via HW facendo in modo che, senza software, con del firmware in rom o comunque a livello elettrico, ci sia un autorilevamento del numero di schede e che se fossero piu' di 2 ne funzionassero solo 2?
Probabilmente sarebbe un deterrente vista la necessita' della spesa di parti di hw in piu': motherboards, ram, cpu etc. e cosi' i miners comprerebbero solo le schede sbloccate, previste per loro.
Senza tanti giri di drivers e controlli online.
Poi se le hackerano via HW... boh... :stordita:
scusa ma mi sfugge il perchè sarebeb illegale.
le QUADRO come credi che le facciano ? sono esattamente come le GTX solo che hanno driver specifici e sul PCB hanno delle resistenze differenti che, a seconda del loro valore, "dicono" ai driver se sono Quadro, GTX o Tesla; nelle ultime versioni hanno anche qualche cosa in piu oltre le resistenze, perchè non si sono piu visti gli hrd mod ( che io sappia magari ci sono ancora ).
potrebbero tranquillamente fare una nuova linea di GPU, chiamarla Miner, e fare driver differenti per GTX e Miner; il problema è che il mondo del mining è molto instabile e dovrebbero "scommettere" che l'andamento continui cosi e quindi investire a lungo termine per creare una nuova linea di GPU; se fosse stato un mercato meno fluttuante, avremmo avuto una linea di GPU Miner gia da tempo.
Non puoi, a posteriori, castrare un prodotto general purpose. Soprattutto se poi vendi un prodotto che fa esattamente quella cosa.
Puoi farlo con le prossime uscite, dividendo le serie. Cosa che non condivido, e che se fosse applicata, implicherebbe un bello sticker leggibile sulla scatola delle GTX.
Sarebbe illegale scoraggiare l'uso mining sulle schede attuali con trick hardware e software, dato che escono dal progetto con una destinazione d'uso molto generica e con dichiarate certe prestazioni sui CUDA core, ecc.
Se invece Nvidia decidesse di fare delle schede tra loro simili, ma sue due linee di prodotto diverse (per game e mining), potrebbe farlo benissimo ma dovrebbe tenere in piedi due linee di prodotto invece di una, con costi aggiuntivi potenzialmente forti (certificazioni diverse, assistenza post-vendita diversa, marketing diverso, commerciale diverso, ecc.)
Esatto.
fraussantin
13-03-2018, 21:41
Non puoi, a posteriori, castrare un prodotto general purpose. Soprattutto se poi vendi un prodotto che fa esattamente quella cosa.
Puoi farlo con le prossime uscite, dividendo le serie. Cosa che non condivido, e che se fosse applicata, implicherebbe un bello sticker leggibile sulla scatola delle GTX.
Esatto.Penso che ormai tutti si stesse parlando della prossima serie. Pascal ormai non ha senso di essere castrato.
mikael84
14-03-2018, 00:40
Non posso giudicare Mike, è troppo tecnico per le mie conoscenze. Mi limito a dire che l'autore del post è Arun, mod di quel forum frequentato sopratutto da ingegneri e veri e propri addetti ai lavori (anche pezzi grossi).
Comunque prendo atto della tua opinoone, l'ho postato proprio per chiedere un parere dai più tecnici :D
Ma no Apple, fai bene, ho letto il thread ed il livello rasenta il ridicolo.:sofico:
Non si può fare quello che dice quel mod. Non esistono P.E condivisi tra TPC, ed i programmi (del 2006) non rilevano i dati correttamente.:)
Guarda qua
https://techreport.com/r.x/2017_03_08_Nvidia_s_GeForce_GTX_1080_Ti_graphics_card_reviewed/B3Dpoly.png
Un software recente non calcola oltre la 1070.
Una 1080ti ad esempio dovrebbe calcolare 16,6g/tris teorici:) .
La 1080, arriva ad un teorico di 11.4 g/tris.
Ti spiego meglio:
Un SM calcola 0,33 triangoli, x 20 SM (6,6 g/tris) x clock/1733 boost base = 11,4:read: Quindi, come vedi sono valori inutili:)
Cmq nel frattempo...https://www.tomshw.it/nvidia-p102-100-gtx-1080-ti-castrata-minare-92213
La scheda che avrei voluto io.:p
Praticamente è il GP102, con un GPC completamente laserato. Un 5 GPC con 440gb/s, non 400 come viene scritta (400gb/s li prendi su 10gb/s).
Minimo 20% su gp102.:)
TigerTank
14-03-2018, 09:03
La scheda che avrei voluto io.:p
Praticamente è il GP102, con un GPC completamente laserato. Un 5 GPC con 440gb/s, non 400 come viene scritta (400gb/s li prendi su 10gb/s).
Minimo 20% su gp102.:)
Più che altro....c'è una penuria mostruosa di vga e questi tirano fuori un modello apposito "castrato" per il mining.
Il che mi fa pensare che purtroppo non sarà tanto rosea la situazione con le prossime, nel senso che dubito delle dichiarazioni circa la preferenza ai videogiocatori. Alla fine mi sa che anche con le prossime l'importante sarà vendere e fare utili, poco importa se a gamers o a miners.
appleroof
14-03-2018, 14:39
L'unico modo per non far minare è BIOS firmato e driver che legge la firma per installarsi, con in più un timer di aggiornamento del driver che se non lo aggiorni taglia le prestazioni progressivamente. Altrimenti tengo un driver vecchio e poi ci faccio girare l'algoritmo di hash nuovo che quel driver non sega e siamo da capo. Insomma mi sembra complicato.
L'alternativa è che gli AiB si fottano e nVidia è AMD comincino a fare solo vendita diretta limitando i possibili acquisti per persona, ancora più improbabile.
Insomma fare cone le Quadro (una volta potevano essere "trasformate" in geforce, oggi mi risulta di no) intendo bios/driver appositi
Ma no Apple, fai bene, ho letto il thread ed il livello rasenta il ridicolo.:sofico:
Non si può fare quello che dice quel mod. Non esistono P.E condivisi tra TPC, ed i programmi (del 2006) non rilevano i dati correttamente.:)
Guarda qua
https://techreport.com/r.x/2017_03_08_Nvidia_s_GeForce_GTX_1080_Ti_graphics_card_reviewed/B3Dpoly.png
Un software recente non calcola oltre la 1070.
Una 1080ti ad esempio dovrebbe calcolare 16,6g/tris teorici:) .
La 1080, arriva ad un teorico di 11.4 g/tris.
Ti spiego meglio:
Un SM calcola 0,33 triangoli, x 20 SM (6,6 g/tris) x clock/1733 boost base = 11,4:read: Quindi, come vedi sono valori inutili:)
La scheda che avrei voluto io.:p
Praticamente è il GP102, con un GPC completamente laserato. Un 5 GPC con 440gb/s, non 400 come viene scritta (400gb/s li prendi su 10gb/s).
Minimo 20% su gp102.:)
Mike parliamo di questo thread giusto?
https://forum.beyond3d.com/threads/nvidia-post-volta-ampere-rumor-and-speculation-thread.60494/page-8
mikael84
14-03-2018, 15:38
Più che altro....c'è una penuria mostruosa di vga e questi tirano fuori un modello apposito "castrato" per il mining.
Il che mi fa pensare che purtroppo non sarà tanto rosea la situazione con le prossime, nel senso che dubito delle dichiarazioni circa la preferenza ai videogiocatori. Alla fine mi sa che anche con le prossime l'importante sarà vendere e fare utili, poco importa se a gamers o a miners.
Un pò come hanno fatto con la 1070ti. Chiaro che con 5gb di ram non serve al gaming, però era una scheda che a prezzi normali era perfetta ( con 10gb ovviamente).
Una buona via di mezzo a 650 euro.
Riguardo le nuove, se si vuole acquistare, forse conviene fiondarsi subito e via, tanto EVGA o Galax sono garanzia.:)
Mike parliamo di questo thread giusto?
https://forum.beyond3d.com/threads/nvidia-post-volta-ampere-rumor-and-speculation-thread.60494/page-8
Si Apple, salvo qualche commento, hanno le idee un tantino confuse, come quello che chiede un possibile 512bit, quando questo comporterebbe 106mmq2 aggiuntivi per nulla.
Inoltre non ci saranno ram a 18gb/s, come da rumors.:)
appleroof
14-03-2018, 16:39
Sì, tecnicamente si può fare sicuramente, ma ovviamente costa e oltretutto nonostante i proclami pubblici sia AMD che nVidia sono stracontente di vendere il 100% della produzione :>
La venderebbero lo stesso, quando cala un mercato basta un flash bios in produzione per avere più prodotti per quell'altro e viceversa, sempre a somma 100 (si, sto semplificando alla grande ma insomma)... Cmq boh vedremo
Un pò come hanno fatto con la 1070ti. Chiaro che con 5gb di ram non serve al gaming, però era una scheda che a prezzi normali era perfetta ( con 10gb ovviamente).
Una buona via di mezzo a 650 euro.
Riguardo le nuove, se si vuole acquistare, forse conviene fiondarsi subito e via, tanto EVGA o Galax sono garanzia.:)
Si Apple, salvo qualche commento, hanno le idee un tantino confuse, come quello che chiede un possibile 512bit, quando questo comporterebbe 106mmq2 aggiuntivi per nulla.
Inoltre non ci saranno ram a 18gb/s, come da rumors.:)
Si non è che tutti sono guru, in generale c'è un livello tecnico enormemente più elevato che altrove in quel forum (ricordo per dire il thread su mantle dove vi partecipavano il capo della divisione gpu di Intel, il boss di Dice e spesso qualche ingegnere Amd :stordita: ) cmq ripeto, non ho le competenze giuste per giudicare, mi limito a lurkare cercando di intuire qualche indicazione di mio interesse.
fraussantin
14-03-2018, 16:44
La venderebbero lo stesso, quando cala un mercato basta un flash bios in produzione per avere più prodotti per quell'altro e viceversa, sempre a somma 100 (si, sto semplificando alla grande ma insomma)... Cmq boh vedremo
.
Anche meno basta autorizzare via driver quello che era forbidden.
Vedremo. Secondo me non ci sarà nulla , e punteranno sulla vendita diretta con contagocce.
Chi sono i rivenditori diretti eccetto nvidia e evga?
Zotac vende in italia?
Msi e asus mi pare che non abbiano uno store.
.:Sephiroth:.
17-03-2018, 00:01
ragazzi seguo il thread da un pò ma è da qualche giorno che non passo
riprendendo il discorso, per questo gtc di fine marzo by nvidia, c'è speranza di vedere la serie 2x00?
amon.akira
17-03-2018, 00:42
ragazzi seguo il thread da un pò ma è da qualche giorno che non passo
riprendendo il discorso, per questo gtc di fine marzo by nvidia, c'è speranza di vedere la serie 2x00?
forse,
a quanto pare al gdc annunceranno il Ray Tracing for GameWorks disponibile solo su volta, quindi potrebbero presentare anche l hardware.
Thunder-74
17-03-2018, 11:50
forse,
a quanto pare al gdc annunceranno il Ray Tracing for GameWorks disponibile solo su volta, quindi potrebbero presentare anche l hardware.
a tal riguardo....
LINK (https://videocardz.com/newz/nvidia-to-announce-rtx-technology)
Giovamas
17-03-2018, 12:52
a tal riguardo....
LINK (https://videocardz.com/newz/nvidia-to-announce-rtx-technology)
quindi ci sta. almeno una road map precisa...
aled1974
18-03-2018, 15:00
ragazzi seguo il thread da un pò ma è da qualche giorno che non passo
riprendendo il discorso, per questo gtc di fine marzo by nvidia, c'è speranza di vedere la serie 2x00?
IMHO no, ne come prodotto lanciato ne come presentazione :stordita:
almeno, ero rimasto con tutta una serie di articoli sul web in cui si parlava di lancio delle prossime nvidia per settembre :boh:
anche se forse, forse, al computex la presentazione la fanno :)
ciao ciao
IMHO no, ne come prodotto lanciato ne come presentazione :stordita:
almeno, ero rimasto con tutta una serie di articoli sul web in cui si parlava di lancio delle prossime nvidia per settembre :boh:
anche se forse, forse, al computex la presentazione la fanno :)
ciao ciao
Eh? Si parlava anche di aprile e giugno se per questo :D
Eh? Si parlava anche di aprile e giugno se per questo :D
Si, nei nostri sogni prima dell'estate. Se siamo fortunati autunno, ma è addirittura probabile 2019 a questo punto.
TigerTank
19-03-2018, 12:16
Si, nei nostri sogni prima dell'estate. Se siamo fortunati autunno, ma è addirittura probabile 2019 a questo punto.
2019 non credo...ma allo stesso tempo meglio se da metà anno in poi. Più probabile che il mercato si normalizzi altrimenti se uscissero ora, arriverebbero le "2080" references da 800-900€ :asd:
Giovamas
19-03-2018, 13:31
2019 non credo...ma allo stesso tempo meglio se da metà anno in poi. Più probabile che il mercato si normalizzi altrimenti se uscissero ora, arriverebbero le "2080" references da 800-900€ :asd:
quoto. forse è proprio questo il motivo. ma io comincio a sospettare come Vul.. ci vediamo nel 2019 mi sa :rolleyes:
TigerTank
19-03-2018, 13:46
quoto. forse è proprio questo il motivo. ma io comincio a sospettare come Vul.. ci vediamo nel 2019 mi sa :rolleyes:
Se GP102 è davvero già andato in EOL, considerata la scarsità delle 1080Ti in commercio(una pessima vita di mercato rispetto alle gtx980Ti) mi sa che difficilmente tireranno fino al 2019 :)
Credo che lanciare una nuova gen di gpu possa essere molto pericoloso a causa della situazione mining.
Credo sia più probabile che Nvidia aspetti una prima svendita di gpu ex mining per non mettersi in competizione con milioni di gpu usate e di miners che le vorranno cambiare per la nuova gen.
Considerate che il rendimento del mining è ai minimi storici, a malapena sopra il costo della corrente eil ROI è bassissimo, ergo a breve vedremo grandi svendite di gpu sul mercatino :asd:
Ton90maz
19-03-2018, 14:39
2019 non credo...ma allo stesso tempo meglio se da metà anno in poi. Più probabile che il mercato si normalizzi altrimenti se uscissero ora, arriverebbero le "2080" references da 800-900€ :asd:Ma quei prezzi sarebbero normali per la prima spremitura degli early adopters
Thunder-74
19-03-2018, 18:28
NVIDIA RTX Technology: Making Real-Time Ray Tracing A Reality For Games
VIDEO (https://www.youtube.com/watch?v=jkhBlmKtEAk&feature=youtu.be)
QUI (https://www.geforce.com/whats-new/articles/nvidia-rtx-real-time-game-ray-tracing) fonte nVidia
altra mazzuolata in arrivo per le prestazioni grafiche.
bisogna vedere se e quando implementranno il real time ray tracing e come lo faranno.
ho i miei dubbi.
su una cosa sono sicuro, realisticamente parlando il passo rispetto anche adesso sara netto in termini di lighting.
prevedo frames/ secondo che si contano sulle dita di una mano :asd:
Thunder-74
19-03-2018, 19:05
altra mazzuolata in arrivo per le prestazioni grafiche.
bisogna vedere se e quando implementranno il real time ray tracing e come lo faranno.
ho i miei dubbi.
su una cosa sono sicuro, realisticamente parlando il passo rispetto anche adesso sara netto in termini di lighting.
prevedo frames/ secondo che si contano sulle dita di una mano :asd:
Sarebbe si in passo avanti, ma in reset in ambito prestazioni... questi devono pur vendere...
Inviato dal mio iPhone X utilizzando Tapatalk
fabietto27
19-03-2018, 19:32
Sarebbe si in passo avanti, ma in reset in ambito prestazioni... questi devono pur vendere...
Inviato dal mio iPhone X utilizzando TapatalkÈ la costante delle vga gaming...quando pensi di essere tranquillo per un po' arriva il nuovo effetto ammazzaframes.
Ti può salvare solo la modalità fottese.a😁
Inviato dal vivavoce della mia Daf Variomatic
techsaskia
19-03-2018, 21:32
Ma quei prezzi sarebbero normali per la prima spremitura degli early adopters
io sinceramente i prezzi delle schede video raramente li vedo scendere + del 10% dopo l'uscita se non dopo l'arrivo dei nuovi modelli.
NVIDIA RTX Technology: Making Real-Time Ray Tracing A Reality For Games
VIDEO (https://www.youtube.com/watch?v=jkhBlmKtEAk&feature=youtu.be)
QUI (https://www.geforce.com/whats-new/articles/nvidia-rtx-real-time-game-ray-tracing) fonte nVidia
era ora sono 10 anni che se ne parla (dai tempi in cui leggevo TGM), ma non avevamo abbastanza potenza di calcolo, forse con il dopo Pascal si comincerà a vedere qualcosa di interessante
Legolas84
19-03-2018, 22:42
Dicono che sarà ottimizzato per Volta... be speriamo sia un bel passo avanti :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
Thunder-74
19-03-2018, 23:21
Sono d’accordo che bisogna fare un passo avanti . Penso solo che a stento si riesce a giocare ora in 4K... bisognerà tornare in fullhd a 30 fps per gestire il ray tracing in tempo reale, ovviamente con schede di nuova generazione ...
Non mi sto lamentando, faccio solo un po’ di sarcasmo , ben venga il “rinnovamento” :)
fraussantin
20-03-2018, 00:10
Sono d’accordo che bisogna fare un passo avanti . Penso solo che a stento si riesce a giocare ora in 4K... bisognerà tornare in fullhd a 30 fps per gestire il ray tracing in tempo reale, ovviamente con schede di nuova generazione ...
Non mi sto lamentando, faccio solo un po’ di sarcasmo , ben venga il “rinnovamento” :)Se disattivabile possono inventarsi quello che vogliono.
Thunder-74
20-03-2018, 07:59
Se disattivabile possono inventarsi quello che vogliono.
io l'avevo inteso come un usare questa tecnica al posto della rasterizzazione e non abbinata a questa tipo effetti... vedremo...
Comunque si trova nelle DX12 (Api DXR) e quindi per ora è appannaggio di Windows 10 e Xbox One..
QUI (http://www.guru3d.com/news-story/microsoft-announces-directx-raytracing-for-real-time-raytracing.html) più info in merito
fraussantin
20-03-2018, 08:03
io l'avevo inteso come un usare questa tecnica al posto della rasterizzazione e non abbinata a questa tipo effetti... vedremo...
Comunque si trova nelle DX12 (Api DXR) e quindi per ora è appannaggio di Windows 10 e Xbox One..
QUI (http://www.guru3d.com/news-story/microsoft-announces-directx-raytracing-for-real-time-raytracing.html) più info in meritoW10 ormai sarà lo standard per i pc gaming.
W7 ha senso solo per i pc vecchi , che nel caso non userebbero cmq questa feature.
Resta il fatto che se i prezzi rimangono quelli che sono dovranno per forza essere opzioni .
fraussantin
20-03-2018, 08:50
Se migliorassero l'illuminazione e aumentassero i poligoni sulla scena dell'UHD non ve ne fareste più nulla :asd:
Il fotorealismo non ha bisogno di risoluzioni esagerate, certo in 640x480 su pannelli da 24" si vedrebbe male, come fosse sfuocato, ma su un FHD sarebbe già l'ideale...
Poi va beh con l'evoluzione delle vga e della loro potenza computazionale ovviamente si potrebbe ritirare su la risoluzione, ma rimarrebbe comunque uno spreco di risorse, meglio tirare su gli FPS.Le risoluzioni alte servono a togliere l'aliasing e a dare nitidezza.
Avere la nitidezza di uno smartphone sul pc a chi non piacerebbe? ( Basta guardare anche solo gli screenshot di steam sia su pc che su smartphone)
Poicil gioco non vale la candela ok .
Dicono che sarà ottimizzato per Volta... be speriamo sia un bel passo avanti :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
Speriamo. :)
fraussantin
20-03-2018, 09:28
ma su un film bluray in FHD hai l'aliasing? è la stessa cosa...
l'aliasing esiste soprattutto perché a livello poligonale siamo a qualche ordine di grandezza indietro rispetto alla realtà :p , e i sistemi di illuminazione odierni fanno il resto ;)
Poi, e solo poi, entra in gioco il rapporto distanza/dimensione/risoluzione:
in FHD a 1 metro di distanza su un 24"
http://d1omyfwermimi7.cloudfront.net/uploads/2014/04/Grafico_distanza_ottimale_visione.png
come vedi da un 20 a un 30" teoricamente basta il FHD già oggi a partire da 80 fino a 120cm, poi ovvio c'è chi vede meglio o peggio, ma figuriamoci con un livello poligonale rasente la realtà così come il sistema di illuminazione tipo il ray tracing se non basta il FHD per quelle distanze e quelle dimensioni.
https://www.innovativerendering.com/wp-content/uploads/2017/04/Rendering-3D-Fotorealistico-Interno-Living-10-Rendering-Evolution-Umberto-Oldani.jpg
questo è un esempio di immagine in FHD fotorealistica, la prima che ho trovato, trovami l'aliasing.
http://langavideo.it/wp-content/uploads/2017/04/Rendering_Emanuele-Quarelli-4.jpg
questa con linee più nette e obliqueIo ho una tv 32" 720p
Un cellulare 6" qhd ( impostato in 1080p)
Un portatile 15" 1080p
E un 22 " 1080p.
Se prendi un film 1080p e lo guardi su tutti i dispositivi la nitidezza cambiane di tanto.
Vale la regola delle fotografie dei 300 dpi.
Poi ripeto il gioco non vale la candela ok .
Ps l'aliasing era riferito ai giochi ovviamente non alle foto.
bagnino89
20-03-2018, 09:33
ma su un film bluray in FHD hai l'aliasing? è la stessa cosa...
l'aliasing esiste soprattutto perché a livello poligonale siamo a qualche ordine di grandezza indietro rispetto alla realtà :p , e i sistemi di illuminazione odierni fanno il resto ;)
Poi, e solo poi, entra in gioco il rapporto distanza/dimensione/risoluzione:
in FHD a 1 metro di distanza su un 24"
http://d1omyfwermimi7.cloudfront.net/uploads/2014/04/Grafico_distanza_ottimale_visione.png
come vedi da un 20 a un 30" teoricamente basta il FHD già oggi a partire da 80 fino a 120cm, poi ovvio c'è chi vede meglio o peggio, ma figuriamoci con un livello poligonale rasente la realtà così come il sistema di illuminazione tipo il ray tracing se non basta il FHD per quelle distanze e quelle dimensioni.
questo è un esempio di immagine in FHD fotorealistica, la prima che ho trovato, trovami l'aliasing.
questa con linee più nette e oblique
Io comunque credo che, in questi rendering, siano stati applicati filtri anti-aliasing molto tosti che un gioco in tempo reale farebbe molta fatica a gestire oggi come oggi.
Aggiungo anche che, aliasing a parte, uno schermo con PPI più elevato è comunque più piacevole da usare, penso solo alla nitidezza dei caratteri, è proprio un'altra cosa...
bagnino89
20-03-2018, 09:39
Ma il ray-tracing come è correlato all'aliasing? Perché dovrebbe diminuire l'aliasing con una tecnica come il ray-tracing?
Io pensavo che l'aliasing fosse più un problema dovuto ad aspetti poligonali e di risoluzione... Forse il ray-tracing permette di "miscelare" meglio i colori sui bordi, e quindi diminuisce l'aliasing?
sertopica
20-03-2018, 10:13
Nelle schede pre Volta come sara' gestita questa nuova feature? :mbe:
In una tabella sul sito MS parlano di supporto software e nella descrizione si parla di ray tracing shader based, al contrario di Volta che disporra' di una unita' dedicata. Se e' shader based i calcoli non si appoggeranno solo alla CPU giusto? Comunque credo che non basti soltanto la GPU, sicuramente in futuro usciranno processori dedicati a questi calcoli, e chissa', forse proprio schede aggiuntive esclusivamente utilizzate per questo scopo, stile PhysX. Poi forse fra parecchi anni non ce ne sara' piu' bisogno...
Una delle cose che mi interessano di piu' e' che finalmente i limiti delle SSR saranno superati e con loro tutti gli artefatti che ne derivano.
fraussantin
20-03-2018, 10:17
Esatto, ma capisci che se una foto si vede perfetta in fullhd ci deve essere il modo per ottenere la stessa cosa da un gioco. :)
Il problema è che al momento usano la tecnica "brute force" di alzare la risoluzione in 4k e basta... oppure filtri cagosi come fxaa :muro:
Si in questo caso si (o magari sono fatti in ray tracing), ma ci sono vie di mezzo che potrebbero essere usate in gaming.
Sicuramente, ma capisci che se fosse solo per questo interesserebbe a molta meno gente.Si cmq la nitidezza di un 22 1080p non è la stessa di un 15 1080p che non è la stessa di un 6" 1080p .
Più si sale più sembra leggermente appannato.
Poi ci si abitua a tutto , ma io quando passai dal portatile al fisso un po l'ho" accusata" questa cosa.
Cmq viene naturale pensare che se si vuole salire a monitor da 26 pollici in su bisogna scordarsi il 1080p almeno su pc gaming.
Su console è un altro discorso si gioca a distanze completamente diverse.
TigerTank
20-03-2018, 10:24
Si cmq la nitidezza di un 22 1080p non è la stessa di un 15 1080p che non è la stessa di un 6" 1080p .
Più si sale più sembra leggermente appannato.
Poi ci si abitua a tutto , ma io quando passai dal portatile al fisso un po l'ho" accusata" questa cosa.
Cmq viene naturale pensare che se si vuole salire a monitor da 26 pollici in su bisogna scordarsi il 1080p almeno su pc gaming.
Su console è un altro discorso si gioca a distanze completamente diverse.
Beh normale....si chiama semplicemente densità, dipendente anche da grandezza dei pixel e distanza tra di essi(dot pitch). Se si vuole avere la massima definizione possibile bisogna prendere tipo un 4K su 28", potenza grafica necessaria a parte :D
EDIT: il resto lo fa la distanza di visualizzazione "ideale" che va in base ai pollici dello schermo.
appleroof
20-03-2018, 10:44
Sta storia del ray tracing mi pare una markettata, felice di essere smentito
sertopica
20-03-2018, 11:02
^ Certo che lo e' apple, per lo meno al momento. Servira' a spingere le vendite delle Volta, dovevano pur introdurre qualcosa di nuovo con i nuovi prodotti.
Aspetta.... Volta ha una unità di ray tracing dedicata?
E si potrebbe usare per farlo in tempo reale?
Sarebbe bello se finalmente si cominciasse a parlare del passaggiod a rasted a rt per il gaming... ci vorrebbero anni certo ma se mai si comincia :)
Si', si chiama RTX e sara' presente a partire da Volta. Ma non credere che ci sara' RT in tempo reale gia' a partire da quest'anno, inizialmente ci sara' una fase ibrida, nella quale si occuperanno solo di alcuni dei problemi che la rasterization porta con se', del tipo, come gia' accennato, il superamento dei limiti delle SSR, portando ad avere riflessi estremamente piu' accurati e non piu' limitati all'angolo della telecamera (ovvero muovi la telecamera troppo verso l'alto o verso il basso ed i riflessi scompaiono).
Poi, negli anni a seguire, cercheranno di portare il RT a livello mainstream, ma secondo me ci vorranno ALMENO altri 5 anni.
Basta dare un'occhiata a questo video dimostrativo per capire quello che vedremo in futuro: https://www.youtube.com/watch?v=LXo0WdlELJk
La cosa migliore e' che con il RT non ci sara' piu' bisogno di utilizzare "trucchetti" per simulare il comportamento della luce e delle diverse reazioni dei materiali quando vengono colpite da essa... Tutto sara' fisicamente piu' verosimile.
Legolas84
20-03-2018, 11:07
Questi effetti sono sempre markettate per spingere gli utenti a comprare una GeForce piuttosto che una scheda della concorrenza :)
Il punto è stabilire se servono a qualcosa o se sono solo fumo e niente arrosto. Prendi HairWorks su The Witcher 3 o su Far Cry 4.... sarà anche un effetto proprietario di cui si è detto peste e corna ma cavolo se fa la differenza a livello grafico. Serve un sacco di potenza ma ad esempio chi ha una 1080Ti o uno SLI si può godere una qualità che è un netto passo avanti rispetto allo standard.
Tra l'altro in The Witcher 3 anche Physx fa un lavoro egregio.
Ecco io spero che questa novità sia la stessa cosa :)
Thunder-74
20-03-2018, 11:11
Volta "dovrebbe" svolgerebbe in Hardware tale processo, grazie ai Tensor core...
...The catch here is that RTX technology is only supported on Nvidia Volta GPUs, leading many to believe that Nvidia is using Tensor cores for Raytracing acceleration, which means that this AI hardware may have a future in gaming-oriented graphics cards....
sertopica
20-03-2018, 11:16
Il RT sara' a mio avviso il vero spartiacque a livello visivo... HBAO+, HFTS, Soft shadows e compagnia bella non saranno piu' necessari perche' il Ray Tracing se ne occupera' in una sola volta, considerando che simula direttamente il comportamento dei raggi di luce a partire dal punto di vista del giocatore, o meglio, la posizione della telecamera.
Thunder-74
20-03-2018, 11:22
Infatti AMD si è precipitata a dire "anche noi lo facciamo!" :asd:
Vedremo in futuro se li useremo davvero o no.
Tu che ne sai sicuramente più di me, un gioco potrebbe supportare sia raster che ray tracing senza troppi problemi o sarebbe complesso farli coesister?
Soppongo sia semplice ma non ne sono così sicuro. :)
fosse anche possibile, non credo che converrà farlo né alle Software House, né a nVidia/AMD. I primi dovrebbero spendere più tempo per la produzione dei titoli, i secondi, come sempre stato, sfrutterebbero questa nuova leva per vendere schede nuove, senza contare l'influenza di quest'ultime sulle SH.
Bah, ho pochissimo hype verso il raytracing.
E' talmente costoso a livello hardware che per averlo in tutte le fasce bisognerà aspettare quanto, 7-8 anni?
Senza contare che se non va (bene) su AMD sarà assente in tutti i blockbuster da console.
Ergo, ma chi lo implementerà quando l'hardware manca?
Nvidia ha spesso buone idee, ma il fatto che siano dipendenti dal proprio hardware le porta a morire spesso e volentieri.
Ma anche no sertopica.
Il raytracing implica illuminazione in tempo reale si, ma bisogna vedere l'approccio sul l'occlusione ambientale.
Definire l'RT una specie di hairworks è decisamente sbagliato, qui si parla di un grande passo altro che.... Restano i dubbi sulla velocità di esecuzione in realtime di tutto ciò...
Inoltra questo vrlocizzerebbe e non poco la produzione dei titoli.
Per la questione offline render/RT staremo a vedere, non credo che leveranno il Baker da l' ue, cryengine ecc.. Magari progressivamente, anche perche poi che fine faranno le console?
sertopica
20-03-2018, 11:30
No, non intendo dire che si tratta di una feature stile Hairworks, ci mancherebbe, in questo caso l'impatto e' assai piu' incisivo di ogni altro effetto che ci hanno propinato in questi anni come giustamente scrivi. Volevo dire che il RT si occupera' di ombre, riflessi e occlusione ambientale in una sola passata, ergo tutti i "workaround" utilizzati in questi anni per restituirci un'immagine il piu' fedele possibile alla realta' diverranno superflui, o almeno credo sia cosi'.
C'e' comunque da aspettare un bel po' prima che tutto questo diventi accessibile.
TigerTank
20-03-2018, 12:28
Sta storia del ray tracing mi pare una markettata, felice di essere smentito
Io ormai sinceramente considero quasi tutto una "markettata", finchè non vedo gli esiti pratici effettivi(comprese le implementazioni a differenza delle semplici demo confezionate).
C'è troppo hype a vanvera...vedi in passato le leggendarie meraviglie che prometteva l'arrivo delle dx12 :asd:
AceGranger
20-03-2018, 12:53
Bah, ho pochissimo hype verso il raytracing.
E' talmente costoso a livello hardware che per averlo in tutte le fasce bisognerà aspettare quanto, 7-8 anni?
Senza contare che se non va (bene) su AMD sarà assente in tutti i blockbuster da console.
Ergo, ma chi lo implementerà quando l'hardware manca?
Nvidia ha spesso buone idee, ma il fatto che siano dipendenti dal proprio hardware le porta a morire spesso e volentieri.
non mi pare che gameworks sia assente dai blockbuster da console; semplicemente quando arrivano su PC lo mettono come FFV
il fatto che sia integrato nel pacchetto gameworks e quindi nell'Unreal Engine e Unity semplifichera molto le cose.
Io ormai sinceramente considero quasi tutto una "markettata", finchè non vedo gli esiti pratici effettivi(comprese le implementazioni a differenza delle semplici demo confezionate).
C'è troppo hype a vanvera...vedi in passato le leggendarie meraviglie che prometteva l'arrivo delle dx12 :asd:
in campo Pro sara sicuramente utile, come sono stai utili alcuni algoritmi di raytracing proprietari di nVidia gia integrati.
e molto probabilmente, visto che per avere un'immagine pulita dal noise servono molti samples per il calcolo dell'illuiminazione, per limitare la quantita di punti questo ray tracing andra a braccetto con il nuovo denoiser Optix Ai
TigerTank
20-03-2018, 13:11
in campo Pro sara sicuramente utile, come sono stai utili alcuni algoritmi di raytracing proprietari di nVidia gia integrati.
e molto probabilmente, visto che per avere un'immagine pulita dal noise servono molti samples per il calcolo dell'illuiminazione, per limitare la quantita di punti questo ray tracing andra a braccetto con il nuovo denoiser Optix Ai
Sì, quella è tutta un'altra questione. Io ovviamente sottointendevo l'ambito gaming ;)
AceGranger
20-03-2018, 13:41
Sì, quella è tutta un'altra questione. Io ovviamente sottointendevo l'ambito gaming ;)
in ambito gaming credo che ne passera tanta di acqua sotto i ponti prima di vederla in azione.
paolox86
20-03-2018, 17:16
https://www.anandtech.com/show/12546/nvidia-unveils-rtx-technology-real-time-ray-tracing-acceleration-for-volta-gpus-and-later
Sono confuso, quindi i tensor sono pure sulla linea gaming?
Se fosse allora tanto vale buttarsi sulla Titan V! :D
appleroof
20-03-2018, 20:46
Io ormai sinceramente considero quasi tutto una "markettata", finchè non vedo gli esiti pratici effettivi(comprese le implementazioni a differenza delle semplici demo confezionate).
C'è troppo hype a vanvera...vedi in passato le leggendarie meraviglie che prometteva l'arrivo delle dx12 :asd:
Si questo intendevo, che ammesso che l'hw fosse in grado di gestirlo non penso ci saranno giochi a breve che ne trarranno beneficio, quindi...
techsaskia
20-03-2018, 21:19
era ora sono 10 anni che se ne parla (dai tempi in cui leggevo TGM), ma non avevamo abbastanza potenza di calcolo, forse con il dopo Pascal si comincerà a vedere qualcosa di interessante
Dicono che sarà ottimizzato per Volta... be speriamo sia un bel passo avanti :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
che iniziassero a usare i Voxel prima di introdurre altra roba.
di carne al fuoco ce nè già troppa è la potenza che manca.
Legolas84
20-03-2018, 22:40
Comunque la Titan V a livello gaming è abbastanza deludente:
http://www.pcgameshardware.de/Kingdom-Come-Deliverance-Spiel-16151/Specials/Benchmark-Test-Review-Gameplay-1249935/
Daccordo che non dovrebbe essere per i giocatori, però.....
Comunque la Titan V a livello gaming è abbastanza deludente:
http://www.pcgameshardware.de/Kingdom-Come-Deliverance-Spiel-16151/Specials/Benchmark-Test-Review-Gameplay-1249935/
Daccordo che non dovrebbe essere per i giocatori, però.....
Ma infatti paragonata anche solo alla quadro P6000 (Pascal) è di pochissimo avanti nei giochi. Anzi, mi sa che rispetto al caro GP100 è proprio dietro..
Io l'ho sempre detto che se quelle sono le migliorie di Volta anche questa architettura sarà fondamentalmente Maxwell riciclato.
AceGranger
21-03-2018, 10:38
Ma infatti paragonata anche solo alla quadro P6000 (Pascal) è di pochissimo avanti nei giochi. Anzi, mi sa che rispetto al caro GP100 è proprio dietro..
Io l'ho sempre detto che se quelle sono le migliorie di Volta anche questa architettura sarà fondamentalmente Maxwell riciclato.
quelli che stai facendo sono paragoni senza senso.
se prendi la Quadro GP100 ( aka Tesla GP100 con chip GP100 ) va MENO della Quadro P6000 ( Aka GP 102 ) come forza bruta neil'FP32 ( e quindi anche giochi ).
quando uscira la Quadro V6000 con il GV 102 ( se uscira ) andra di piu della GV100 e della P6000.
Legolas84
21-03-2018, 10:42
Finchè non esce una GeForce è inutile valutare Volta in game....
Il bench che ho postato imho è solo l'esempio che la Titan V non è fatta per i giochi. ;)
Thunder-74
21-03-2018, 12:24
Futuremark promette un nuovo bench per il ray-tracing:
VIDEO (https://youtu.be/81E9yVU-KB8)
Differenza con e senza...
https://www.futuremark.com/hwc/tmp/directx-raytracing-demo-4.gif
https://www.futuremark.com/hwc/tmp/directx-raytracing-demo-2.gif
mircocatta
21-03-2018, 12:37
personalmente ho visto lavori migliori senza bisogno di raytracing :asd:
illidan2000
21-03-2018, 14:59
Credo sia perchè il ray tracing sia impiegato solo per alcuni effetti e riflessi.
boh.... quasi quasi preferisco il ray racing off. Hanno scelto degli esempi pessimi
mikael84
21-03-2018, 15:48
Comunque la Titan V a livello gaming è abbastanza deludente:
http://www.pcgameshardware.de/Kingdom-Come-Deliverance-Spiel-16151/Specials/Benchmark-Test-Review-Gameplay-1249935/
Daccordo che non dovrebbe essere per i giocatori, però.....
Non è una scheda gaming, probabilmente non ha compressioni ed i clock sono da maxwell OC.
Molti giochi non scalano, ed anche le medie ne risentono, già lanciata a 1700/1800 con le memorie più spinte alcuni giochi volano.
Offre prestazioni serie in alcuni ambiti come Unigine superposition, SSRTGI (Screen-Space Ray-Traced Global Illumination) , + 50% sulla 1080ti con meno clock, nel time spy, quasi il 40% a 1500 e ram default.
Inoltre Vulkan + 70% a 1700/1800mhz.
Alcuni numeri sono di tutto rispetto, ed in prospettiva, in DX11, o scala bene, chiaro che i clock sono troppo bassi per valutare.
Se boosta a 2ghz circa la versione gaming, già a 1800 circa, si può ottenere un 30% oltre la TI, a cui va aggiunta la compressione.:)
Sì, quella è tutta un'altra questione. Io ovviamente sottointendevo l'ambito gaming ;)
Attualmente a livello hardware non so come vada, speriamo di saperne al più presto, però il primo gioco a sfruttarlo sarà Metro 2018
Legolas84
21-03-2018, 15:53
We mike.... tu come la vedi sta storia del Ray Tracing? Rivoluzione in arrivo per la grafica 3d? :)
Giovamas
21-03-2018, 15:53
non se già postato :)
https://www.tweaktown.com/news/61262/nvidia-teases-future-generation-gpu-architectures-gdc/index.html
personalmente ho visto lavori migliori senza bisogno di raytracing :asd:
Perchè sono immagini e non sei in movimento.
E' ovvio che puoi fare un bake dell'illuminazione e metterla staticamente in una scena in modo che questa risulti estremamente realistica, è una cosa che si fa da oltre un decennio.
Si mettono le luci nella scena si fa un ray tracing completo, si applicano le light map derivanti da questo ray tracing sulle texture e hai scene molto ma molto realistiche.
Il problema nasce dal limite di quest'illuminazione: è statica, non può interagire correttamente con l'ambiente.
Il vantaggio del ray tracing dinamico non si vede certo in un illuminazione "più bella" o più realistica in se e per se, ma si vede nell'illuminazione più realistica di oggetti traslucenti, oggetti in movimento e luci dinamiche.
mikael84
21-03-2018, 16:08
We mike.... tu come la vedi sta storia del Ray Tracing? Rivoluzione in arrivo per la grafica 3d? :)
Bisogna vederla sul campo, attualmente è un modo per abbattere i limiti di rasterizzazione, che già con Volta, a livello hardware comincia a peccare.
illidan2000
21-03-2018, 16:46
Attualmente a livello hardware non so come vada, speriamo di saperne al più presto, però il primo gioco a sfruttarlo sarà Metro 2018
è un prequel del 2033 ?
:sofico:
Thunder-74
21-03-2018, 17:09
Perchè sono immagini e non sei in movimento.
E' ovvio che puoi fare un bake dell'illuminazione e metterla staticamente in una scena in modo che questa risulti estremamente realistica, è una cosa che si fa da oltre un decennio.
Si mettono le luci nella scena si fa un ray tracing completo, si applicano le light map derivanti da questo ray tracing sulle texture e hai scene molto ma molto realistiche.
Il problema nasce dal limite di quest'illuminazione: è statica, non può interagire correttamente con l'ambiente.
Il vantaggio del ray tracing dinamico non si vede certo in un illuminazione "più bella" o più realistica in se e per se, ma si vede nell'illuminazione più realistica di oggetti traslucenti, oggetti in movimento e luci dinamiche.
Infatti. Se visionate il video che ho messo nel medesimo post, ci si rende conto di come cambia la scena.
Inviato dal mio iPhone X utilizzando Tapatalk
fabietto27
21-03-2018, 17:37
è un prequel del 2033 ?
:sofico:Io aspetto la versione Redux così spremo la vga ancora di più 🤡
Inviato dal vivavoce della mia Daf Variomatic
TigerTank
21-03-2018, 18:45
Attualmente a livello hardware non so come vada, speriamo di saperne al più presto, però il primo gioco a sfruttarlo sarà Metro 2018
Preoccupante la cosa...ricordo che ai tempi in cui uscirono i Metro furono dei mattoni pazzeschi anche perchè non splendidamente ottimizzati :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.