PDA

View Full Version : Le prime indiscrezioni sulla scheda NVIDIA GeForce GTX 1160Ti


Redazione di Hardware Upg
17-01-2019, 09:21
Link alla notizia: https://www.hwupgrade.it/news/skvideo/le-prime-indiscrezioni-sulla-scheda-nvidia-geforce-gtx-1160ti_80209.html

Una GPU appartenente alla famiglia Turing sprovvista però del supporto al Ray Tracing: questa la caratteristica tecnica alla base della futura scheda video di fascia media di NVIDIA


Click sul link per visualizzare la notizia.

demon77
17-01-2019, 09:35
Quindi all'atto pratico, visto anche il prezzo di lancio, è effettivamente questa la scheda di categoria "60" che prosegue con la famiglia GTX.

Boh, scelte commerciali. Secondo me questa scelta va a casatrare un po' la vendita delle 2060..

bonzoxxx
17-01-2019, 10:00
Come fa ad andare come una 1070 che ha 1920 cuda core, se questa ne avrà 1536? :D

[K]iT[o]
17-01-2019, 10:08
Probabilmente sarà del tutto equivalente alla vecchia 1070 in performance, e spingerà verso l'alto il prezzo delle 2060. Insomma cattive notizie.

Maxt75
17-01-2019, 10:13
Solo confusione

Gyammy85
17-01-2019, 10:14
Sarebbe l'anti 590, costando uguale o poco più, boh...
1536 sp? mi sa che non ce la fa, a meno di clock da pentium 4...

[K]iT[o]
17-01-2019, 10:22
E' molto più efficiente e ha memorie molto più veloci. Inizio a pensare che potrebbero usare il suffisso Ti sui chip RTX con RT disabilitato.

bonzoxxx
17-01-2019, 10:24
Rispetto alla 590 si, ma non arriva alla 1070 a meno di clock ben oltre i 2Ghz.

polkaris
17-01-2019, 10:24
Sarà anche low cost, ma che senso ha fare un upgrade alla nuova architerrura se il ray tracing è disabilitato? Meglio un upgrade con la 2060.

nickname88
17-01-2019, 10:29
Quindi all'atto pratico, visto anche il prezzo di lancio, è effettivamente questa la scheda di categoria "60" che prosegue con la famiglia GTX.

Boh, scelte commerciali. Secondo me questa scelta va a casatrare un po' la vendita delle 2060..
vengono indicati 1.536 CUDA cores quindi meno dei 1.920 presenti nella GPU GeForce RTX 2060.

bonzoxxx
17-01-2019, 10:47
Sarà anche low cost, ma che senso ha fare un upgrade alla nuova architerrura se il ray tracing è disabilitato? Meglio un upgrade con la 2060.

Dipende dai prezzi delle 2 soluzioni, considerando che con la 2060 non è che si potrà spingere piu di tanto con il RT :)

bonzoxxx
17-01-2019, 10:48
usa turing, che aumenta l'ipc con le int, se non va uguale andrà -5% considerando anche i clock leggermente superiori alla 1070 di un 5-10% recuperando così i cc meno.

Aspettiamo le rece allora :)

demon77
17-01-2019, 10:49
vengono indicati 1.536 CUDA cores quindi meno dei 1.920 presenti nella GPU GeForce RTX 2060.

Vero, però di fatto a livello di mercato è un fork.
Da una parte le GTX e dall'altra le nuove RTX.

macs311
17-01-2019, 12:57
non ho capito perché state sempre a mettere sul piano della bilancia il Ray Tracing come se fosse una feauture reale. Esiste solo sulla carta, e per quando verrà implementata in via generale (SE verrà fatto) le attuali serie Rtx 2000 saranno molto probabilmente già vecchie.
sono passati 6 mesi e ancora stiamo a livelli di tech demo su un unico gioco.

tra una scheda con Rtx e una senza, ha comunque più senso prendere la più economica a parità di potenza di calcolo.

posto che a priori l'rtx sarebbe una feature totalmente superflua anche se funzionasse bene.

Ale55andr0
17-01-2019, 13:00
rip 590

demon77
17-01-2019, 13:01
posto che a priori l'rtx sarebbe una feature totalmente superflua anche se funzionasse bene.

:mbe:
tecnicamente il ray tracing in realtime è lo scalino più alto per ottenre il prefetto fotorealismo.
Non sarà vitale ma è in ogni caso il traguardo dell'evoluzione grafica.

Ale55andr0
17-01-2019, 13:02
ah no spè, 1536cc, sticazz, braccino :asd: risorgi o 590 :asd:, but, but still vendi meno uguale me sa :fagiano:

macs311
17-01-2019, 13:38
:mbe:
tecnicamente il ray tracing in realtime è lo scalino più alto per ottenre il prefetto fotorealismo.
Non sarà vitale ma è in ogni caso il traguardo dell'evoluzione grafica.

lo sarà pure ma per quello che ho visto dai test che sono stati eseguiti fin'ora, la differenza spesso la devi cercare col lanternino in qualche dettaglio salvo situazioni particolarissime.

è un qualcosa che se aggiunto dentro "a gratis" senza inficiare le prestazioni potrebbe essere il benvenuto, ma non mi fa assolutamente gridare al miracolo tanto da convincermi a spendere nemmeno 1 euro in più, potendo scegliere.

-MiStO-
17-01-2019, 13:53
potrebbe per me essere interessante se a livello di perf/watt si avvicinasse o raggiungesse(magari!) la 1050ti, che da questo pdv è praticamente imbattibile:
la 2060 è una scheda che va e consuma come una fascia superiore

se fanno una scheda che va più della 1060(e magari si avvicina alla 1070) e consuma <100w diventa mia al volo :)

bonzoxxx
17-01-2019, 14:09
Discorso secondo me condivisibile un parte, a meno di non giocare 8 ore al giorno il consumo, inteso proprio come consumo fine a se stesso, varrà si e no 30€ nell'arco di un anno; discorso diverso se tiriamo in ballo le temperature a questo punto ti do ragione.

Una 1070 ora come ora sta sui 150-170W se non sbaglio, il mio pc in full, considerando la cpu che consuma come un forno, a stento supera i 340-360W di assorbimento :)

-MiStO-
17-01-2019, 14:34
Discorso secondo me condivisibile un parte, a meno di non giocare 8 ore al giorno il consumo, inteso proprio come consumo fine a se stesso, varrà si e no 30€ nell'arco di un anno; discorso diverso se tiriamo in ballo le temperature a questo punto ti do ragione.

Una 1070 ora come ora sta sui 150-170W se non sbaglio, il mio pc in full, considerando la cpu che consuma come un forno, a stento supera i 340-360W di assorbimento :)

non è assolutamente per il costo, ci mancherebbe
è proprio una questione di temperature e di smaltimento calore: nel mio case, tenuto in orizzontale causa scrivania stretta, avevo prima una rx480 4gb nitro...beh era ingestibile: dopo 5 minuti ero a 90°, fischiava come un treno ed andava in throttling continuo.
la 1050 non ha neanche bisogno di di alimentazione aggiuntiva, arriva a 60° scarsi ed è inudibile, ok altre prestazioni sicuramente ma posso giocare senza svegliare i flgli nell'altra camera :asd:
se potessi avere qualche fps in più senza dover tornare ai 200w di prima beh sarebbe il massimo :)

calabar
17-01-2019, 14:59
Mi lascia un po' perplesso l'utilizzo del TU106 castrato, sempre che la voce sia vera.
Con un chip dedicato questa scheda potrebbe essere davvero vincente per la vendita di massa: un chip piccolo con costi contenuti, consumi contenuti e prestazioni che hanno come target il giocatore medio.
Certo, gli scarti vanno utilizzati, ma per quelli avrebbero potuto far uscire tra qualche tempo una versione "TI" della scheda. A meno che di scarti non ne abbiano montagne, dato che le 2060 utilizzano parte del chip.

@bonzoxxx
Non credo che il costo della corrente fosse il nocciolo della questione quanto piuttosto le specifiche termiche, che la renderebbero una discreta scheda da gioco per sistemi molto compatti.

sintopatataelettronica
17-01-2019, 15:41
Sarà anche low cost,

cough.. cough... .. . . . . LOW COST ???????

se sarà venduta più vicina ai 300$ esentasse USA che ai 250 (e dunque a più di 300 € in italia) .. accipicchia definirla scheda low cost!!!

Comunque.. bisognerà aspettare per vedere le prestazioni.. ma il prezzo paventato, a mio avviso, è tutt'altro che incoraggiante.

sintopatataelettronica
17-01-2019, 15:46
:mbe:
tecnicamente il ray tracing in realtime è lo scalino più alto per ottenre il prefetto fotorealismo.
Non sarà vitale ma è in ogni caso il traguardo dell'evoluzione grafica.

A parte che si parla di raytracing realtime.. (che non è il raytracing per il fotorealismo perfetto di cui parli tu e dei programmi di grafica 3d, che al livello attuale della tecnologia in realtime te lo sogni proprio.. per quello ci vorranno più di 10 anni per arrivarci, e forse anche un bel po' di più.. ).

Il punto, comunque, non è neanche che questo raytracing realtime sia inutile di per sè: di certo un po' di realismo in più ce lo potrà anche mettere nella grafica dei giochi; è inutile perché, al momento, c'è un solo gioco che lo implementa - e in forma assai primitiva - .. e perché probabilmente per i prossimi 2 anni l'unica scheda in grado di gestire effettivamente la forma più primitiva di questo prototipo di raytracing realtime costa più di 700 euro!

Per cui .. sì, al momento è l'inutilità più assoluta.

Poi se uno vuol buttare i soldi solo per poter dire spavaldamente: "c'ho il fotorealismo realtime!!!!! " .. libero di farlo... (buon per lui che ce li ha!) :D

demon77
17-01-2019, 16:23
A parte che si parla di raytracing realtime.. (che non è il raytracing per il fotorealismo perfetto di cui parli tu e dei programmi di grafica 3d, che al livello attuale della tecnologia in realtime te lo sogni proprio.. per quello ci vorranno più di 10 anni per arrivarci, e forse anche un bel po' di più.. ).

Il punto, comunque, non è neanche che questo raytracing realtime sia inutile di per sè: di certo un po' di realismo in più ce lo potrà anche mettere nella grafica dei giochi; è inutile perché, al momento, c'è un solo gioco che lo implementa - e in forma assai primitiva - .. e perché probabilmente per i prossimi 2 anni l'unica scheda in grado di gestire effettivamente la forma più primitiva di questo prototipo di raytracing realtime costa più di 700 euro!

Per cui .. sì, al momento è l'inutilità più assoluta.

Poi se uno vuol buttare i soldi solo per poter dire spavaldamente: "c'ho il fotorealismo realtime!!!!! " .. libero di farlo... (buon per lui che ce li ha!) :D

Va bene. Ma da qualche parte si deve pur iniziare.
Con l'arrivo di queste schede la prossima generazione di giochi sarà tutta dotata di effetti ray tracing.

Se non fossero uscite queste schede non si sarebbe andati avanti.

batou83
17-01-2019, 16:49
A parte che si parla di raytracing realtime.. (che non è il raytracing per il fotorealismo perfetto di cui parli tu e dei programmi di grafica 3d, che al livello attuale della tecnologia in realtime te lo sogni proprio.. per quello ci vorranno più di 10 anni per arrivarci, e forse anche un bel po' di più.. ).



Ah ecco, confermi quello che io avevo capito. Non a caso nelle specifiche Nvidia menziona rtx-ops, giga rays al secondo e appunto raytracing in tempo reale. Eppure mi pare che uno dei soliti flamer presunti espertoni avesse confuso e mischiato un pò le cose in qualche altro thread, sempre al fine di ribadire la superiorità di nvidia su amd :muro:

demon77
17-01-2019, 17:07
A parte che si parla di raytracing realtime.. (che non è il raytracing per il fotorealismo perfetto di cui parli tu e dei programmi di grafica 3d, che al livello attuale della tecnologia in realtime te lo sogni proprio.. per quello ci vorranno più di 10 anni per arrivarci, e forse anche un bel po' di più.. ).

Di cui parlo io? :confused:
Veramente io ho espressamente detto RAY TRACING IN REALTIME.
Mai inteso il rendering ad alta qualità dei software da lavoro.

bonzoxxx
17-01-2019, 17:21
non è assolutamente per il costo, ci mancherebbe
è proprio una questione di temperature e di smaltimento calore: nel mio case, tenuto in orizzontale causa scrivania stretta, avevo prima una rx480 4gb nitro...beh era ingestibile: dopo 5 minuti ero a 90°, fischiava come un treno ed andava in throttling continuo.
la 1050 non ha neanche bisogno di di alimentazione aggiuntiva, arriva a 60° scarsi ed è inudibile, ok altre prestazioni sicuramente ma posso giocare senza svegliare i flgli nell'altra camera :asd:
se potessi avere qualche fps in più senza dover tornare ai 200w di prima beh sarebbe il massimo :)

Avendo letto consumi mi sono basato su un eventuale consumo di corrente.
Concondo con te sul discorso temp :)

sintopatataelettronica
17-01-2019, 18:53
Di cui parlo io? :confused:
Veramente io ho espressamente detto RAY TRACING IN REALTIME.
Mai inteso il rendering ad alta qualità dei software da lavoro.

tu hai scritto :

"tecnicamente il ray tracing in realtime è lo scalino più alto per ottenre il prefetto fotorealismo"

Beh.. come dovresti sapere da solo, visto che la differenza tra un engine realtime e uno che ci impiega ORE per creare un singolo fotogramma ti è ben chiara... il perfetto fotorealismo te lo sogni, con il raytracing in tempo reale.. almeno per altri 10 e più (temo parecchi di più) anni :D

calabar
18-01-2019, 09:58
@sintopatataelettronica
Credo intendesse RayTracing in generale, essendo questa la tecnica con cui si ottiene oggi una grafica fotorealistica, anche se al momento non abbiamo la potenza computazionale necessaria per farlo in tempo reale.
Quindi muoversi in questa direzione, anche se oggi i risultati sono quel che sono, è comunque tracciare la strada verso un futuro fotorealismo della grafica in tempo reale.
Questo ovviamente non significa che abbia senso ora comprare una scheda con unità dedicate al RayTracing, in campo gaming è una cosa da "early adopter" che può spendere di più per provare questa caratteristica in anteprima. Credo che al momento quasi tutti concordino che la resa non valga la spesa.

sintopatataelettronica
18-01-2019, 12:44
@sintopatataelettronica
Credo intendesse RayTracing in generale, essendo questa la tecnica con cui si ottiene oggi una grafica fotorealistica, anche se al momento non abbiamo la potenza computazionale necessaria per farlo in tempo reale.
Quindi muoversi in questa direzione, anche se oggi i risultati sono quel che sono, è comunque tracciare la strada verso un futuro fotorealismo della grafica in tempo reale.

Beh, aveva scritto specificamente "raytracing realtime" abbinandolo poi a "perfetto fotorealismo" e ho solo specificato che era improponibile associare le due cose, per chi magari la differenza tra un engine raytracing in real-time e quelli, fotorealistici, usati dai programmi di rendering (che ci impiegano ORE anche su macchine molto potenti a calcolare un singolo fotogramma) non ha idea di cosa sia.

Poi è logico, come ha detto pure lui, che da qualche parte si deve pur partire.. e magari nei prossimi anni il raytracing realtime, pur non diventando fotorealismo perfetto (che per 10 e più anni non sarà assolutamente possibile) .. sarà talmente superiore alle tecniche di rendering implementate attualmente nei giochi da risultare veramente un valore aggiunto (oltre che funzionare su schede che costano molto di meno - o così si spera, visto la per nulla incoraggiante follia del trend attuale - ) .. ma per ora non lo è.

Comprare una scheda da 700 e passa euro solo per quello è senza senso, a meno di non averci i soldi che veramente non sai come spenderli.. e allora, investirceli ora, è un po' come finanziare un progetto di crowdfunding.. cioè per qualcosa che ancora non c'è del tutto e darà (si spera) i suoi frutti in futuro...

[K]iT[o]
18-01-2019, 12:51
Il discorso del non-senso nel comprare quel tipo di scheda a 700 euro lo puoi applicare a qualsiasi scheda video se ragioni in questi termini, anche giocare per molti non vale assolutamente tutti i soldi che servono per un pc gaming. Capisci bene che è il tuo ragionamento a non avere alcun senso. Si tratta di valutazioni soggettive, per te non ne vale la pena, per altri sì.

demon77
18-01-2019, 13:02
tu hai scritto :

"tecnicamente il ray tracing in realtime è lo scalino più alto per ottenre il prefetto fotorealismo"

Beh.. come dovresti sapere da solo, visto che la differenza tra un engine realtime e uno che ci impiega ORE per creare un singolo fotogramma ti è ben chiara... il perfetto fotorealismo te lo sogni, con il raytracing in tempo reale.. almeno per altri 10 e più (temo parecchi di più) anni :D

Oggi come oggi ovvio che si.
Ma come ho detto, da qualche parte bisogna iniziare.. e a giudicare da quello che si può fare già adesso non credo ci vorrà così tanto come dici per ottenre immagini pressochè indistinguibili dalla realtà. Secondo me in 10 anni già avremo dei risultati pazzeschi.

https://www.youtube.com/watch?v=pNmhJx8yPLk

sintopatataelettronica
18-01-2019, 14:59
iT[o];46013449']Il discorso del non-senso nel comprare quel tipo di scheda a 700 euro lo puoi applicare a qualsiasi scheda video se ragioni in questi termini, anche giocare per molti non vale assolutamente tutti i soldi che servono per un pc gaming. Capisci bene che è il tuo ragionamento a non avere alcun senso. Si tratta di valutazioni soggettive, per te non ne vale la pena, per altri sì.

Non è lo stesso discorso e la soggettività non c'entra niente.

Comprare una scheda da 700 euro (o più) perché permette di giocare più fluidamente o a risoluzioni maggiori è una cosa che ha senso (potendoselo permettere).. mentre comprare una scheda che costa più di 700 euro perché implementa una tecnologia ancora allo stadio embrionale e supportata, al momento, da un solo gioco (UNO!) e in forma molto primitiva.. boh... io il senso proprio non ce lo vedo (se non il voler fare da finanziatori per una cosa che darà i suoi veri frutti però solo con altre schede, nel futuro).

Poi condivido il discorso che da qualche parte bisogna pur iniziare .. e va bene che si sia iniziato, per carità.. ma nel presente aver quella tecnologia implementata o meno sulla scheda non fa nessuna differenza pratica.

Maxt75
18-01-2019, 15:34
Non è lo stesso discorso e la soggettività non c'entra niente.

Comprare una scheda da 700 euro (o più) perché permette di giocare più fluidamente o a risoluzioni maggiori è una cosa che ha senso (potendoselo permettere).. mentre comprare una scheda che costa più di 700 euro perché implementa una tecnologia ancora allo stadio embrionale e supportata, al momento, da un solo gioco (UNO!) e in forma molto primitiva.. boh... io il senso proprio non ce lo vedo (se non il voler fare da finanziatori per una cosa che darà i suoi veri frutti però solo con altre schede, nel futuro).

Poi condivido il discorso che da qualche parte bisogna pur iniziare .. e va bene che si sia iniziato, per carità.. ma nel presente aver quella tecnologia implementata o meno sulla scheda non fa nessuna differenza pratica.

Concordo. Pensa che io questo concetto lo applico anche al 4k. Considerato tutto il quadro generale della situazione :D

Fos
18-01-2019, 23:56
tu hai scritto :

"tecnicamente il ray tracing in realtime è lo scalino più alto per ottenre il prefetto fotorealismo"

Beh.. come dovresti sapere da solo, visto che la differenza tra un engine realtime e uno che ci impiega ORE per creare un singolo fotogramma ti è ben chiara... il perfetto fotorealismo te lo sogni, con il raytracing in tempo reale.. almeno per altri 10 e più (temo parecchi di più) anni :DPerché, il Raytracing è quello che si avvicina di più alla realtà?

Anche quello usato nei rendering "indiretti" è approssimativo, e perfetto realismo sarà sempre una parola grossa...

Ad esempio, Questo metodo non è migliore?

http://www.nextlimit.com/maxwell/full-features/

Dal paradigma pare proprio di sì.

Cito: No tricks. Just real world physics. Which is why Maxwell Render is the benchmark in render quality.

In pratica, quello in realtime è l'approssimazione dell'approssimazione. :fagiano:

[K]iT[o]
19-01-2019, 10:34
Non è lo stesso discorso e la soggettività non c'entra niente.

Comprare una scheda da 700 euro (o più) perché permette di giocare più fluidamente o a risoluzioni maggiori è una cosa che ha senso (potendoselo permettere).. mentre comprare una scheda che costa più di 700 euro perché implementa una tecnologia ancora allo stadio embrionale e supportata, al momento, da un solo gioco (UNO!) e in forma molto primitiva.. boh... io il senso proprio non ce lo vedo

AMD non ha presentato nulla di nuovo, mentre le soluzioni nVidia nuove hanno tutte di serie questa nuova tecnologia, e le sue stesse di generazione passata non sono economicamente vantaggiose, quindi è ovvio che chi ha bisogno di una scheda migliore ne prenda una RTX, quindi non capisco a dove porta il tuo ragionamento. Poteva essere valido se ci fossero soluzioni senza RT a costi inferiori.

sintopatataelettronica
19-01-2019, 11:05
Perché, il Raytracing è quello che si avvicina di più alla realtà?

Anche quello usato nei rendering "indiretti" è approssimativo, e perfetto realismo sarà sempre una parola grossa...

Sì, son d'accordo, figurati.

Mi ero solo permesso di sottolineare, appunto, come l'associare - come ha fatto un utente - il concetto di "perfetto fotorealismo" a un engine che deve fare il raytracing in tempo reale è quanto di meno sensato ci possa essere.

Quel che dici è vero.. nemmeno gli algoritmi di rendering attualmente più sofisticati (che ci impiegano ore per calcolare un singolo fotogramma) sono vicini al "perfetto fotorealismo".. che si simula solamente (conoscendo ed avendo bene presenti i limiti dell'engine usato).

Per cui, ribadisco, parlare di "fotorealismo" associando il concetto al rendering realtime.. è quanto di più fuorviante si possa fare.

sintopatataelettronica
19-01-2019, 11:13
iT[o];46015087']AMD non ha presentato nulla di nuovo, mentre le soluzioni nVidia nuove hanno tutte di serie questa nuova tecnologia, e le sue stesse di generazione passata non sono economicamente vantaggiose, quindi è ovvio che chi ha bisogno di una scheda migliore ne prenda una RTX, quindi non capisco a dove porta il tuo ragionamento. Poteva essere valido se ci fossero soluzioni senza RT a costi inferiori.

Il mio ragionamento riguarda le affermazioni ridicole fatte più volte in questi thread che il motivo per cui comprare una scheda da più di 700 euro sia che c'hanno questo straordinario raytracing realtime che non c'ha nessun'altro, tutto qui.

Al di là di questa fuffa del raytracing (in futuro magari non lo sarà più, ma al momento non serve materialmente a niente) - e tralasciando il discorso nient'affatto secondario dei prezzi folli che ad ogni generazione di schede diventano sempre più folli - penso (e l'ho scritto più volte) che le RTX siano delle ottime schede; come hai scritto, di scelta, al momento, in fascia alta (perché anche le schede da 400 euro io la considero fascia alta) non ce n'è..

bonzoxxx
19-01-2019, 11:32
Ma alla fine della fiera, oltre BF, ci sono altri game che hanno implementato l'RT di nvidia? Sia chiaro non sono contrario ma se non viene adottata in maniera estesa non credo convenga spendere per un "plus" non sfruttato.

sintopatataelettronica
19-01-2019, 12:25
Ma alla fine della fiera, oltre BF, ci sono altri game che hanno implementato l'RT di nvidia?

Al momento no.

Ci vorranno diversi anni (e almeno un'altra generazione di schede) perché diventi un minimo diffuso e così decentemente implementato da renderlo (eventualmente) un valore aggiunto.

Adesso non lo è.

calabar
19-01-2019, 14:08
Più che altro non ho capito una cosa: gli RT core possono essere d'aiuto nel rendering non real time tramite GPU? O sono limitati a certe funzionalità che nel rendering non real time non ha senso utilizzare? O magari il loro uso è limitato alle schede professionali?

sintopatataelettronica
19-01-2019, 15:45
Più che altro non ho capito una cosa: gli RT core possono essere d'aiuto nel rendering non real time tramite GPU? O sono limitati a certe funzionalità che nel rendering non real time non ha senso utilizzare? O magari il loro uso è limitato alle schede professionali?

In futuro in qualche modo verranno utilizzati, ovviamente, pure dal rendering non in tempo reale (come è stato con le unità di calcolo delle GPU per compiti in cui sono più efficienti della CPU).

Al momento, però (e così nel prossimo futuro) non sono usati da nessun programma/engine, visto che serve una riscrittura dei moduli di rendering che tenga conto della loro presenza e che ne sfrutti le specifiche capacità.

calabar
19-01-2019, 16:46
@sintopatataelettronica
Grazie. Per quello comunque poco male, se i vantaggi dovessero esserci credo che vedremo le prime implementazioni a breve, sempre che nVidia lo permetta nelle schede gaming.
Il mio dubbio era più che altro sulla loro utilità. Per capirci un po' come il quicksync di Intel: ottimo se devi fare delle codifiche di qualità accettabile in breve tempo e con consumi ridotti, ma se devi fare un lavoro di alta qualità non puoi usarli, perchè non hanno la versatilità delle unità di calcolo generiche.

sintopatataelettronica
19-01-2019, 18:03
Il mio dubbio era più che altro sulla loro utilità. Per capirci un po' come il quicksync di Intel: ottimo se devi fare delle codifiche di qualità accettabile in breve tempo e con consumi ridotti, ma se devi fare un lavoro di alta qualità non puoi usarli, perchè non hanno la versatilità delle unità di calcolo generiche.

Sì, capisco il tuo dubbio.. e in effetti finché non verranno usate in qualche software per fare qualcosa di specifico è un dubbio che resta pure a me , soprattutto sulla loro efficienza al di fuori del calcolo realtime.

Come pure mi resta il dubbio che (come ha fatto in passato) NVIDIA possa poi "castrare" queste unità (tramite driver) al di fuori dell'uso in ambito gaming e che le si possa sfruttare nei software grafici solo sulle schede PRO (a meno di qualche "hack")

Gyammy85
19-01-2019, 18:36
"Nvidia" e "unità di calcolo generiche" non si possono mettere nella stessa frase

ilario3
21-01-2019, 16:42
Sarà anche low cost, ma che senso ha fare un upgrade alla nuova architerrura se il ray tracing è disabilitato? Meglio un upgrade con la 2060.

Secondo me invece la 2060 non ha senso con RTX abilitato, se la 2080 non regge i 60FPS con il FHD e RTX attivo, non vedo come faccia a farlo la 2060, invece la vedo perfetta nella gestione di monitor 1440p o FHD con refresh rate molto spinti. La 2060 usa anche DLSS MOLTO interessante, e la prenderei solo epr questo, oltre al fatto che sui nuovi monitor Nvidia dalla serie 20 in poi fa gestire tramite driver "il freesync" chiamiamolo cosi invece di dover prenderer i Gsync e spendere 200-300 euro in maniera ingiustificata, questo da quello che ho letto, non ha capito se le funzionalità saranno molto castrati vs G-Sync puro