PDA

View Full Version : NVIDIA annuncia 3 schede della famiglia GeForce RTX: 2080Ti, 2080 e 2070


Pagine : [1] 2

Redazione di Hardware Upg
20-08-2018, 19:09
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/5237/nvidia-annuncia-3-schede-della-famiglia-geforce-rtx-2080ti-2080-e-2070_index.html

Debutto da settembre per le nuove generazioni di schede video NVIDIA destinate ai videogiocatori, basate su architettura Turing. Focus su Ray Tracing, tecnica che secondo NVIDIA verrà sempre più implementata all'interno dei giochi di prossima generazione e che l'architettura Turing permette di eseguire con prestazioni nettamente superiori alle schede di precedente generazione.

Click sul link per visualizzare l'articolo.

tony73
20-08-2018, 19:19
Mining o non mining oramai i prezzi si sono stabilizzati in alto, OVVIAMENTE.

29Leonardo
20-08-2018, 19:28
E ovviamente almeno per quanto mi riguarda una fascia medio alta (la 2070) a piu di 500€ (ma anche a 400€) se la possono tenere:)

al135
20-08-2018, 19:33
possibile che il raytracing si traduca in una maggior esigenza di risorse ma in meno lavoro in fase di gestione dell'illuminazione per gli sviluppatori?

korra88
20-08-2018, 19:35
E ovviamente almeno per quanto mi riguarda una fascia medio alta (la 2070) a piu di 500€ (ma anche a 400€) se la possono tenere:)

qui i prezzi ufficiali:
https://www.nvidia.it/geforce/buy/

stica che mazzata!

DukeIT
20-08-2018, 19:41
Ma allora i prezzi citati nell'articolo, cosa sono, visto che street price non possono essercene ora?

Mparlav
20-08-2018, 19:44
Ero stato fin troppo ottimista in passato sul rincaro dei prezzi. Sono andati ben oltre.

korra88
20-08-2018, 19:53
i prezzi delle custom....:eek: :cry:
https://m.nexths.it/index.php/Products/getNews/

turcone
20-08-2018, 20:04
io pensavo di pensionare la mia 1070 ma con sti prezzi aspetto l'anno prossimo
la mancanza di concorrenza si vede grazie amd :cool: :cool:

kamon
20-08-2018, 20:15
io pensavo di pensionare la mia 1070 ma con sti prezzi aspetto l'anno prossimo
la mancanza di concorrenza si vede grazie amd :cool: :cool:

Eh stai a vedere che è colpa di AMD se questi fanno prezzi da tuonati...
La colpa ancor più che dei miners, è dei polli che prima li maledicono, poi puntualmente comprano comunque spendendo 300€ ogni 5fps di prestazioni guadagnati.

voodooFX
20-08-2018, 20:20
ma non avevano deciso di abbandonare l'SLI?
vedo che è ancora supportato, anche 3-way

turcone
20-08-2018, 20:25
Eh stai a vedere che è colpa di AMD se questi fanno prezzi da tuonati...
La colpa ancor più che dei miners, è dei polli che prima li maledicono, poi puntualmente comprano comunque spendendo 300€ ogni 5fps di prestazioni guadagnati.

se la concorrenza non ha prodotti adeguati puoi fare i prezzi che vuoi

lauda
20-08-2018, 20:28
se la concorrenza non ha prodotti adeguati puoi fare i prezzi che vuoi

Le Vega costano di più delle 1070/1080 quindi mi sembra più colpa dei minners che della concorrenza!

kamon
20-08-2018, 20:39
se la concorrenza non ha prodotti adeguati puoi fare i prezzi che vuoi

Certo, se i soldi non avessero valore sarebbe colpa di amd, ma se la gente continua a comprare prodotti follemente sovraprezzati per guadagnare un nulla in prestazioni, la colpa è di chi compra, solitamente gli stessi che poi frignano per i prezzi alti :D.

WarDuck
20-08-2018, 21:06
Le Vega costano di più delle 1070/1080 quindi mi sembra più colpa dei minners che della concorrenza!

Miners che probabilmente se si informassero meglio capirebbero che è meglio prendere un dispositivo integrato ASIC che faccia quelle operazioni che una GPU :muro:

I prezzi non sono così distanti e l'efficienza è ovviamente migliore per un ASIC che fa solo quello.

FroZen
20-08-2018, 21:44
È già stata data la colpa ad amd dei prezzi nvidia?

Ah, si.....


:asd:

nickname88
20-08-2018, 21:44
Mining o non mining oramai i prezzi si sono stabilizzati in alto, OVVIAMENTE.
Ma allora i prezzi citati nell'articolo, cosa sono, visto che street price non possono essercene ora?
Come scritto sull'articolo sono prezzi in preorder dal sito ufficiale di Nvidia e riferito alle reference.

nickname88
20-08-2018, 21:48
Certo, se i soldi non avessero valore sarebbe colpa di amd, ma se la gente continua a comprare prodotti follemente sovraprezzati per guadagnare un nulla in prestazioni, la colpa è di chi compra, solitamente gli stessi che poi frignano per i prezzi alti :D.Io passando dalla mia ex 980 alla mia attuale 1080 ho guadagnato infatti appena +70-80%. Roba da poco ...
Per quanto riguarda queste ultime invece tu già conosci le sue performance e il grado di usabilità del RayTracing nell'attuale panorama ludico ?

kamon
20-08-2018, 22:08
Io passando dalla mia ex 980 alla mia attuale 1080 ho guadagnato infatti appena +70-80%. Roba da poco ...
Per quanto riguarda queste ultime invece tu già conosci le sue performance e il grado di usabilità del RayTracing nell'attuale panorama ludico ?

Scusa, mi sono perso al termine "RayTracing", uno che lo usa per mostrare quanto ne sa è evidentemente troppo sexy per potergli ribattere... Mi limiterò a rimandarti al termine "iperbole", nell'enciclopedia Treccani. (http://www.treccani.it/enciclopedia/iperbole_%28Enciclopedia-Dantesca%29/)

korra88
20-08-2018, 22:14
Io passando dalla mia ex 980 alla mia attuale 1080 ho guadagnato infatti appena +70-80%. Roba da poco ...
Per quanto riguarda queste ultime invece tu già conosci le sue performance e il grado di usabilità del RayTracing nell'attuale panorama ludico ?

Al momento zero..anche se non han specificato se per il VXAO possono usare i RT core o é esclusiva della tecnologia RTX. Comunque i titoli sono in arrivo..

goku4liv
20-08-2018, 22:23
Volevo sostituire la mia 1060 3gb che va ancora benone, ma visto i prezzi di questa generazione, mi sa che me la tengo e poi vedremo, a mè sinceramente dei capelli illuminazione ombre ecc , me ne frega na sega, per mè gia la grafica di ora è ottima, non posso spendere + di 300 euro per una scheda video, se la 2060 stara su quel prezzo ci faro un pensierino se no scaffale

3000
20-08-2018, 22:25
Ed io che volevo passare dalla GTX 285 alla RTX 2080 Ti… .. .

AceGranger
20-08-2018, 22:54
ma non avevano deciso di abbandonare l'SLI?
vedo che è ancora supportato, anche 3-way

tecnicamente è stato abbandonato; quello è l'nVlink.

ma dove hai visto 3way ? sul sito segnano solo 2 GPU.

DukeIT
20-08-2018, 23:14
Io passando dalla mia ex 980 alla mia attuale 1080 ho guadagnato infatti appena +70-80%. Roba da poco ...
Evidentemente si riferiva ai prodotti della concorrenza e a chi sosteneva che la colpa dei prezzi Nvidia fosse di AMD.
Difficile pretendere concorrenza da parte di chi compra poi verde comunque. O si premia la concorrenza quando offre prodotti dal buon rapporto qualità prezzo, se non addirittura prodotti migliori in assoluto, oppure si deve accettare che la concorrenza ad un certo punto non riesca più ad essere competitiva, e si devono accettare quindi anche gli oneri che ciò comporta.

Nurgiachi
20-08-2018, 23:40
Volevo sostituire la mia 1060 3gb che va ancora benone, ma visto i prezzi di questa generazione, mi sa che me la tengo e poi vedremo, a mè sinceramente dei capelli illuminazione ombre ecc , me ne frega na sega, per mè gia la grafica di ora è ottima, non posso spendere + di 300 euro per una scheda video, se la 2060 stara su quel prezzo ci faro un pensierino se no scaffale
Dalla GTX 2060 in giù non dovrebbero avere il Ray Tracing Core quindi è facile aspettarsi una differenza di prezzo inferiore rispetto alla vecchia serie 10.

Vorrei giusto far notare, a chi si dispera dei prezzi, che questa non è una nuova architettura che punta ad aumentare di qualche punto percentuale le prestazioni, nvidia sta puntando a qualcosa di nuovo integrando nuove componentistiche hardware. Volete pagarle queste novità o preferivate avere una scheda con un prezzo allineato alla vecchia generazione ma in grado di fare 20fps in più della GTX1080 non offrendo nulla di nuovo?

Personalmente non sono interessato all'acquisto ma sono molto curioso di vedere quel che succederà da qui ad un paio di generazioni quando, queste novità, diventeranno forse più popolari ed alla portata di tutti.

AceGranger
21-08-2018, 00:03
Evidentemente si riferiva ai prodotti della concorrenza e a chi sosteneva che la colpa dei prezzi Nvidia fosse di AMD.
Difficile pretendere concorrenza da parte di chi compra poi verde comunque. O si premia la concorrenza quando offre prodotti dal buon rapporto qualità prezzo, se non addirittura prodotti migliori in assoluto, oppure si deve accettare che la concorrenza ad un certo punto non riesca più ad essere competitiva, e si devono accettare quindi anche gli oneri che ciò comporta.

difficile comprare la concorrenza quando offre da generazioni prodotti che non tengono il passo.

mi pare che AMD sita vendendo un botto di RYZEN, Threadripper ed EPYC, e Intel è sempre stata piu forte in marketing, soldi e accordi rispetto ad nVidia, eppure AMD sta vendendo una marea.

è evidente come in campo GPU debba lavorare.

StIwY
21-08-2018, 00:22
Cambiare vga è diventata roba per ricconi, a quanto pare.

Vul
21-08-2018, 01:48
Chissà cosa faranno i vari vendors, soprattutto AMD e il gruppo Vulkan.

E' ovvio che una soluzione a reti neurali non possa essere il futuro dell'illuminazione nei videogiochi.

Gyammy85
21-08-2018, 07:49
Come scritto sull'articolo sono prezzi in preorder dal sito ufficiale di Nvidia e riferito alle FE.

Fixed! :nonsifa: :nonsifa:

Chissà cosa faranno i vari vendors, soprattutto AMD e il gruppo Vulkan.

E' ovvio che una soluzione a reti neurali non possa essere il futuro dell'illuminazione nei videogiochi.

Amd con vulkan avrà la soluzione che costa un decimo andando il doppio, ma ovviamente a nessuno importerà, as usual.
A vedere i fantastici screen rtx off e rtx on, mi viene da pensare che probabilmente stiamo sbagliando qualcosa, in questo settore.

canesciolto4
21-08-2018, 08:02
Fixed! :nonsifa: :nonsifa:



Amd con vulkan avrà la soluzione che costa un decimo andando il doppio, ma ovviamente a nessuno importerà, as usual.
A vedere i fantastici screen rtx off e rtx on, mi viene da pensare che probabilmente stiamo sbagliando qualcosa, in questo settore.

E sai perché non importa a nessuno?
Perché non è vero! ;)

Gyammy85
21-08-2018, 08:06
E sai perché non importa a nessuno?
Perché non è vero! ;)

Fidati, è da 15 anni così.

canesciolto4
21-08-2018, 08:09
Fidati, è da 15 anni così.

Fidati di noi, cambia hobby.

BulletHe@d
21-08-2018, 08:27
in effetti dire che da 15 anni AMD và il doppio nelle GPU ma non se la filano è una grossa cavolata (per non dire altro) AMD e Nvidia si sono sempre battute con fortune alterne e differenze comunque contenute a parità di fascia, in molti casi la differenza di potenza è stata quasi nulla ma la voce grossa la facevano i consumi, ma comunque tirando le somme si sono sempre equivalse.

Certo queste Turing forse non saranno convenienti lato gaming, ma per lavoro le innovazioni portano comunque una ventata di freschezza che serviva.

Per il gaming abbiamo le DX12 e Vulcan che sono pronte come librerie per il Ray Tracing, ma non abbiamo sviluppatori con la voglia di investire in delle tecnologie che purtroppo su console non si sa quando saranno fattibili.

Purtroppo l'andazzo di questi ultimi anni ha dimostrato che per gli sviluppatori il gaming ha come dettatrice di tempi il mondo console, quello PC si deve adattare a quei ritmi, questo significa che per ora ualunque innovazione finche non verrà adottata nelle console sarà inutile per il gaming PC.

Peccato perché se fosse il mondo PC a dettare i tempi le DX12 e il Ray Tracing sarebbero già realtà nel mondo gaming

Gyammy85
21-08-2018, 08:36
in effetti dire che da 15 anni AMD và il doppio nelle GPU ma non se la filano è una grossa cavolata (per non dire altro) AMD e Nvidia si sono sempre battute con fortune alterne e differenze comunque contenute a parità di fascia, in molti casi la differenza di potenza è stata quasi nulla ma la voce grossa la facevano i consumi, ma comunque tirando le somme si sono sempre equivalse.

Certo queste Turing forse non saranno convenienti lato gaming, ma per lavoro le innovazioni portano comunque una ventata di freschezza che serviva.

Per il gaming abbiamo le DX12 e Vulcan che sono pronte come librerie per il Ray Tracing, ma non abbiamo sviluppatori con la voglia di investire in delle tecnologie che purtroppo su console non si sa quando saranno fattibili.

Purtroppo l'andazzo di questi ultimi anni ha dimostrato che per gli sviluppatori il gaming ha come dettatrice di tempi il mondo console, quello PC si deve adattare a quei ritmi, questo significa che per ora ualunque innovazione finche non verrà adottata nelle console sarà inutile per il gaming PC.

Peccato perché se fosse il mondo PC a dettare i tempi le DX12 e il Ray Tracing sarebbero già realtà nel mondo gaming

Mica ho detto che va il doppio, intendevo che storicamente spinge verso tecnologie più avanzate ed economiche ma no, niente da fare, no way.
Le dx12? son 6 anni che amd ha l'architettura pronta, ma niente, no way.

majinbu7
21-08-2018, 08:39
Nvidia si sta davvero approfittando un pò troppo della situazione predominante che ha nel mercato, spero davvero che nel 2020 con l'ingresso di intel (come terzo incomodo) nel settore vga discrete, si diano tutti una calmata e si torni a poter godere di buone VGA con prezzi abbordabili, non si può proprio vedere una 2080 a più di 800 € :doh:

Alodesign
21-08-2018, 08:40
Quindi dovrei spendere dai 600 ai 1400 euro per vedere la polvere svolazzare in una stanza illuminata da un sole di mezza estate?

D4N!3L3
21-08-2018, 09:06
Secondo me i prezzi si fletteranno, ora è il boom della nuova tecnologia ma come in ogni nuova uscita conviene:

1) Aspettare i prodotti che effettivamente ne facciano uso e non solo periferico;
2) Aspettare che la tecnologia si stabilizzi e quindi il costo cali.

Acquistare ora ha poco senso e non è giustificabile, eccetto che in pochi casi.

Probabilmente conviene anche aspettare una nuova generazione in modo che la tecnologia si affini e il prezzo cali.

BulletHe@d
21-08-2018, 09:15
@Gyammy85
veramente avevi scritto proprio che andava il doppio, ma ho capito che intendevi semplicemente dire che andava più forte di nvidia in accoppiata con Vulkan ma non se la sono filata. E hai ragione anche quando parli delle DX12 e AMD (ma anche nvidia anche se con rese differenti con le serie vecchie x via della compatibilità via software emulato e non elaborato in HW come le serie 1000) a riprova che purtroppo è il mondo console a dettare legge, anche se svilupperanno in futuro in DX12 lo faranno al minimo sindacale per non perdere tempo a implementare le moltitudini di tecnologie in essa contenute, come al contempo le precedenti DX, le DX9 sono state sfruttate in tutta la loro completezza solo negli ultimi 3-4 anni dove per non passare a DX10-11 hanno tirato il collo alle DX9 usando tutte le sue caratteristiche, le 10 sono state proprio saltate e le 11 se non era per il 4k avrebbero sofferto identica fine, invece per ora un po' di titoli che lo sfruttano ne hanno fatti.

In generale il Ray Tracing cambia tutta la gestione di luci ed ombre che con questa tecnica sarà veramente in tempo reale e realistica, e che in futuro se verrà adottata in massa consentirà finalmente di avere quel fotorealismo nei modelli 3d che dalla nascita del 3d viene inseguito

lucusta
21-08-2018, 09:28
Dalla GTX 2060 in giù non dovrebbero avere il Ray Tracing Core quindi è facile aspettarsi una differenza di prezzo inferiore rispetto alla vecchia serie 10.
quindi la concorrenza c'è.

Vorrei giusto far notare, a chi si dispera dei prezzi, che questa non è una nuova architettura che punta ad aumentare di qualche punto percentuale le prestazioni, nvidia sta puntando a qualcosa di nuovo integrando nuove componentistiche hardware. Volete pagarle queste novità o preferivate avere una scheda con un prezzo allineato alla vecchia generazione ma in grado di fare 20fps in più della GTX1080 non offrendo nulla di nuovo?
possono computare l'intero rendering del gioco in ray tracing?
no.
e allora son la stessa pappa di prima, solo che costa di più.

Personalmente non sono interessato all'acquisto ma sono molto curioso di vedere quel che succederà da qui ad un paio di generazioni quando, queste novità, diventeranno forse più popolari ed alla portata di tutti.
sei in buona compagnia.
l'aggiunta di effettini vari è apprezzabile, se però "non ti costano" nulla, non se per ottenerli spendi il doppio.
questo non è ray tracing real time, ma solo un esponenziale carico di computazione grafica per giustificare il prezzo di queste schede.
di simulazione della realtà questi effetti hanno ben poco.

nickname88
21-08-2018, 09:28
Fixed! :nonsifa: :nonsifa:


Eh si le Founder Edition adesso non sono le reference :asd:

voodooFX
21-08-2018, 09:34
tecnicamente è stato abbandonato; quello è l'nVlink.

ma dove hai visto 3way ? sul sito segnano solo 2 GPU.

Hai ragione mi sono confuso, si parla di "bridge size" ma sempre per due schede.

Lo chiamano "nVlink SLI"



GEFORCE RTX NVLINK™ BRIDGE
The GeForce RTX NVLink™ bridge connects two NVLink SLI-ready graphics cards with 50X the transfer bandwidth of previous technologies.
This means you can count on super-smooth gameplay at maximum resolutions with ultimate visual fidelity in GeForce RTX 2080 Ti and 2080 graphics cards.


https://www.nvidia.com/en-us/geforce/graphics-cards/rtx-2080-ti/

nickname88
21-08-2018, 09:39
Ecco i prezzi ufficiali
articolo di guru3d di ieri.

https://preview.ibb.co/hHeJNe/img_0047.png

https://image.ibb.co/m9bR8K/Capture.jpg

E i titoli con supporto al RTX :
( ci son anche Battlefield e Assetto Corsa )

https://image.ibb.co/d4eDoK/img_0032.png

Considerando che la mia custom EVGA 1080 la pagai 680€ poco dopo l'uscita direi che una custom analoga dovrebbe avere prezzi in linea se il mining non torna a crescere.

lucusta
21-08-2018, 09:48
E hai ragione anche quando parli delle DX12 e AMD (ma anche nvidia anche se con rese differenti con le serie vecchie x via della compatibilità via software emulato e non elaborato in HW come le serie 1000)...

nessuna nvidia, fino ad ora, computa AC in HW, e le DX12 senza AC sono delle DX11 un pò più elaborate...
si spera che in questa generazione le nvidia abbiano maggiore propensione all'uso delle DX12 (magari ci metteranno l'AI a fare la transizione del layer)... già solo questo potrebbe aumentare del 10, 20% le prestazioni AMD massimizzando l'uso delle pipeline (e relativo calo per le vecchie serie nvidia, logicamente, che dovranno emulare via software).

quelle che sicuramente son messe peggio sono proprio le Pascal...
giochi nuovi saranno DX12 e DRT, quindi dove si girano si girano prenderanno schiaffi...
ma questi prezzi si giustificano esclusivamente per il fatto di fare spazio alle vendite proprio delle Pascal.
nvidia ha oltre 2 milioni di chip invenduti nei magazzini e non è certo disposta a buttarli o scontarli.

darà solo 2 milioni di sòle a quei poveri sprovveduti che le acquisteranno dicendo che RTX sono solo effettini ... vero, ma effettini che saranno costruiti su giochi DX12, probabilmente;
giochi su cui le pascal avrebbero enormi problemi...

se avete intenzione di prendere un vecchio pascal datevi al retrogaming...

lucusta
21-08-2018, 09:52
Ecco i prezzi ufficiali
articolo di guru3d di ieri.

https://preview.ibb.co/hHeJNe/img_0047.png

https://image.ibb.co/m9bR8K/Capture.jpg

E i titoli con supporto al RTX :
( ci son anche Battlefield e Assetto Corsa )

https://image.ibb.co/d4eDoK/img_0032.png

per avere prezzi quasi decenti devi solo sperare che nvidia trovi i 2 milioni di fessi che si compreranno le vecchie pascal...
il bridge, oltre che non disponibile ancora, lo stanno vendendo in pre order a 80-90 euro....

nvidia vi ha messo, finalmente, nelle condizioni in cui voleva: dovete spendere, e spendere tanto.
deve crescere e se il mercato delle GPU discrete non aumenta il numero di pezzi, la sua crescita dovrà essere sostenuta su quelle che vende, quindi prezzi più cari, molto più cari.

nickname88
21-08-2018, 09:55
per avere prezzi quasi decenti devi solo sperare che nvidia trovi i 2 milioni di fessi che si compreranno le vecchie pascal...
il bridge, oltre che non disponibile ancora, lo stanno vendendo in pre order a 80-90 euro....

nvidia vi ha messo, finalmente, nelle condizioni in cui voleva: dovete spendere, e spendere tanto.
deve crescere e se il mercato delle GPU discrete non aumenta il numero di pezzi, la sua crescita dovrà essere sostenuta su quelle che vende, quindi prezzi più cari, molto più cari.
Se se, Nvidia fa i prezzi in relazione alla concorrenza ed ai suoi prezzi. :asd:
AMD latita, questa è la verità, un vizio che oramai ha preso, e quando uscirà si allineerà a questi prezzi con buona probabilità.

Prezzi decenti ? Basta aspettare la disponibilità effettiva negli shop e non guardare i prezzi in pre-order di queste FE e per giunta venduti dallo store Nvidia, quindi ulteriormente sovraprezzati.
Certo che se aspetti che i prezzi tornino ad essere quelli pre-Pascal buona fortuna. :asd:

tuttodigitale
21-08-2018, 10:01
Vorrei giusto far notare, a chi si dispera dei prezzi, che questa non è una nuova architettura che punta ad aumentare di qualche punto percentuale le prestazioni, nvidia sta puntando a qualcosa di nuovo integrando nuove componentistiche hardware. Volete pagarle queste novità o preferivate avere una scheda con un prezzo allineato alla vecchia generazione ma in grado di fare 20fps in più della GTX1080 non offrendo nulla di nuovo?

Personalmente non sono interessato all'acquisto ma sono molto curioso di vedere quel che succederà da qui ad un paio di generazioni quando, queste novità, diventeranno forse più popolari ed alla portata di tutti.
Lo stesso discorso si potrebbe estendere a VEGA, vedi HBCC e Primitive Shader.
Ma il tempo necessario finchè queste tecnologie vengano sfruttate, e già saranno messe a disposizione chip migliori.
Ad aggravare le cose è il fatto che a differenza di quelle viste nella creatura di AMD, le innovazioni portate da nvidia avranno un certo impatto sulle prestazioni, che non saranno certo al top tra 24 mesi.

ningen
21-08-2018, 10:02
Finalmente qualcosa di nuovo per quel che riguarda la tecnologia grafica, ma purtroppo a prezzi da sultano. Nvidia dovrebbe abbassare un pò la cresta perchè questi sono prezzi da rapina.

in effetti dire che da 15 anni AMD và il doppio nelle GPU ma non se la filano è una grossa cavolata (per non dire altro) AMD e Nvidia si sono sempre battute con fortune alterne e differenze comunque contenute a parità di fascia, in molti casi la differenza di potenza è stata quasi nulla ma la voce grossa la facevano i consumi, ma comunque tirando le somme si sono sempre equivalse.

Certo queste Turing forse non saranno convenienti lato gaming, ma per lavoro le innovazioni portano comunque una ventata di freschezza che serviva.

Per il gaming abbiamo le DX12 e Vulcan che sono pronte come librerie per il Ray Tracing, ma non abbiamo sviluppatori con la voglia di investire in delle tecnologie che purtroppo su console non si sa quando saranno fattibili.

Purtroppo l'andazzo di questi ultimi anni ha dimostrato che per gli sviluppatori il gaming ha come dettatrice di tempi il mondo console, quello PC si deve adattare a quei ritmi, questo significa che per ora ualunque innovazione finche non verrà adottata nelle console sarà inutile per il gaming PC.

Peccato perché se fosse il mondo PC a dettare i tempi le DX12 e il Ray Tracing sarebbero già realtà nel mondo gaming

Sono d'accordo praticamente su tutto, sopratutto sulle tanto divinizzate DX 12 e Vulkan che molti "profeti da 4 soldi" qualche anno fa, asserivano che da li a pochi anni avrebbero cambiato tutto e si sarebbero diffuse come non mai, cosa che puntualmente non si è verificata per i motivi che hai ben esposto e che erano ovvi. Ed è ovvio che la stessa cosa succederà con il RayTracing, per gli stessi identici motivi. Morale della favola: Belle le nuove tecnologie ed interessantissime, ma fin quando non troveranno ampia applicazione saranno belle solo sulla carta e leggermente apprezzabili in una manciata di titoli che non faranno la differenza. Rimane il fatto che è un bene che le aziende come Nvidia ed AMD puntino su nuove tecnologie e portino un pò avanti a piccoli passi il progresso tecnologico nei videogiochi, aspettando che qualcuno si decida ad usare tutte le grandi possibilità che le loro gpu offrono già oggi.
Forse se ne riparlerà di tutto ciò con PS5 e la nuova Xbox fra qualche anno, sperando che nel frattempo non escano le DX13 facendo fare la fine delle DX10 alle DX12 :asd:

nessuna nvidia, fino ad ora, computa AC in HW, e le DX12 senza AC sono delle DX11 un pò più elaborate...
si spera che in questa generazione le nvidia abbiano maggiore propensione all'uso delle DX12 (magari ci metteranno l'AI a fare la transizione del layer)... già solo questo potrebbe aumentare del 10, 20% le prestazioni AMD massimizzando l'uso delle pipeline (e relativo calo per le vecchie serie nvidia, logicamente, che dovranno emulare via software).

quelle che sicuramente son messe peggio sono proprio le Pascal...
giochi nuovi saranno DX12 e DRT, quindi dove si girano si girano prenderanno schiaffi...
ma questi prezzi si giustificano esclusivamente per il fatto di fare spazio alle vendite proprio delle Pascal.
nvidia ha oltre 2 milioni di chip invenduti nei magazzini e non è certo disposta a buttarli o scontarli.

darà solo 2 milioni di sòle a quei poveri sprovveduti che le acquisteranno dicendo che RTX sono solo effettini ... vero, ma effettini che saranno costruiti su giochi DX12, probabilmente;
giochi su cui le pascal avrebbero enormi problemi...

se avete intenzione di prendere un vecchio pascal datevi al retrogaming...

Sisi come no, ci rivediamo tra qualche anno quando saremo sommersi di titoli in dx12 e che sfruttano il RayTracing... :asd:
La profezia è fatta!

tuttodigitale
21-08-2018, 10:18
difficile comprare la concorrenza quando offre da generazioni prodotti che non tengono il passo.

mi pare che AMD sita vendendo un botto di RYZEN, Threadripper ed EPYC, e Intel è sempre stata piu forte in marketing, soldi e accordi rispetto ad nVidia, eppure AMD sta vendendo una marea.

le prestazioni sono una cosa, il mercato è un'altro.
AMD sta vendendo pochissime CPU rispetto alle prestazioni:
ha solo il 20% di share nel retail e solo 1,3% del mercato server x86 (in altri termini Intel detiene il 98,7%) e 57 milioni di reddito nell'ultimo trimestre.
Non stanno vendendo un botto.

BulletHe@d
21-08-2018, 10:21
@lucusta
scusa ma sia le ultime amd che le nvidia non sono certificate per elaborazione in HW delle DX12? ricordavo di si con la differenza che AMD rispetto ad nvidia ha in hw non ricordo che tipo di calcolo che nvidia compensa via SW, ma per il resto sono tute e 2 DX12 compliant.
Poi ovviamente se ricordo male felice di essere smentito

@ningen
ovviamente concordo con il tuo post, aggiungendo che un eventuale dx13 credo che cambi poco se non eventualmente integrare le dx ray tracing all'interno del pacchetto dx. almeno per ora non vedo altri scenari visto che non ho letto info di eventuali innovazioni soto studio per implementarne in una nuova versione delle dx

calabar
21-08-2018, 10:22
Non ho ben capito la questione dei prezzi, quelli indicati nell'articolo sembrano più o meno allineati a quelli della generazione precedente, e stavolta mi paiono pure più giustificati vista la dimensione del chip (ossia, per lo meno, sappiamo che a Nvidia il chip costa e non poco).

Per quanto riguarda queste tecnologie, io temo che ci vorrà ancora qualche generazione prima di trovare un'implementazione stabile e un certo equilibrio, per cui da queste schede (e forse dalle prossime) non mi aspetterei niente più che la capacità di sfruttare quel poco che sarà a disposizione ora, perchè dubito che ciò che verrà in futuro sarà supportato.

Da quel che si legge in giro e come già qualcuno ha fatto notare gli RT core non saranno disponibili per i chip di fascia inferiore (da GT104 in giù), quindi Nvidia non sta investendo su tutta la gamma e questo temo rallenterà la diffusione della tecnologia. Del resto non è una scelta stupida, credo che anche loro abbiano bisogno di testare il tutto prima di azzardare l'inserimento di queste tecnologie nella fascia mainstream.

Spero a questo punto che il Ray Tracing per i videogiochi sia abbastanza stabile per le prossime consolle, per lo meno si avrà una piattaforma ad ampia diffusione su cui investire in queste tecnologie.

calabar
21-08-2018, 10:30
@BulletHe@d
A differenza delle altre API, le DX12 sono state create per girare sull'hardware esistente. Sono quindi stati definiti dei "livelli di compatibilità" delle API con le schede esistenti e future, in particolare TIER (da uno a tre) e Feature Level (11.0, 11.1, 12.0, 12.1).
Quindi si, entrambe le architetture sono in qualche modo compatibili con DX12, ma non allo stesso modo.

BulletHe@d
21-08-2018, 10:30
@calabar
credo che la scelta di non implementare i RT core nelle declinazioni più basse di Turing possa dipendere da 2 fattori:
potenza troppo bassa dei chip di bassa e media fascia (x60 a scendere)
difficoltà di implementazione dei RT core in chip più piccoli.
Secondo me potrebbe essere l'unione delle 2 la motivazione

Per il fattore prezzi anche io non ho notato grandi scandali, o meglio, lo scandalo è stato già fatto con la rimodulazione dei prezzi con la scusante delle Founders Edition è li che andavano presi provvedimenti, ma il mercato comunque ha decretato che andava bene visto come sono andate le cose

tuttodigitale
21-08-2018, 10:36
Da quel che si legge in giro e come già qualcuno ha fatto notare gli RT core non saranno disponibili per i chip di fascia inferiore (da GT104 in giù), quindi Nvidia non sta investendo su tutta la gamma e questo temo rallenterà la diffusione della tecnologia. Del resto non è una scelta stupida, credo che anche loro abbiano bisogno di testare il tutto prima di azzardare l'inserimento di queste tecnologie nella fascia mainstream.

Spero a questo punto che il Ray Tracing per i videogiochi sia abbastanza stabile per le prossime consolle, per lo meno si avrà una piattaforma ad ampia diffusione su cui investire in queste tecnologie.
il RT costa in termini di fps...
non è come i primitive shader o il supporto FP16, che sono in grado di aumentare le prestazioni del chip....qui si tratta di aumentare la qualità dell'immagine a scapito delle prestazioni. Abbiamo chip odierni che a malapena gestiscono il 4k con tutto maxato, Questi nonostante saranno più potenti probabilmente faranno girare con la tecnologia RTX ad una risoluzione inferiore.

Praticamente il RT core per un chip di livello inferiore sono un pò come il supporto per le librerie dx10 per la prima generazione di fascia media....

PS dalla tabella il TU104 ha gli RTcore, come si evince dalle prestazioni (teoriche) RT, 10/12 volte superiori a quelle (reali) di VEGA10.

BulletHe@d
21-08-2018, 10:37
@calabar
grazie per la delucidazione della compatibilità delle DX12, l'ho vista solo dopo il mio precedente post, cmq grazie sintetico ma chiarissimo

nickname88
21-08-2018, 10:44
Si ma a parte ciò la scheda quando sarà lanciata ufficialmente ?
Il chiacchericcio è inutile se non si hanno le performance sotto mano.

LkMsWb
21-08-2018, 10:49
Si ma a parte ciò la scheda quando sarà lanciata ufficialmente ?
Il chiacchericcio è inutile se non si hanno le performance sotto mano.

20 settembre, ma non si sa quando scade l'NDA per i recensori, che immagino a questo punto abbiano le schede (o siano in procinto di...).

Visto che hanno pubblicizzato la open beta di Battlefield V con accesso anticipato per il 4 settembre, direi che se non le hanno già ora, almeno per il 4 i recensori avranno le schede.

s12a
21-08-2018, 10:58
possibile che il raytracing si traduca in una maggior esigenza di risorse ma in meno lavoro in fase di gestione dell'illuminazione per gli sviluppatori?
Sì, è possibile, perché quello che va simulato e/o precalcolato con le normali tecniche con il ray tracing è "gratis" e molto più facile da rendere fisicamente corretto (quindi realistico).

Fra le altre cose oltre un certo livello di dettaglio poligonale la differenza prestazionale si annulla, ma non siamo ancora a quel punto.

https://i.imgur.com/lNu23DQ.png

Pcper - Ray tracing faster than rasterization: Example 1 (https://www.pcper.com/reviews/Processors/Ray-Tracing-and-Gaming-One-Year-Later/Ray-tracing-faster-rasterization-Example-1) (articolo del 2008)

[...] The green curve represents the logarithmic behavior of ray tracing when the number of triangles are increased, the red line represents the linear behavior of rasterization. As you can see, initially for ray tracing (when the polygon count is low) ray tracing performance is at a disadvantage compared to rasterization, but quickly the two curves meet, and from that point on, as complexity increases ray tracing is ALWAYS faster than rasterization. This cross-over point depends on many factors: the performance of the CPU, the performance of the GPU etc, but this trend is a mathematical certainty, a logarithmic curve will always intersect a linear curve and the logarithmic curve will always win.

majinbu7
21-08-2018, 11:03
nessuna nvidia, fino ad ora, computa AC in HW, e le DX12 senza AC sono delle DX11 un pò più elaborate...
si spera che in questa generazione le nvidia abbiano maggiore propensione all'uso delle DX12 (magari ci metteranno l'AI a fare la transizione del layer)... già solo questo potrebbe aumentare del 10, 20% le prestazioni AMD massimizzando l'uso delle pipeline (e relativo calo per le vecchie serie nvidia, logicamente, che dovranno emulare via software).

quelle che sicuramente son messe peggio sono proprio le Pascal...
giochi nuovi saranno DX12 e DRT, quindi dove si girano si girano prenderanno schiaffi...
ma questi prezzi si giustificano esclusivamente per il fatto di fare spazio alle vendite proprio delle Pascal.
nvidia ha oltre 2 milioni di chip invenduti nei magazzini e non è certo disposta a buttarli o scontarli.

darà solo 2 milioni di sòle a quei poveri sprovveduti che le acquisteranno dicendo che RTX sono solo effettini ... vero, ma effettini che saranno costruiti su giochi DX12, probabilmente;
giochi su cui le pascal avrebbero enormi problemi...

se avete intenzione di prendere un vecchio pascal datevi al retrogaming...

Ma in effetti hai perfettamente ragione e io con una 1080 più di giocare a campo minato non posso permettermi di fare, naturalmente tutto maxato ma con filtri disabilitati.... :doh: :doh: :doh:

al135
21-08-2018, 11:20
Sì, è possibile, perché quello che va simulato e/o precalcolato con le normali tecniche con il ray tracing è "gratis" e molto più facile da rendere fisicamente corretto (quindi realistico).

Fra le altre cose oltre un certo livello di dettaglio poligonale la differenza prestazionale si annulla, ma non siamo ancora a quel punto.

https://i.imgur.com/lNu23DQ.png

Pcper - Ray tracing faster than rasterization: Example 1 (https://www.pcper.com/reviews/Processors/Ray-Tracing-and-Gaming-One-Year-Later/Ray-tracing-faster-rasterization-Example-1) (articolo del 2008)

grazie mille, come immaginavo, è molto interessante.
sarebbe interessante ipotizzare, ad esempio con giochi del 2018, a che punto della linea x potremmo posizionarci attualmente...:)

Levax
21-08-2018, 11:31
L'introduzione del ray tracing per migliorare la qualità grafica è molto interessante al pari dell'hdr ma...650 euro per la 2070, siamo praticamente al doppio di Maxwell. Ok, è la founders, ma le normali comunque verranno tra i 500 e i 600. Amo il gaming su pc ma sto cominciando seriamente a chiedermi se a questi prezzi ne valga la pena.

\_Davide_/
21-08-2018, 11:34
Quindi dovrei spendere dai 600 ai 1400 euro per vedere la polvere svolazzare in una stanza illuminata da un sole di mezza estate?

Mavvà, quando il sole entra dalla finestra metti il pc sul tavolo e spara le ventole a manetta, dovresti avere lo stesso effetto! :D


E i titoli con supporto al RTX :
(...)
Assetto Corsa

Ed io che ero venuto qui per convincermi a tenere la mia GTX 1080 Hybrid, perché tanto gioco solo ad AC e non sarà mai support.... :cry:

Invece qualcuno mi saprebbe consigliare una scheda che se la cavi a fare editing video "tranquillo" in FHD / 4K?
Non è per me, la persona in questione usa Premiere Pro, quasi quasi una 1050 Ti se con l'uscita di queste il prezzo va giù...

nickname88
21-08-2018, 11:41
Quindi dovrei spendere dai 600 ai 1400 euro per vedere la polvere svolazzare in una stanza illuminata da un sole di mezza estate?

https://www.filastrocche.it/contenuti/wp-content/uploads/2013/09/volpe-uva-350.jpg

AceGranger
21-08-2018, 11:45
Hai ragione mi sono confuso, si parla di "bridge size" ma sempre per due schede.

Lo chiamano "nVlink SLI"

https://www.nvidia.com/en-us/geforce/graphics-cards/rtx-2080-ti/


dicevo che, tecnicamente nel senso di fisico, hanno abbandonato il connettore SLI; hanno mantenuto il nome ma sono passati al connettore nVlink

calabar
21-08-2018, 12:03
credo che la scelta di non implementare i RT core nelle declinazioni più basse di Turing possa dipendere da 2 fattori:
Io credo che sia semplicemente una questione di costi. Gli RT core richiedono silicio e aumentano quindi la dimensione del chip.
Per mantenere le prestazioni della passata generazione e avere in più capacità di RT avrebbero dovuto realizzare chip grandetti, poco adatti alla fascia mainstream.

PS dalla tabella il TU104 ha gli RTcore, come si evince dalle prestazioni (teoriche) RT, 10/12 volte superiori a quelle (reali) di VEGA10.
Oops errore mio, intendevo GT106 (o TU 106 viste le attuali denominazioni). Insomma, i chip per la fascia delle 2060, più piccoli di quelli presentati in questo articolo.
Spero che dal contesto si capisse comunque.

il RT costa in termini di fps...
Non necessariamente. Del resto sostituisce le precedenti tecniche di illuminazione che sono piuttosto onerose e complesse. Con il RT si possono probabilmente ottenere risultati migliori anche utilizzandolo al minimo (con meno punti o con un numero minore di riflessioni/rifrazioni).
Magari non otterremo questi risultati in questa generazione, ma non credo che ci vorrà poi molto.

Certo, il vero passo in avanti si potrebbe avere con architetture non ibride come queste (ibride perchè devono supportare entrambi i tipi di illuminazione, il rendering dell'immagine sarà comunque ibrido ancora per molto), magari nelle consolle di prossima generazione si potrebbero avere GPU in cui l'hardware relativo alle tecniche di illuminazione tradizionali viene ridotto all'osso e sostituito con delle unità dedicate al Ray Tracing. Su PC questo è inattuabile perchè devi supportare anche i vecchi titoli.

elgabro.
21-08-2018, 12:39
Da quello che ho capito questo RT è in fase prototipale, ergo non ha senso comprare queste schede, se ne riparla tra 3/4 anni

la 2070 starà sui mille euro FOLLIA PURA.

Luiprando
21-08-2018, 12:40
io prenderò la 2070 quando esce Cyberpunk 2077... spero per quella data che siano calate di un 2 o 300€... ci devo credere?

Custode
21-08-2018, 12:40
Considerando questi prezzi, per me -nVidioso da sempre- possono restare allegramente dove stanno.
Il vero affare lo ha fatto chi comprò all'uscita le 1080 Ti a 700 Euro o meno.

elgabro.
21-08-2018, 12:43
https://www.filastrocche.it/contenuti/wp-content/uploads/2013/09/volpe-uva-350.jpg

Non è giustificato il Costo/Prestazioni che è ampiamente insufficiente

Solo un pollo comprerebbe queste schede, altro che volpe uva.

KuWa
21-08-2018, 12:43
mah prezzi veramente alti, secondo me non vale proprio la pena.

Alodesign
21-08-2018, 13:08
https://www.filastrocche.it/contenuti/wp-content/uploads/2013/09/volpe-uva-350.jpg

Dici che la si può anche usare per far vedere i cartoni animati a mia figlia?

La compro subbito!!

kliffoth
21-08-2018, 13:10
In genere all'introduzione di nuove caratteristiche conviene prendere la generazione successiva per vedere ben implementate tutte le novità.
È stato così con nuove DX (per quanto le dx12 e oserei dire anche le dx11 ancora aspettiamo di vederle davvero in uso) e per varie altre cose, spesso feature proprietarie.
Poi a volte gli sviluppatori neanche usano tali nuovi strumenti (non sarà così per il ray tracing, che è davvero una sorta di chimera inseguita da anni).

Io di solito cambio scheda ogni due generazioni, per cui la mia GTX 1060 salta il giro, ma se anche fosse stata la volta buona, ci avrei fatto un ulteriore pensiero proprio per non prendere un prodotto "nuovo"

korra88
21-08-2018, 13:15
Da quello che ho capito questo RT è in fase prototipale, ergo non ha senso comprare queste schede, se ne riparla tra 3/4 anni

la 2070 starà sui mille euro FOLLIA PURA.

sta 650 euro, non 1000 euro. Quella é la 2080

Gyammy85
21-08-2018, 13:28
https://www.filastrocche.it/contenuti/wp-content/uploads/2013/09/volpe-uva-350.jpg

#rosikk!! :asd: :asd:

nickname88
21-08-2018, 13:29
Non è giustificato il Costo/Prestazioni che è ampiamente insufficiente

Solo un pollo comprerebbe queste schede, altro che volpe uva.
Le prestazioni non le conosciamo, stai parlando di aria fritta.
L'impatto prestazione del RT sui giochi con queste schede non le conosciamo.

E il costo di cui parli sono riferiti al preorder di FE e per giunta sullo store del produttore, i prezzi sono di lancio delle custom sono di 499$ per la 2070 e 699$ per la 2080, ossia in linea con quanto uscirono le attuali due anni fa.

Quindi come faccia tu a valutare il prezzo/prestazioni senza sapere nè il prezzo nè le prestazioni è un mistero.

korra88
21-08-2018, 13:39
Le prestazioni non le conosciamo, stai parlando di aria fritta.
L'impatto prestazione del RT sui giochi con queste schede non le conosciamo.
E il costo di cui parli sono preorder di FE sullo store del produttore, i prezzi sono allineati con l'inizio della serie attuale.

Quindi come faccia tu a valutare il prezzo/prestazioni senza sapere nè il prezzo nè le prestazioni è un mistero.

Le prestazioni si conoscono...14TFLOPS per la 2080TI come forza bruta dei cuda core per tutti quei giochi che non supportano RTX perché vecchi o perché non hanno voluto implementare la tecnologia. Con l'RTX e con RT e Tensor Core che lavorano, invece la differenza dovrebbe essere piuttosto sensibile.

Gyammy85
21-08-2018, 13:42
Le prestazioni si conoscono...14TFLOPS per la 2080TI come forza bruta dei cuda core per tutti quei giochi che non supportano RTX perché vecchi o perché non hanno voluto implementare la tecnologia. Con l'RTX e con RT e Tensor Core che lavorano, invece la differenza dovrebbe essere piuttosto sensibile.

Addirittura 14 tf? :asd:
Ah già non servono a nulla :sofico:

elgabro.
21-08-2018, 13:42
Le prestazioni non le conosciamo, stai parlando di aria fritta.
L'impatto prestazione del RT sui giochi con queste schede non le conosciamo.

E il costo di cui parli sono riferiti al preorder di FE e per giunta sullo store del produttore, i prezzi sono di lancio delle custom sono di 499$ per la 2070 e 699$ per la 2080, ossia in linea con quanto uscirono le attuali due anni fa.

Quindi come faccia tu a valutare il prezzo/prestazioni senza sapere nè il prezzo nè le prestazioni è un mistero.

i prezzi che hai indicato nel libro dei sogni, se la 2070 costasse 499$ la prenderei al volo, starà sui 899€ o anche di più, per giustificare questi prezzi dovranno andare minimo il doppio se non di più in prestazioni rispetto alla generazione precedente.

nickname88
21-08-2018, 13:43
i prezzi che hai indicato nel libro dei sogni, se la 2070 costasse 499$ la prenderei al volo
I prezzi che ho riportato sono nello screen della presentazione ufficiale di ieri.
Il che sembra essere allineato a quanto pronosticato.

https://preview.ibb.co/hHeJNe/img_0047.png

https://image.ibb.co/m9bR8K/Capture.jpg

Le prestazioni si conoscono...14TFLOPS per la 2080TI come forza bruta dei cuda core per tutti quei giochi che non supportano RTX perché vecchi o perché non hanno voluto implementare la tecnologia. Con l'RTX e con RT e Tensor Core che lavorano, invece la differenza dovrebbe essere piuttosto sensibile.Si le conosci te quando vai a letto e sogni.
14TFlops ? Tu fai confronti con in base ai TFlops su prodotti con architetture differenti ? :asd:

starà sui 899€ o anche di più, per giustificare questi prezzi dovranno andare minimo il doppio se non di più in prestazioni rispetto alla generazione precedente.E poi ti svegli sudato.
649€ è il prezzo della 2070 FE adesso che è in preorder sul sito Nvidia.
Come farà la 2070 ( magari non FE ) a costare di più quando uscirà nel mercato lo sai solo tu.

korra88
21-08-2018, 13:49
i prezzi che hai indicato nel libro dei sogni, se la 2070 costasse 499$ la prenderei al volo, starà sui 899€ o anche di più, per giustificare questi prezzi dovranno andare minimo il doppio se non di più in prestazioni rispetto alla generazione precedente.

facciamo 9.999 euro (novemilanovecentonovantanove) per essere sicuri! :doh:

sveglia, ci sono i prezzi sul sito nvidia!
https://www.nvidia.com/it-it/geforce/20-series/?nvid=nv-int-54126#cid=Internal_NVIDIA_IT_20181001_TURING_CORPWMFG

elgabro.
21-08-2018, 13:51
Appunto quelli sono prezzi indicati da nvidia, la ASUS RTX 2070 STRIX stara sui 899€ già adesso il modello precedente sta sui 600€ quando i prezzi indicati da Nvidia erano 350€

Poi io ora come ora devo pensare a cambiare la CPU + scheda madre + ram, mi sa che mi terrò la mia 970GTX ancora per qualche annetto.

nickname88
21-08-2018, 13:53
Appunto quelli sono prezzi indicati da nvidia, la ASUS RTX 2070 STRIX stara sui 899€ già adesso il modello precedente sta sui 600€ quando i prezzi indicati da Nvidia erano 350€

Poi io ora come ora devo pensare a cambiare la CPU + scheda madre + ram, mi sa che mi terrò la mia 970GTX ancora per qualche annetto.Il fatto che siano in preorder non sai minimamente cosa comporti vero ? :asd:
Inoltre le custom dovrebbero partire da un listino di 100 dollari in meno rispetto alle FE.

Anche gli iPhone X in fase di preorder sono arrivati a al triplo del prezzo di listino.

tuttodigitale
21-08-2018, 13:53
le FE sono a tutti gli effetti le reference e in genere sono lo prime che possono essere acquistate...le custom, quelle con OC di fabbrica e componentistica migliore, costeranno di più della reference..così è successo con la 1080.
Ricordo una cosa banale quanto ovvia: Nvidia non può decidere il prezzo di partenza di una scheda video progettata da altri... quel prezzo è li è solo per motivi di marketing.
Il fatto che sta cosa non sia chiara dopo 2 anni, fa capire anche a quali livelli di informazione siamo arrivati.


E il costo di cui parli sono riferiti al preorder di FE e per giunta sullo store del produttore, i prezzi sono di lancio delle custom sono di 499$ per la 2070 e 699$ per la 2080, ossia in linea con quanto uscirono le attuali due anni fa.

in linea?
modello------custom
1080---------599
2080---------799

1070--------379
2070--------599

1080ti-------699
2080ti-------1199

elgabro.
21-08-2018, 13:53
facciamo 9.999 euro (novemilanovecentonovantanove) per essere sicuri! :doh:

sveglia, ci sono i prezzi sul sito nvidia!
https://www.nvidia.com/it-it/geforce/20-series/?nvid=nv-int-54126#cid=Internal_NVIDIA_IT_20181001_TURING_CORPWMFG

https://m.nexths.it/index.php/Products/details/sku/ZT-T20810D-10P

ovviamente per chi ha le tasche bucate anche se la mettevano a 9.999 euro cambiava poco.

korra88
21-08-2018, 13:56
Appunto quelli sono prezzi indicati da nvidia, la ASUS RTX 2070 STRIX stara sui 899€ già adesso il modello precedente sta sui 600€ quando i prezzi indicati da Nvidia erano 350€

Poi io ora come ora devo pensare a cambiare la CPU + scheda madre + ram, mi sa che mi terrò la mia 970GTX ancora per qualche annetto.

diciamo 750 euro quelle custom...a 899 c'é la 2080 dell'asus.

http://www.drako.it/drako_catalog/product_info.php?products_id=21710

nickname88
21-08-2018, 13:57
le FE sono a tutti gli effetti le reference e in genere sono lo prime che possono essere acquistate...le custom, quelle con OC di fabbrica e componentistica migliore, costeranno di più della reference..così è successo con la 1080.
Ricordo una cosa banale quanto ovvia: Nvidia non può decidere il prezzo di partenza di una scheda video progettata da altri... quel prezzo è li è solo per motivi di marketing.
Il fatto che sta cosa non sia chiara dopo 2 anni, fa capire anche a quali livelli di informazione siamo arrivati.
I produttori non realizzano una custom per uno, ci sono in genere fino a 3 modelli, dal più economico al meno. Quando uscirono le 1080, molte custom costavano meno delle reference.

korra88
21-08-2018, 13:59
I produttori non realizzano una custom per uno, ci sono più linee, dalla più economia a quella meno.
Quando uscirono le 1080, molte custom costavano meno delle reference.

in questo caso sembra che ci abbiano spinto sui prezzi delle custom:

http://www.drako.it/drako_catalog/index.php?cPath=485_1477
https://m.nexths.it/index.php/Products/getNews/

tuttodigitale
21-08-2018, 14:00
I produttori non realizzano una custom per uno, ci sono più linee, dalla più economia a quella meno.
Quando uscirono le 1080, molte custom costavano meno delle reference.
molte?:rolleyes:

nickname88
21-08-2018, 14:00
in questo caso sembra che ci abbiano spinto sui prezzi delle custom:

http://www.drako.it/drako_catalog/index.php?cPath=485_1477
https://m.nexths.it/index.php/Products/getNews/Sono prezzi da preorder.

molte?:rolleyes:
Io ho une EVGA Superclocked e l'ho pagata meno di qualunque FE in giro all'epoca.
Volendo c'era pure la versione con clock a default che costava ancora meno.

Palit e Gainward costavano meno, così come anche i modelli Armor e Aero di MSI o la Turbo di Asus, la AMP liscia di Zotac o le versioni GamingX e Strix lisce di Asus e MSI o anche la versione base della G1 di Giga.

\_Davide_/
21-08-2018, 14:05
Ci sono i prezzi anche sul sito EVGA

Io ho une EVGA Superclocked e l'ho pagata meno di qualunque FE in giro all'epoca.

Confermo, anche io!

paranoic
21-08-2018, 14:06
Mining o non mining oramai i prezzi si sono stabilizzati in alto, OVVIAMENTE.

Secondo me il mercato dell'elettronica in genere, e nello specifico dei gamers...hanno assunto stupefacenti in quantità...
Per la legge di monroe teoricamente...il processo produttivo più affinato e raffinato, che dovrebbe essere determinato da core meno bramosi di energia, dovrebbe altresì generare una diminuzione a scalare dei prezzi...viceversa...gli stessi sono esorbitanti anche per i mid level....

Questa è una situazione che ritrovo non solo appunto nelle GPU, bensì anche negli smartphone....vorranno continuare a drogare il mercato per quanto?
E noi utenti cosa facciamo? Zittiti ci facciamo defraudare e lasciamo delapidare i ns. stipendi e risparmi da costoro?

Riflettiamo signori...alla fine, la produzione è diversificata e dovrebbe essere l'utente finale a decidere il livellamento dei prezzi...non faranno estorsioni NON VISTE o taciute anche ai produttori di schede video od elettronica in genere....

Gyammy85
21-08-2018, 14:08
Si le conosci te quando vai a letto e sogni.
14TFlops ? Tu fai confronti con in base ai TFlops su prodotti con architetture differenti ? :asd:


Certo i tf mica sono una unità di misura standard, ci sono i tf amd, quelli nvidia kepler, maxwell, pascal, volta e turing. :rolleyes:

nickname88
21-08-2018, 14:12
Certo i tf mica sono una unità di misura standard, ci sono i tf amd, quelli nvidia kepler, maxwell, pascal, volta e turing. :rolleyes:
Per TF/s si intende la massima capacità di calcolo teorico che riesce a raggiungere il chip, cosa che non avviene praticamente mai in un gioco, la sfruttabilità dell'architettura te la sei dimenticata, così come anche le altre unità.

Se così fosse AMD avrebbe dominato da 10 anni e la Vega 64 dovrebbe dar paga alla 1080 ( 8.9 vs 13.5 Tflops/s )

CiccoMan
21-08-2018, 14:18
le FE sono a tutti gli effetti le reference e in genere sono lo prime che possono essere acquistate...le custom, quelle con OC di fabbrica e componentistica migliore, costeranno di più della reference..così è successo con la 1080.
Ricordo una cosa banale quanto ovvia: Nvidia non può decidere il prezzo di partenza di una scheda video progettata da altri... quel prezzo è li è solo per motivi di marketing.
Il fatto che sta cosa non sia chiara dopo 2 anni, fa capire anche a quali livelli di informazione siamo arrivati.


in linea?
modello------custom
1080---------599
2080---------799

1070--------379
2070--------599

1080ti-------699
2080ti-------1199

L'indicazione dei prezzi che hai postato è fuorviante. La situazione reale è questa (prezzi consigliati in USD):

1070-----379
2070-----499

1080-----599
2080-----699

1080ti----699
2080ti----999

FONTE (https://www.techpowerup.com/gpudb/)

Comunque questa volta i prezzi sono aumentati oltre le sapettative... Ho acquistato la 1080Ti Strix O11G appena uscita spendendo più di 900€ (raccomandandomi a San Gennaro) e questa volta mi serviranno 1400€ come minimo per acquistare l'equivalente della generazione attuale.

E' anche vero che hanno eliminato la Titan dal listino gaming relegandola alla fascia semi-pro e quindi commercialmente si è scalata una fascia di prezzo verso l'alto dove la 2080 va ad occupare il posto che prima era della 1080Ti. Di conseguenza la 2080Ti è diventata "the new Titan" (999USD... coincidenze? ).

Piuttosto non vedo ancora a listino la 2080Ti Strix O8G... qualche data?

tuttodigitale
21-08-2018, 14:20
Certo i tf mica sono una unità di misura standard, ci sono i tf amd, quelli nvidia kepler, maxwell, pascal, volta e turing. :rolleyes:
ma quelli di AMD non è che siano tutti uguali:
Hawaii e Polaris12 hanno prestazioni relative ai TF decisamente più elevate rispetto ad altri chip AMD, compreso VEGA10. Probabilmente anche il chip custom offerto ad Intel è migliore (ha lo stesso quantitativo di ROPs di VEGA10, nonostante abbia meno della metà di SP, un rapporto molto simile a quella vista nell'igp dell'apu ryzen).

Gyammy85
21-08-2018, 14:21
Per TF/s si intende la massima capacità di calcolo teorico che riesce a raggiungere il chip, cosa che non avviene praticamente mai in un gioco, la sfruttabilità dell'architettura te la sei dimenticata.
Se così fosse AMD avrebbe dominato da 10 anni e la Vega 64 dovrebbe dar paga alla 1080 ( 8.9 vs 13.5 Tflops/s )

E' pur sempre una riserva di potenza che fa si che da 10 anni le schede amd non si buttino automaticamente fuori dal case appena appare un'illuminazione più complessa in un gioco.

nickname88
21-08-2018, 14:22
E' pur sempre una riserva di potenza che fa si che da 10 anni le schede amd non si buttino automaticamente fuori dal case appena appare un'illuminazione più complessa in un gioco.
Si chiama minor efficienza, è una caratteristica dell'architettura.

tuttodigitale
21-08-2018, 14:23
L'indicazione dei prezzi che hai postato è fuorviante. La situazione reale è questa (prezzi consigliati in USD):

1070-----379
2070-----499

1080-----599
2080-----699

1080ti----699
2080ti----999

FONTE (https://www.techpowerup.com/gpudb/)

avevo corretto, leggendo la tabella di HWUPGRADE (che andrebbe corretta a questo punto), resta il fatto che i prezzi, in dollari, sono decisamente aumentati.

CiccoMan
21-08-2018, 14:28
avevo corretto, leggendo la tabella di HWUPGRADE (che andrebbe corretta a questo punto), resta il fatto che i prezzi, in dollari, sono decisamente aumentati.

La tua indicazione e errata perchè per Pascal riporti i prezzi consigliati di base, mantre per le nuove riporti i prezzi dell Founders.

Le founders non sono reference. Sono delle custom prodotte direttamente da nvidia e per questo il loro prezzo è superiore a quello base.

La reference come era concepite prima dell'avvento delle FE non esiste più fisicamente... quantomeno non viene più prodotta da nvidia, ma può essere prodotta dai partner.

Alodesign
21-08-2018, 14:32
Questi i prezzi di un rivenditore ufficiale in Italia:

Prezzi (https://www.nexths.it/v3/landingpage.php?CID=Internal_NVIDIA_IT_20181001_TURING_CORPWMFG&mv_arg=geforce_rtx)

korra88
21-08-2018, 14:47
Per TF/s si intende la massima capacità di calcolo teorico che riesce a raggiungere il chip, cosa che non avviene praticamente mai in un gioco, la sfruttabilità dell'architettura te la sei dimenticata, così come anche le altre unità.

Se così fosse AMD avrebbe dominato da 10 anni e la Vega 64 dovrebbe dar paga alla 1080 ( 8.9 vs 13.5 Tflops/s )

generalmente rimanendo in nvidia puoi fare un paragone abbastanza indicativo...dalla 1080 alla 1080Ti ci sono circa 2.6Tflops di differenza, quasi il 30% in piú ed infatti é piú veloce del 30-35% in piú a seconda dei casi.

tuttodigitale
21-08-2018, 14:55
La tua indicazione e errata perchè per Pascal riporti i prezzi consigliati di base, mantre per le nuove riporti i prezzi dell Founders.

l'errore nasce dalla tabella dove nella voce prezzi, c'è un confronto tra mele e pere, con le gpu di vecchia generazione. Fatto sta che un rincaro del 30% sul prezzo di listino rispetto alla generazione precedente non è cosa da poco...


Le founders non sono reference. Sono delle custom prodotte direttamente da nvidia e per questo il loro prezzo è superiore a quello base.
vedo che se vittima del marketing...
reference, non significa mica prodotto di bassa qualità. anche VEGA con dissipazione a liquido è una reference. Mi pare difficile trovare una custom peggiore della reference visto che la sezione di alimentazione delle FE più economiche è spesso ridotta al minimo indispensabile e non brillano certo per silenziosità (molto meglio delle reference di alcuni anni fa di entrambi i produttori sia chiaro).

tuttodigitale
21-08-2018, 15:00
generalmente rimanendo in nvidia puoi fare un paragone abbastanza indicativo...dalla 1080 alla 1080Ti ci sono circa 2.6Tflops di differenza, quasi il 30% in piú ed infatti é piú veloce del 30-35% in piú a seconda dei casi.
perchè a raddoppiare sono tutte le altre caratteristiche del chip....
mentre se succede come una RX550 (512sp@16ROPs) e RX560 (1024sp@16ROPs) nonostante il raddoppio della potenza, gli fps aumentano solo del 50%.
Anche GV100 pare avere prestazioni "basse" se raffrontate alla forza bruta...

la cosa positiva che in TU102, c'è un deciso aumento della banda passante grazie all'uso delle gddr6, ma non sappiamo se il fill-rate teorico sia aumentato.

CiccoMan
21-08-2018, 15:08
l'errore nasce dalla tabella dove nella voce prezzi, c'è un confronto tra mele e pere, con le gpu di vecchia generazione. Fatto sta che un rincaro del 30% sul prezzo di listino rispetto alla generazione precedente non è cosa da poco...

Sono d'accordo, è un bel salasso...

vedo che se vittima del marketing...
reference, non significa mica prodotto di bassa qualità. anche VEGA con dissipazione a liquido è una reference.
PS la sezione di alimentazione delle FE è spesso ridotta al minimo indispensabile.

Evidentemente non ci conosciamo :)

Una vga reference è una vga che risponde a determinate specifiche progettuali indicate dal produttore.

Un vga per essere reference deve avere pcb, frequenze e in alcuni casi anche il design del dissipatore indicate dalproduttore. Per essere definita reference una 2080 deve avere il pcb che elettricamente risponde al disegno del produttore e le frequenze indicate del produttore... qualsiai cosa che non risponde a queste caratteristiche non è di riferimento.

Ripeto che la Founders Edition di sicuro non è una vga reference, in quanto le frequenze non sono quelle di riferimento (e nemmeno il prezzo).

Credo che a questo giro nVidia abbia voluto rimarcare il concetto usando frequenze overclock (non reference) e un dissipatore dal design atipico.

Sulla qualità non discuto, non sono un ingegnere... ma suppongo che chi progetti questa roba sappia il fatto suo...

:)

Mparlav
21-08-2018, 15:11
https://www.techpowerup.com/246925/nvidia-geforce-rtx-series-prices-up-to-71-higher-than-previous-gen sul discorso aumento prezzi. https://tpucdn.com/img/xFK4vciHBgv0AjT3_thm.jpg

nickname88
21-08-2018, 15:23
generalmente rimanendo in nvidia puoi fare un paragone abbastanza indicativo...dalla 1080 alla 1080Ti ci sono circa 2.6Tflops di differenza, quasi il 30% in piú ed infatti é piú veloce del 30-35% in piú a seconda dei casi.
Si a parità di architettura, ma questa non è Pascal.

tuttodigitale
21-08-2018, 15:30
...
non sono d'accordo :)

Una vga reference è una vga che risponde a determinate specifiche progettuali indicate dal produttore.
le reference, esattamente come la FE, sono schede video prodotte da chi produce il chip...
successivamente i produttori terzi possono seguire il modello di riferimento.....


Ripeto che la Founders Edition di sicuro non è una vga reference, in quanto le frequenze non sono quelle di riferimento (e nemmeno il prezzo).
mi dispiace contraddiriti la FE ha le frequenze di riferimento, che poi queste sono aleatorie (e secondo alcuni recensori truffaldine), da quando è stato introdotto il turbo nel lontano 2012, vedi gtx680, non c'entra granchè:le FE sono nate 4 anni più tardi.


Ripeto che la Founders Edition di sicuro non è una vga reference, in quanto le frequenze non sono quelle di riferimento (e nemmeno il prezzo).

in commercio esistono modelli più scrausi della FE?
Da quello che ho visto in giro spesso le prime custom economiche seguono a livello di PCB fedelmente il modello di riferimento (prodotto da nvidia).



Sulla qualità non discuto, non sono un ingegnere... ma suppongo che chi progetti questa roba sappia il fatto suo...

la differenza tra un prodotto come la FE e una custom di buon livello, per prodotti che comunque non lavorano a tutta potenza 24ore su 24, è nell'OC.

La differenza tra una FE e una reference dei vecchi tempi, è questa....le reference erano in tiratura limitata......finita la quale spettava ai vari produttori costruire la scheda video.

CiccoMan
21-08-2018, 15:41
mi dispiace contraddiriti la FE ha le frequenze di riferimento

Sicuro Sicuro?

http://i68.tinypic.com/308xhr7.jpg
https://www.hwupgrade.it/forum/attachment.php?attachmentid=93946&stc=1&d=1534862717

Link sito Nvidia (https://www.nvidia.com/it-it/geforce/graphics-cards/rtx-2080-ti/)

Fidati di un vecchio, le Founders Edition non sono reference ;)

No rispondo al resto perchè non avrei tempo di argomentare (sto rubando lo stipendio :p ), ma sembra evidente che non sia chiaro cosa significa reference design.

:)

Gyammy85
21-08-2018, 15:45
Sicuro Sicuro?

http://i68.tinypic.com/308xhr7.jpg

Fidati di un vecchio, le Founders Edition non sono reference ;)

No rispondo al resto perchè non avrei tempo di argomentare (sto rubando lo stipendio :p ), ma sembra evidente che non sia chiaro cosa significa reference design.

:)

Tranquillo, ormai si è capito che in 4 giorni nvidia ha rivoluzionato il mind share e quindi ormai niente è più lo stesso.
Saluti

CiccoMan
21-08-2018, 15:49
Tranquillo, ormai si è capito che in 4 giorni nvidia ha rivoluzionato il mind share e quindi ormai niente è più lo stesso.
Saluti

So che è una trollata, ma ti rispondo lo stesso... il concetto di reference design è lo stesso per tutti i produttori, solo che AMD le commercializza, mentre nVidia no.

Anche la gloriosa ATI aveva le sue fantastiche reference prima che quell'assassina di AMD la canniballizzasse e la riducesse allo spettro di quello che era e dovrebbe essere...

PS. Non sono scemo. E' evidente che il discorso Founders Edition sia una trovata commerciale per permettere a nVidia di allineare i prezzi delle vga da lei prodotte a quelli delle custom per evitare di entrare in concorrenza coi partner... ma questa è un altra storia, nessuno abbliga a comperare le FE. La semplice conseguenza è che si possono troavare vga di terzi a prezzi minori di quelle commercializate da nvidia stessa... che poi i prezzi siano in generale elevati è ancora un altro discorso...

FroZen
21-08-2018, 15:55
So che è una trollata, ma ti rispondo lo stesso... il concetto di reference design è lo stesso per tutti i produttori, solo che AMD le produce, mentre nVidia no.

Anche la gloriosa ATI aveva le sue fantastiche reference prima che quell'assassina di AMD la canniballizzasse e la riducesse allo spettro di quello che era e dovrebbe essere...

amd non produce nulla, sono gli AIB a produrre le vga su pcb a design custom o reference.

Reference design = FE per nvidia, basta storie di lana caprina..... cosi facendo se le distribuiscono da sole per massimizzare il valore (ovvero per guadagnare di più), l'obiettivo è quello.

CiccoMan
21-08-2018, 15:59
Mi ricorda uno storico dialogo tra il capitano Kirk e il signor Scott.



"Turing dovrebbe andare a 1545 MHz ma per voi la faremo andare a 1635 Mhz se comprate le FE che costano di più" :sofico:

1545 MHz intanto è una "specifica del prodotto" ma non esiste ne esisterà mai una scheda a 1545 MHz perchè sono le 8 settimane del signor Scott.
Non sono "reference" sono "founders edition" che vuol dire "sono reference ma le paghi 100€ in più"

amd non produce nulla, sono gli AIB a produrre le vga su pcb a design custom o reference.

Reference design = FE per nvidia, basta storie di lana caprina..... cosi facendo se le distribuiscono da sole per massimizzare il valore (ovvero per guadagnare di più), l'obiettivo è quello.

Lo avevo aggiunto al post precedente come PS, ma lo riporto sotto per completezza:

PS. Non sono scemo. E' evidente che il discorso Founders Edition sia una trovata commerciale per permettere a nVidia di allineare i prezzi delle vga da lei prodotte a quelli delle custom evitando così di entrare in concorrenza coi partner... ma questa è un altra storia, nessuno obbliga a comperare le FE.
La semplice conseguenza è che si possono troavare vga di terzi a prezzi minori di quelle commercializate da nvidia stessa... che poi i prezzi siano in generale elevati è ancora un altro discorso...


@FroZen ...e ho anche sostituito il verbo "produrre" con "commercilizzare" che in effetti è più corretto.

Neverlost
21-08-2018, 16:00
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/5237/nvidia-annuncia-3-schede-della-famiglia-geforce-rtx-2080ti-2080-e-2070_index.html

Debutto da settembre per le nuove generazioni di schede video NVIDIA destinate ai videogiocatori, basate su architettura Turing. Focus su Ray Tracing, tecnica che secondo NVIDIA verrà sempre più implementata all'interno dei giochi di prossima generazione e che l'architettura Turing permette di eseguire con prestazioni nettamente superiori alle schede di precedente generazione.

Click sul link per visualizzare l'articolo.

schede inutili per gente inutile. go on.

Gyammy85
21-08-2018, 16:05
Anche la gloriosa ATI aveva le sue fantastiche reference prima che quell'assassina di AMD la canniballizzasse e la riducesse allo spettro di quello che era e dovrebbe essere...


Le built by ati erano prodotte da ati stessa
Ancora non ho capito perché amd avrebbe cannibalizzato ati, ma vabbè...

Alodesign
21-08-2018, 16:09
Ma le voci che circolano in rete sul fatto che i video mostrati alla conferenza fossero in FullHD e in alcune scene il framerate colasse a picco? :mbe:

CiccoMan
21-08-2018, 16:09
Le built by ati erano prodotte da ati stessa

E lo so... bei tempi quelli :old:

Ancora non ho capito perché amd avrebbe cannibalizzato ati, ma vabbè...

Eddai, non ti arrabbiare... volevo solo rispondere ad una trollata con una trollata :D

korra88
21-08-2018, 16:15
Si a parità di architettura, ma questa non è Pascal.

Appunto, in termini di forza bruta abbiamo un incremento del 22% e qualcosa da 1080TI a 2080TI su titoli attuali senza RTX. Grazie a ottimizzazioni sull'efficienza possiamo auspicare un incremento prestazionale del 30-35% a seconda del titolo, no? La differenza c'é sicuramente, ma a fronte di un incremento ipotetico del 35%, io che ho una 1080TI dovrei sborsare 700 euro in piú, tra vendita della vecchia a 550 euro stando alle quotazioni attuali e acquisto della nuova. Non so, io fino ad ora ho sempre preso le schede ogni anno se non al day one, poco piú in la, sto giochino questa volta é davvero un salasso e mi sa che salto...

mariacion
21-08-2018, 16:26
Penso che AMD venderà tante APU, msopratutto l'anno prossimo con la serie Ryzen 3000

nickname88
21-08-2018, 16:30
Appunto, in termini di forza bruta abbiamo un incremento del 22% e qualcosa da 1080TI a 2080TI su titoli attuali senza RTX. Grazie a ottimizzazioni sull'efficienza possiamo auspicare un incremento prestazionale del 30-35% a seconda del titolo, no? La differenza c'é sicuramente, ma a fronte di un incremento ipotetico del 35%, io che ho una 1080TI dovrei sborsare 700 euro in piú, tra vendita della vecchia a 550 euro stando alle quotazioni attuali e acquisto della nuova. Non so, io fino ad ora ho sempre preso le schede ogni anno se non al day one, poco piú in la, sto giochino questa volta é davvero un salasso e mi sa che salto...
Continui a basarti su prezzi di prevendita e quindi gonfiati, visto che la VGA non è ancora nemmeno uscita.
Se converrà o meno la valutazione andrebbe fatta quando il prodotto sarà presente negli shops e quando l'NDA scadrà.

E questo aspetto del RayTracing sarà argomento di valutazione, visto che le unità RT questione sono in aggiunta ai cuda cores e possono funzionare in parallelo senza necessariamente togliere capacità di calcolo a queste ultime, quindi bisognerà valutare l'impatto di ciò sui titoli che lo supportano.

korra88
21-08-2018, 16:59
Continui a basarti su prezzi di prevendita e quindi gonfiati, visto che la VGA non è ancora nemmeno uscita.
Se converrà o meno la valutazione andrebbe fatta quando il prodotto sarà presente negli shops e quando l'NDA scadrà.

E questo aspetto del RayTracing sarà argomento di valutazione, visto che le unità RT questione sono in aggiunta ai cuda cores e possono funzionare in parallelo senza necessariamente togliere capacità di calcolo a queste ultime, quindi bisognerà valutare l'impatto di ciò sui titoli che lo supportano.

Si infatti ho specificato i titoli non RTX..sui nuovi titoli penso che la differenza sará abissale. Riguardo ai prezzi, non credo che si riuscirá a scendere sotto la soglia dei 1000 euro per la 2080TI, forse con i VAT player tra qualche mese, forse..

sturia90
21-08-2018, 16:59
Prezzi folli, ma boicottiamoli cavolo, la colpa è nostra (anzi, vostra:D ) che comprate schede nuove a prezzi così folli. Se la gente compra comunque anche a sti prezzi ovvio che spennano la gente, un po' come gli iphone

Korn
21-08-2018, 17:15
Penso che AMD venderà tante APU, msopratutto l'anno prossimo con la serie Ryzen 3000
col senno di poi le apu sono stato uno spreco di tempo e denari per amd ovviamente imho

Gyammy85
21-08-2018, 18:35
col senno di poi le apu sono stato uno spreco di tempo e denari per amd ovviamente imho

Intanto hanno portato un livello di performance impensabile fino a poco tempo fa per una grafica non discreta, con un 2400g e un monitor freesync ti fau una macchinetta da gioco dignitosa, ed essendo la cpu di tutto rispetto non si hanno problemi a passare alle schede discrete alla bisogna.

calabar
21-08-2018, 18:42
Per quanto riguarda i prezzi mi sembra però che non si stia considerando il contesto.

Correggetemi se sbaglio ma la 1080 TI è uscita molto dopo la 1080, quindi è normale che il prezzo fosse adeguato al mercato e non al prezzo di listino della 1080 all'uscita.
Non so se è chiaro il ragionamento, ma se io faccio uscire la 2080 a, poniamo (numero a caso), 500 euro insieme alla 1080 TI, questa la piazzo (altro numero a caso) a 800 euro. Se invece oggi vendo solo la 1080 a 500 euro e dopo sei mesi (quando il prezzo della 1080 è calato magari a 350 euro) faccio uscire la 1080 TI, questa non potrò piazzarla a 800 euro ma la piezzerò, poniamo, a 550-600 euro. Tornando al primo caso, questo sarà più o meno il prezzo a cui si troverà la 1080 TI dopo sei mesi dall'uscita, quindi alla fine i conti tornano.

Insomma, non possiamo confrontare i prezzi di listino all'uscita delle schede senza considerare quali siano le condizioni in cui è avvenuta la commercializzazione del prodotto.

Badate bene non sto dicendo che non siano prezzi folli. A mio parere si è di molto superata la misura già con la scorsa generazione, e senza considerare l'impennata dei prezzi dovuta al mining.


Per la questione "FE=Reference?" trovo corretta la posizione di CiccoMan, ma alla fine è una diatriba sui termini più che sulla sostanza. Che si sia trattato di una mossa commerciale direi che è chiaro a tutti.

Micene.1
21-08-2018, 19:03
prevedo un crollo del valore delle vecchie schede video

quelle con il ray tracing aprono scenari grafici impensabili


siamo solo all'inizio di una nuova era...

Micene.1
21-08-2018, 19:05
Prezzi folli, ma boicottiamoli cavolo, la colpa è nostra (anzi, vostra:D ) che comprate schede nuove a prezzi così folli. Se la gente compra comunque anche a sti prezzi ovvio che spennano la gente, un po' come gli iphone

schede con motori RT in hardware....una primizia che nn ha nessuno nel consumer...e se la fanno pagare...poi chiaro sono prezzi da lancio quindi togli almeno il 10%

se uscira anche l equivalente amd i prezzi scenderanno...

nickname88
21-08-2018, 19:35
Prezzi folli, ma boicottiamoli cavolo, la colpa è nostra (anzi, vostra:D ) che comprate schede nuove a prezzi così folli. Se la gente compra comunque anche a sti prezzi ovvio che spennano la gente, un po' come gli iphone
E' colpa nostra certo e la concorrenza dovè ?
Nel frattempo dobbiamo farci un paio di anni con le stesse schede ? Così poi quando le rivendiamo non varranno più un tubo :rolleyes:

Si infatti ho specificato i titoli non RTX..sui nuovi titoli penso che la differenza sará abissale. Riguardo ai prezzi, non credo che si riuscirá a scendere sotto la soglia dei 1000 euro per la 2080TI, forse con i VAT player tra qualche mese, forse..Non sò se scenderanno fino a quel punto ma di certo il primo mese non sarà il periodo ideale, bisognerà attendere una disponibilità buona negli shops.

nickname88
21-08-2018, 19:39
Intanto hanno portato un livello di performance impensabile fino a poco tempo fa per una grafica non discreta, con un 2400g e un monitor freesync ti fau una macchinetta da gioco dignitosa, ed essendo la cpu di tutto rispetto non si hanno problemi a passare alle schede discrete alla bisogna.
Si dignitosa come no, a 720p tutto fra min e medio e nonostante ciò il frames il più delle volte è tutt'altro che rispettabile.
E sto parlando del top di gamma, il che vuol dire che se ci mettiamo a parlare anche dei modelli minori è na catastrofe.

Livello impensabile dici bene, tanto che la loro top riesce ad equivalere il modello di scheda più basso del mercato ( anzi con questa nuova serie Nvidia non più) ... davvero un gran traguardo !

Va bene con i giochini di basso spessore tecnico o con il retrogaming.
"Macchina dignitosa" dici ? Se veramente lo pensi devi averla molto bassa la dignità.

AceGranger
21-08-2018, 19:42
Se fosse riusciti a far scrivere qualche software importante in HSA magari...

seriamente... ancora con sto HSA :asd: ? te lo dissi gia all'epoca che avebbe fatto una brutta fine e cosi è stato;

spendere tempo per riscrivere codici per avere uno sputo di guadagno rispetto al GPGPU classico per di piu su una GPU entry lvl ? era inutile allora ed è inutile anche oggi motivo per il quale non se lo è cagato di striscio nessuno; non si sono sbattuti nemmeno in AMD a fare partnership dove magari la stessa AMD ci avrebbe messo manodopera per fare patch e plugin... ahhh no aspetta, vero, loro sono OPEN, sono apertissimi al lavoro degli altri :asd:


ci hanno messo solo 6 anni a capire che dovevano sbattersi a fare un motore di render OpenCL mentre tutti usavano CUDA.... e continueranno a usare CUDA.... :asd:

darione77
21-08-2018, 20:25
La 1080 dovrà durarmi mooooolto a lungo.
Questi sono andati fuori di capoccia coi prezzi :muro:

niky89
21-08-2018, 20:25
Io mi limito a commentare con questa immagine.
https://i.imgur.com/o5xZSAal.png

Nhirlathothep
21-08-2018, 20:27
14 pagine di commenti. non avevo visto

AceGranger
21-08-2018, 20:35
Io mi limito a commentare con questa immagine. Per quelli che "non si possono fare confronti" la 1080 FE all'uscita costava 539€


ma in quale mondo ? la 1080FE all'uscita costava 800 euro.

https://www.hwupgrade.it/articoli/skvideo/4643/nvidia-geforce-gtx-1080-founders-edition-la-nuova-top-di-gamma_19.html

"GeForce GTX 1080 sarà in vendita dal prossimo 27 maggio nella sola Founders Edition, al listino ufficiale nel mercato italiano di 799,00€ IVA inclusa."


sono scese di prezzo con il taglio da parte di nVidia dopo l'uscita della 1080TI che ha preso il prezzo della 1080.

niky89
21-08-2018, 20:36
ma in quale mondo ? la 1080FE all'uscita costava 800 euro.

https://www.hwupgrade.it/articoli/skvideo/4643/nvidia-geforce-gtx-1080-founders-edition-la-nuova-top-di-gamma_19.html


"GeForce GTX 1080 sarà in vendita dal prossimo 27 maggio nella sola Founders Edition, al listino ufficiale nel mercato italiano di 799,00€ IVA inclusa."

Ops my fault. La 2080 non costa 799 se dobbiamo metterla su quel piano allora. Con il prezzo dell'attuale 2080 ti ci si prendeva una Titan, e la 2080 ti rispetto a una Titan è castrata.

Gyammy85
21-08-2018, 20:41
Si dignitosa come no, a 720p tutto fra min e medio e nonostante ciò il frames il più delle volte è tutt'altro che rispettabile.
E sto parlando del top di gamma, il che vuol dire che se ci mettiamo a parlare anche dei modelli minori è na catastrofe.

Livello impensabile dici bene, tanto che la loro top riesce ad equivalere il modello di scheda più basso del mercato ( anzi con questa nuova serie Nvidia non più) ... davvero un gran traguardo !

Va bene con i giochini di basso spessore tecnico o con il retrogaming.
"Macchina dignitosa" dici ? Se veramente lo pensi devi averla molto bassa la dignità.

A parte il fatto che nvidia non ha presentato 2030 2040 2050, le prestazioni sono perfettamente paragonabili alla 1030 con le gddr5, va pure di più in certi casi, quindi evita questo atteggiamento da indignato, stupido io che mi ostino a commentare le news nvidia.


ci hanno messo solo 6 anni a capire che dovevano sbattersi a fare un motore di render OpenCL mentre tutti usavano CUDA.... e continueranno a usare CUDA.... :asd:

Sai quanto interessa ad amd di cuda :asd:
"oh no come faremo abbiamo la fissa per opencl e tutto il mondo usa android!!"
:asd:

AceGranger
21-08-2018, 20:47
La 2080 non costa 799 se dobbiamo metterla su quel piano allora. Con il prezzo dell'attuale 2080 ti ci si prendeva una Titan, e la 2080 ti rispetto a una Titan è castrata.

la 2080 FE costa 869 euro, ma è OC. è un aumento del 9%

ma.... avete l'alzheimer ?

la prima Titan Pascal è uscita castrata, quindi all'uscita ti prendevi la STESSA identica cosa solo con il nome diverso, ti prendevi il chippone leggermente castrato.

DOPO, è uscita la Ti che ha sostituito la Titan normale a prezzo inferiore, ed è uscita la Titan XP Full core al prezzo della vecchia Titan.

attualmente non si sa cosa faranno con la Titan, se la faranno uscire o meno e in che modalita.

Sai quanto interessa ad amd di cuda :asd:
"oh no come faremo abbiamo la fissa per opencl e tutto il mondo usa android!!"
:asd:

evidentemente vedendo il loro fantastico market share in campo Pro se ne sarebbero dovuti preoccupare :asd:

niky89
21-08-2018, 20:49
la 2080 FE costa 869 euro, ma è OC. è un aumento del 9%

ma.... avete l'alzheimer ?

la prima Titan Pascal è uscita castrata, quindi all'uscita ti prendevi la STESSA identica cosa solo con il nome diverso, ti prendevi il chippone leggermente castrato.

DOPO è usicta la Ti che ha sostituito la Titan normale a prezzo inferiore ed è uscita la Titan XP Full core.

Quindi i 1300€ sono giustificati per la 2080ti?

AceGranger
21-08-2018, 21:00
Quindi i 1300€ sono giustificati per la 2080ti?

ognuno valuta un po con le sue tasche se vale o meno la pena spendere per determinati prodotti.

sgrinfia
21-08-2018, 21:05
Prezzi folli, ma boicottiamoli cavolo, la colpa è nostra (anzi, vostra:D ) che comprate schede nuove a prezzi così folli. Se la gente compra comunque anche a sti prezzi ovvio che spennano la gente, un po' come gli iphone

Ciao,scusa ma come fai a dire cos'è di questo genere?.boicottiamoli?,ma sai quanta gente lavora in Invidia che deve portare lo stipendio a CASA,con la propria prole che lo aspetta ha bocca aperta...e lo sai?.pensa solo lo sforzo enorme per creare dei raggi luminosi che neanche il Sole riesce a produrre.Bastava capire il momento delicato e agire col cuore....bastava rinunciare all' albergo di agosto e spendere i sudati euro comprando una 2080 con i raggi Solari e avresti mantenuto l'abbronzatura e fatto felici i dipendenti di Invidia.
Quindi fai questo maledetto ordine....subito.

niky89
21-08-2018, 21:05
ognuno valuta un po con le sue tasche se vale o meno la pena spendere per determinati prodotti.

C'è differenza fra permettersi e parlare di un prezzo adeguato ad un determinato prodotto. Nvidia sta facendo pian piano come Apple. E non parlo da hater.

korra88
21-08-2018, 21:10
evidentemente vedendo il loro fantastico market share in campo Pro se ne sarebbero dovuti preoccupare :asd:

quoto...in campo pro amd praticamente non esiste, livelli da monopolio. Non potrei abbandonare nvidia neanche volendo. C'é un bisogno disperatissimo di concorrenza e quel che é peggio é che all'orizzonte non si vede nulla che possa cambiare gli equilibri.

Gyammy85
21-08-2018, 21:13
Ciao,scusa ma come fai a dire cos'è di questo genere?.boicottiamoli?,ma sai quanta gente lavora in Invidia che deve portare lo stipendio a CASA,con la propria prole che lo aspetta ha bocca aperta...e lo sai?.pensa solo lo sforzo enorme per creare dei raggi luminosi che neanche il Sole riesce a produrre.Bastava capire il momento delicato e agire col cuore....bastava rinunciare all' albergo di agosto e spendere i sudati euro comprando una 2080 con i raggi Solari e avresti mantenuto l'abbronzatura e fatto felici i dipendenti di Invidia.
Quindi fai questo maledetto ordine....subito.

:asd: :asd:

AceGranger
21-08-2018, 21:17
C'è differenza fra permettersi e parlare di un prezzo adeguato ad un determinato prodotto. Nvidia sta facendo pian piano come Apple. E non parlo da hater.

il prezzo adeguato chi lo decide ? tu ? no, parli da uno che vuole pensarla meglio degli altri; il prezzo "adeguato" è una pippa mentale, esiste solo il prezzo che il mercato è disposto a pagare.

io non reputo il prezzo dei prodotti Apple consono e non li prendo, ma non per questo chi prende Apple è uno stupido, semplicemente si fara i propri ragionamenti e avra i propri gusti.

se uno ritiene che 1200 euro per avere la novita siano consoni li spende e bona, di certo tu non sei piu intelligente di lui perchè non la prendi.

quoto...in campo pro amd praticamente non esiste, livelli da monopolio. Non potrei abbandonare nvidia neanche volendo. C'é un bisogno disperatissimo di concorrenza e quel che é peggio é che all'orizzonte non si vede nulla che possa cambiare gli equilibri.

ecco, visto che io ho fatto la cagata di farlo per un breve periodo, NON farlo nemmeno se potrai :asd: rimani con nVidia.

sgrinfia
21-08-2018, 21:48
Io non penso che chi spende 1200euro per una scheda video sia un fesso,però una cosa è sicura.....non ė nemmeno un dritto....

Gyammy85
21-08-2018, 22:15
quoto...in campo pro amd praticamente non esiste, livelli da monopolio. Non potrei abbandonare nvidia neanche volendo. C'é un bisogno disperatissimo di concorrenza e quel che é peggio é che all'orizzonte non si vede nulla che possa cambiare gli equilibri.

Quindi c'è bisogno di concorrenza, però sarebbe comunque inutile dato che non si potrebbe abbandonare nvidia neanche volendo.

:what: :what: :what: :what:

paranoic
21-08-2018, 22:17
il prezzo adeguato chi lo decide ? tu ? no, parli da uno che vuole pensarla meglio degli altri; il prezzo "adeguato" è una pippa mentale, esiste solo il prezzo che il mercato è disposto a pagare.

io non reputo il prezzo dei prodotti Apple consono e non li prendo, ma non per questo chi prende Apple è uno stupido, semplicemente si fara i propri ragionamenti e avra i propri gusti.

se uno ritiene che 1200 euro per avere la novita siano consoni li spende e bona, di certo tu non sei piu intelligente di lui perchè non la prendi.



ecco, visto che io ho fatto la cagata di farlo per un breve periodo, NON farlo nemmeno se potrai :asd: rimani con nVidia.

I vari responsabili del reparto Marketing...definiscono quello che tu hai espresso...in COSTO / UTILITA'

Personalmente non comprerò mai più un prodotto Apple, a causa dei costi esorbitanti e soprattutto in funzione di un hw obsoleto sotto le scocche...non trovo giustificato pagare un prodotto 5 volte il suo valore solo a causa di un marketing one to one...direzionato solamente sulla classica politica di prezzo che fò sentire gli utenti appartenenti ad un insieme sociale piuttosto che un altro.

Idem dicasi per le GPU a 1300 euro oppure i cellulari Samsung con sw free a 1300 euro oppure gli Apple ad eguale cifra...

Come tu hai giustamente detto, innegabile che chi acquista a codeste cifre, non manchi certamente di intelligenza, lungimiranza, capacità di valutare costi benefici etc...bensì abbia aspettative di reddito superiori alla media (anche se vista la diffusione dei prodotti di cui parliamo sono più i ricchi che i poveri...) ed abbia una viscerale passione nel gioco su Pc oppure nel dating....

Personalmente ogni voce di costo del mio bilancio sembra sottoposta ad un vero e proprio collegio sindacale, fatta revisionare da società professionistiche, poi essere inviato alla Consob, alla Banca d'Italia, al Parlamento Italiano etc...quindi la cosa è abbastanza opprimente...e dire che, il flusso di cassa in uscita è documentabile...persino a richiesta dell'Agenzia delle Entrate.... :p :cry:

Gyammy85
21-08-2018, 22:18
ecco, visto che io ho fatto la cagata di farlo per un breve periodo, NON farlo nemmeno se potrai :asd: rimani con nVidia.

Si ma siamo ancora al 21 agosto, stacca un pò, abbi pietà. Appena presenteranno la titan rtx che farai?

lucusta
21-08-2018, 22:18
Sì, è possibile, perché quello che va simulato e/o precalcolato con le normali tecniche con il ray tracing è "gratis" e molto più facile da rendere fisicamente corretto (quindi realistico).

Fra le altre cose oltre un certo livello di dettaglio poligonale la differenza prestazionale si annulla, ma non siamo ancora a quel punto.

https://i.imgur.com/lNu23DQ.png

Pcper - Ray tracing faster than rasterization: Example 1 (https://www.pcper.com/reviews/Processors/Ray-Tracing-and-Gaming-One-Year-Later/Ray-tracing-faster-rasterization-Example-1) (articolo del 2008)

oh... finalmente qualcuno che parla giusto.
la questione di fondo, però, è che S è nell'ordine di potenza tra 60 e 80TF...
non sono le schede di oggi a poter offrire quelle prestazioni real time, ma nemmeno lontanamente.
praticamente oggi non siamo nemmeno alla metà della prima unità delle X (se consideriamo l'intero quadro visulale).
quindi in futuro la tecnologia si sposterà sicuramente sul ray tracing (real time), ma non oggi, domani o tra 4 anni...
in pratica il punto S è il confronto tra una degna densità raggi in ray tracing su un'apprezzabile quadro visuale ( o, per meglio specificare, un fascio di vettori ad elevata densità radiante) rispetto ad un gioco in rasterizzazione a 12K, tutto naturalmente per i canonici 60fps... perchè per voce dello stesso huang la RTX 1080 Ti gestiva la demo di starwars a 45ms per frame, che sono 22fps, se qualcuno non l'ha notato... ed in più è una demo; credete realmente che se avessero creato inquadrature di scena che avessero richiesto 4 volte la potenza impiegata non avrebbero ricostruito la scena per rientrare nei limiti della potenza disponibile?

lo ribadisco: queste schede sono realmente potenti per il ray tracing, ma non aspettatevi miracoli, perchè non fanno ray tracing, ma applicano algoritmi che alleggeriscono assai il lavoro producendo risultati assai simili alla realtà e non lo possono fare ovunque... purtroppo però quell'assai simile non può essere gestito che per una minima parte (praticamente solo per 1/5 dello schermo se prendiamo a riferimento 100fps, a qualsiasi risoluzione e nel miglior caso).

seconda cosa che si dovrà osservare:
il PP è diminuito, i cudacore aumentati, ed il TDP/mm^2 è rimasto uguale.
significa che potremmo usare più transistors, quindi più potenza grafica per la stessa potenza... ma nel caso si usassero solo i cuda core.
gli RT core ed i tensor core avranno anche questi il loro bel consumo, ed è superiore a quello che si usa per pari numero di transistors usati in cudacore; è il loro rendimento che è ottimo, ma si parla di rendimento di calcolo, ossia TF per watt e per gli stessi watt consumati non vanno 6 volte di più... vanno 6 volte di più in assoluto, consumando però anche molta più energia, che viene sfruttata molto meglio, in questi calcoli, rispetto ai cudacore (quindi con rendimento migliorativo), ma comunque con un aumento di potenza assorbita.
viene da pensare che nel caso si usassero insieme anche queste unità dedicate per effetti grafici in real time (e filtri avanzati di AA o intelligenza artificiale o qualsiasi altra cosa vogliano far fare ai tensor core), per rimanere nello stesso TDP dovranno calmierare la potenza dei cuda core.
quindi non darei per certo che, nel caso non si usassero punti luce d'illuminazione spot sulla rasterizzazione, che alleggerisce parecchio il computo grafico dei cuda core, per affidare il lavoro agli RT core in ray tracing, poi uno si vede aumentate le prestazioni grafiche perchè impegna i cuda cores sul resto del computo grafico, ma invece si vedrà decurtare la frequenza da 2, 2.2Ghz a 1500mhz perchè l'uso degli RT core in modo troppo intenso unito all'uso dei cudacore a piena frequenza farebbe sforare il TDP...
Intel insegna: se usi le AVX diventa difficile mantenere lo stesso TDP a piena frequenza, quindi il processore sottoposto ad intenso uso di AVX, deve cedere in frequenza, e l'abbassano.
alla fine l'uso delle AVX è assai vantaggioso, ma non usi comunque le AVX alla stessa frequenza massima dei core....
visto che qui parliamo di scaricare il lavoro ai cuda per affidarlo ad unità dedicate si dovrà verificare se il lavoro dei cudacore può essere allo stesso tempo comunque massimizzato (ossia ottenere le stesse frequenze) anche quando queste unità lavorano congiuntamente ai cudacore...

.. e diventa ancora più difficile percepire il miglioramento grafico... come fai a valorizzare che è più bello, su quale scala?

insomma, se le reviews prima valevano già poco, domani prevedo che avranno sempre meno significato...

è tutto da testare, ed oggi diventerà difficile perchè sarà proprio l'intensità dell'uso di questi effetti a spostare l'ago della bilancia.

paranoic
21-08-2018, 22:21
Quindi c'è bisogno di concorrenza, però sarebbe comunque inutile dato che non si potrebbe abbandonare nvidia neanche volendo.

:what: :what: :what: :what:

No...secondo me...alla fine Nvidia e produttori vari...devono rendere conto ai consumatori...sono loro che dovrebbero tirare i remi in barca...contraendo la domanda...
E' semplice contrarre l'offerta per soddisfare i propri volumi di vendita e ricavi...e creare veri e propri cartelli in grado di fare una politica di prezzo a discapito del consumatore.

La colpa è nostra...i produttori sono scaltri...e molto intelligenti a fornire piccole migliorie a determinati brevetti ed al packaging...per portare a casa un margine di utile quasi superiore al 60% considerando i costi di marketing....

AceGranger
21-08-2018, 22:27
Si ma siamo ancora al 21 agosto, stacca un pò, abbi pietà.

abbi pieta va, torna a scrivere le solite perle nel thread di AMD cosi hai gli altri amichetti del tè che ti danno le pacche sulle spalle e potete festeggiare per le feature che vedrete nel duemilacredici :asd:

Appena presenteranno la titan rtx che farai?

nulla

korra88
21-08-2018, 22:37
Quindi c'è bisogno di concorrenza, però sarebbe comunque inutile dato che non si potrebbe abbandonare nvidia neanche volendo.

:what: :what: :what: :what:

Ho scritto che nel settore pro c'é il monopolio nvidia. Non posso abbandonare nvidia per quel motivo li.

Nel gaming arranca ma c'é, nel pro proprio non esiste. Per questo c'é piú bisogno di concorrenza specialmente in quel settore, dove CUDA praticamente é uno standard. É questione di un paio di anni e vedrai che anche RTX sará lo standard per il settore gaming cosí come lo é CUDA nel pro. Han giá tutto pronto con le DirectX Ray e il supporto su tutti i motori grafici. Non so, la vedo veramente grigia per i concorrenti, ed é veramente un male per noi consumatori.

Peró mi rendo conto e capisco che giá tenere botta a un colosso come intel é dura e infatti fa fatica, figuriamoci due colossi contemporaneamente aggiungendoci anche nvidia...motivo per cui non si vede uno spiraglio di speranza - per il portafogli - perché sulle prestazioni nulla da eccepire con nvidia.

niky89
21-08-2018, 22:44
Ho scritto che nel settore pro c'é il monopolio nvidia. Non posso abbandonare nvidia per quel motivo li.

Nel gaming arranca ma c'é, nel pro proprio non esiste. Per questo c'é piú bisogno di concorrenza specialmente in quel settore, dove CUDA praticamente é uno standard. É questione di un paio di anni e vedrai che anche RTX sará lo standard per il settore gaming cosí come lo é CUDA nel pro. Han giá tutto pronto con le DirectX Ray e il supporto su tutti i motori grafici. Non so, la vedo veramente grigia per i concorrenti, ed é veramente un male per noi consumatori.

Peró mi rendo conto e capisco che giá tenere botta a un colosso come intel é dura e infatti fa fatica, figuriamoci due colossi contemporaneamente aggiungendoci anche nvidia...motivo per cui non si vede uno spiraglio di speranza - per il portafogli - perché sulle prestazioni nulla da eccepire con nvidia.
Utopia, ma magari nel 2020 Intel smuove qualcosa.

lucusta
21-08-2018, 23:28
Ma in effetti hai perfettamente ragione e io con una 1080 più di giocare a campo minato non posso permettermi di fare, naturalmente tutto maxato ma con filtri disabilitati.... :doh: :doh: :doh:

hai giochi 2017, 2018?
bene, conservali stretti, perchè probabilmente saranno gli ultimi per cui la tua scheda riuscirà ad essere proficua.

il sunto del discorso non è che se usano effetti grafici RT tu, con pascal, potrai semplicemente disabilitarli e computare bene come fai oggi, come farebbe uno con una AMD.
non riuscirai a sfruttarla a dovere perchè oltre che con effetti RT questi giochi saranno anche DX12, e quel tipo di DX12 che una pascal è costretta ad emulare via software, con decurtazioni di potenze del 20% minimo perchè nessun gioco uscito fino ad oggi sfrutta le peculiarità delle DX12 tier 3, proprio perchè le schede nvidia, 70% del venduto, non possono sfruttarle in HW, mentre anche quando hanno cercato di usare AC lo hanno dovuto fare in modo compatibile (ossia creando software in AC e "normale" per le nvidia, come in AOTS, che in beta si presentava solo con AC e le pascal nemmeno lo avviavano, in pratica... poi nvidia ha chiesto e ottenuto che AC si potesse disabilitare, ossia che ATOS venisse fatto anche in DX12 tier 1, ne più ne meno che delle DX11.3).
e c'è di più, tra l'altro.
quello che hanno mostrato le poche beta con AC usavano frammentazione assai bassa. AMD può gestire frammentazioni in 64esimi con polaris e 256esimi con Vega...
se Santa Nvidia ha minimamente accettato l'uso di questo paradigma di programmazione in HW su turing... pascal se lo scordano il giorno dopo che hanno finito di presentare l'intera lineup turing, anche nei driver...

è sempre stato questo il problema: nvidia forzava a non usare le DX12 per come erano state concepite, ossia la massimizzazione dei tempi d'uso del processore, non la massimizzazione delle sue prestazioni massime di punta, ma per ben pochi intervalli limitati di tempo... AC, calcolo asincrono.
il perchè è che, per come è l'architettura pascal e precedenti, nvidia ha necessità di accorpare il lavoro in una unica logica di funzionamento che poi separa e gestisce lei i calcoli sull'HW, ma di partenza il lavoro dev'essere in un'unca entità, non i frammenti di questa.
se si trova un gioco in AC deve prima ricostruire tutto per l'intero, poi gestire e dividere per l'HW e poi nuovamente ridividere le richieste fatte per il primo punto...
è per questo che perdono un sacco in unso di DX12 AC.

nessuna difficolta nell'usare le DX12, nessuna difficoltà nell'usare AC, nessuna difficoltà di parallelizzazione (in un applicativo, la grafica 3D rasterizzata, che esalta la parallelizzazione), ma unicamente l'impossibilità dell'HW maggiormente venduto e una bella dose di peli lunghi sullo stomaco da parte di chi vende di più e quindi si sente libero di condizionare il mercato (ossia che paga perchè le cose vadano a proprio vantaggio).

anche oggi è così, con RT...
credi che gli investimenti per lo sviluppo di queste soluzioni dei giochi sia stato fatto da parte delle SH?
fino a ieri non era manco stato presentato l'HW per far funzionare decentemente questi effetti.
i giochi vendono per massima parte per i primi 3 mesi nel mondo PC game.
è in quel periodo che massimizzano i profitti, poi, per il resto della vita, quel gioco al massimo può sperare di egualiare il guadagno che farai in questi primi 3 mesi, (tolte le dovute eccezioni per i sempreverdi, che non è aggettivo pro nvidia, ma solo il modo per dire che un gioco desta interesse per anni e anni, come GTA).
nei prossimi 12 mesi, a questi prezzi, è tanto se il numero di schede nvidia che potrebbero usare questa tecnologia in modo proficuo raggiunga il 2% del parco macchine dei gamer.
schede da 600 e oltre euro sono si e no il 5% dell'intero mercato GPU (comprese quelle professionali, tra l'altro, ma lì hai ben altri rendimenti per quei pochi chip che vendi); al meglio nvidia può sperare nello spostamento del doppio degli utenti, un 10%, un 15% per esagerare...
si vendono 10-12 milioni di schede all'anno (non contando il 2017 che è una eccezione per via dei miner), quindi la speranza è di 1.8 milioni di schede turing con RT core e tensor core.
bene... e chi ha già la scheda e non è certo interessato a cambiarla per i successivi 3 anni non ce lo metti?
sono i restani 20-30 milioni di giocatori PC, a guardare in modo approssimativo steam... non le sue statistiche, ma l'adozione del suo programma di "affiliazione" senza il quale non giochi ai giochi che sono sulla sua piattaforma: 40 milioni d'installato in uso (non totali, ma solo le istanze in uso).
siamo a 38 milioni di clienti contro manco 2...
e abbiamo valutato solo steam, tra l'altro, anche se steam conta tanti giocatori con iGPU...
possiamo però dire che, si, i giocatori PC che si comprano o hanno comprato una scheda video negli ultimi 3 anni sono circa 40 milioni.
ora, dimmi tu se una SH investe milioni di euro in sviluppo per una tecnologia che usera, al massimo, il 5% del mercato l'anno prossimo, mentre per i primi 3 mesi di distribuzione del gioco, se lo fanno uscire oggi, il giorno della presentazione di queste schede, è tanto che se allo scadere dei 3 mesi ci saranno mezzo milione di giocatori che avranno la reale possibilità di utilizzarli...
tutto questo articolato discorso per dirti che nvidia ha nuovamente pagato e costretto le SH a questa implementazione "fantasma".
non ci sarebbe logica oggi di affrontare spese per l'implementazione di una tecnica che è si promettente, ma non essenziale e comunque, ad oggi, solo marginale se non quella di essersi fatti pagare per farlo.
d'altronde è nvidia interessata dal fatto che questo HW venga supportato, perchè è SOLO LEI che ci guadagna, sempre se il guadagno delle SH non avviene in altri modi, ossia essere pagato per supportarli.

è per questi motivi che verrà supportata.
è per questi motivi che le DX12 non sono state ancora, dopo 4 anni dalla presentazione ufficiale avvenuta, tra l'altro, con cospicuo ritardo, usate nei giochi.

ma se nvidia ha finalmente l'HW compatibile in toto per DX12 (e se vai di DXRT credo che convenga usare il computo asicrono), le due cose vanno a braccetto ed anche le DX12 verranno adottate con la stessa enfasi...

tu che con pascal non processi in HW ne DX12 ne RT ne IA che fai?
o meglio, che ti rimane in mano tra un annetto?
almeno con una AMD di oggi non vedrai mozzare le prestazioni dall'uso delle DX12, e per gli effetti grafici.. amen... per averli dovresti sborsare minimo 600 euro.... diglielo ad uno che ha preso una 480 a 230 euro se è disposto a spendere minimo 600 euro per un pò di riflessi...

e, la cosa sgradevole, è che queste schede hanno questi prezzi proprio per favorire la vendita di quegli oltre 2 milioni di chip pascal invenduti ai miner...
quindi nvidia ha "benedetto" 2 categorie di giocatori:
quelli che volevano la nuova e scintillante generazione, perchè costa una volta e mezzo rispetto a prima;
quelli che ingenuamente si butteranno sui rimasugli delle pascal, perchè vedranno adottare dai nuovi giochi, e sempre più massicciamente, le DX12 che le pascal non digeriscono.

realmente una società con il miglior rispetto per i suaoi clienti!

se avessero fatto RT core e tensor core su un chip a parte, con schede addon, avrebbero dato il tempo ed il modo alla gente di adottare questa tecnologia con il giusto tempo di assimilazione, come successe con il 3D accellerato in HW 25 anni fa.
hanno un link, su quelle schede, che dovrebbe far magia; a sfruttarlo per un collegamento diretto con una scheda addon RT/tensor core non avrebbe dato nessun problema...

ma parliamo d'nvidia, una società che già per la scelta del suo nome si può ben etichettare: "quando l'invidia infuria in tutta la sua violenza contro di essa risulta impotente il singolo e persino un'intera istituzione" (cit. Marcus Tullius Cicero, filosofo romano 106 a.C.).

invece che derivare il nome dall'invidia
Invidia: tristezza per il bene altrui percepito come male proprio;
dovevano derivare il nome da un'altro dei vizzi capitali: la superbia
Superbia: radicata convinzione della propria superiorità, reale o presunta, che si traduce in atteggiamento di altezzoso distacco o anche di ostentato disprezzo verso gli altri, e di disprezzo di norme, leggi, rispetto altrui...

come vedi a quest'azienda (e a molti dei suoi affezionati clienti) calza molto meglio il 1° dei vizzi capitali rispetto al 4°...

pace e bene...:rolleyes:

giovanbattista
21-08-2018, 23:52
io pensavo di pensionare la mia 1070 ma con sti prezzi aspetto l'anno prossimo
la mancanza di concorrenza si vede grazie amd :cool: :cool:

mi sembra di ricordare qualche cosa di te......si circa 20 anni or sono......eri salito agli onori della cronaca mi pare fossi caduto dal seggiolone? ricordo bene.....mi confermi?

lucusta
21-08-2018, 23:52
se uno ritiene che 1200 euro per avere la novita siano consoni li spende e bona, di certo tu non sei piu intelligente di lui perchè non la prendi.

a bhè, sicuramente non sarò più intelligente, ma sicuramente non certo più fesso a non prenderla...
come vedi le monete hanno sempre due facce.

tu che faccia vuoi interpretare?
quello del non intelligente o del fesso?

perchè, REALMENTE, stiamo parlando di 4 effettini di luce sparsi qua e là nei giochi CHE NON REPLICANO MANCO MINIMAMENTE LA REALTA', ma un manga di ultima generazione...
e per 1200 euro... altro che essere fesso o non fesso, più o meno intelligente;
qui si entra nella sfera del buon senso....

lucusta
21-08-2018, 23:56
mi sembra di ricordare qualche cosa di te......si circa 20 anni or sono......eri salito agli onori della cronaca mi pare fossi caduto dal seggiolone? ricordo bene.....mi confermi?

no... vedi che quello che cadde dal seggiolone eri proprio te, solo che la botta e stata forte e... non te lo ricordi.

(vedi sopra: ci sono sempre due modi per relazionarsi agli altri;
con rispetto, ricevi rispetto; con disprezzo, ricevi disprezzo.
quindi, giovanbattista, come vuoi essere trattato da oggi in poi?).

giovanbattista
22-08-2018, 00:07
no... vedi che quello che cadde dal seggiolone eri proprio te, solo che la botta e stata forte e... non te lo ricordi.

(vedi sopra: ci sono sempre due modi per relazionarsi agli altri;
con rispetto, ricevi rispetto; con disprezzo, ricevi disprezzo.
quindi, giovanbattista, come vuoi essere trattato da oggi in poi?).

l'unica relazione che potrebbe istaurarsi tra me e lei è quella che avviene tra uno stivale e una formica.....chiamarla relazione mi pare troppo presuntuoso;) siamo più nel rapporto causa effetto:asd: o al max danni collaterali

ciao bello

lucusta
22-08-2018, 00:07
ognuno valuta un po con le sue tasche se vale o meno la pena spendere per determinati prodotti.

........
se mi parli di una ferrari; sì.

se mi parli di una casa costruita da un genio conclamato dell'architettura; sì.

pure se mi parli di un paio di chili di Pata Negra tagliati fino fino, alla fine ti darei ragione: i gusti son personali, ma ci son cose che superano la soggettività del singolo perchè è proprio la soggettività di tutti che le hanno fatte diventare praticamente delle preferenze oggettive.

ma se mi parli di un prodotto che avrà una tiratura in milioni di esemplari e che dopo un paio d'anni sarà in uno scatolone insieme ad altra robaccia, accomodati pure...

roba del genere si acquaista con il miglior rapporto prestazioni/costo, valutando le rinuncie che puoi fare proprio in relazione alle potenze che ti servono in relazione al costo;
e senza manco pensarci...
è letteralmente FERRAGLIA.
si usa, si sfrutta e si butta nel cassonetto del riciclo.

AceGranger
22-08-2018, 00:08
a bhè, sicuramente non sarò più intelligente, ma sicuramente non certo più fesso a non prenderla...
come vedi le monete hanno sempre due facce.

tu che faccia vuoi interpretare?
quello del non intelligente o del fesso?


non è che deve per forza esserci il fesso è... ognuno puo vivere felice delle proprie scelte senza rompere i cogli0ni al prossimo giudicando a membro di segugio :asd:



perchè, REALMENTE, stiamo parlando di 4 effettini di luce sparsi qua e là nei giochi CHE NON REPLICANO MANCO MINIMAMENTE LA REALTA', ma un manga di ultima generazione...
e per 1200 euro... altro che essere fesso o non fesso, più o meno intelligente;
qui si entra nella sfera del buon senso....

per te saranno 2 effettini per altri no; e questi "effettini" sono al cosa migliore delle novita arrivate dalle ultime 3 generazioni, l'unica vera novita grafica delle DX11 e le tanto decantate DX12.

fra l'altro la tipologia del riflesso la decidono i programamtori mica è colpa del raytracing, e tecnicamente i riflessi in ray-tracing sono fisicamente corretti


no... vedi che quello che cadde dal seggiolone eri proprio te, solo che la botta e stata forte e... non te lo ricordi.

(vedi sopra: ci sono sempre due modi per relazionarsi agli altri;
con rispetto, ricevi rispetto; con disprezzo, ricevi disprezzo.
quindi, giovanbattista, come vuoi essere trattato da oggi in poi?).

infatti si vede la considerazione che ha la gente di te, sia qua e sia su Tom's :asd:

e a quanto vedo ne hai aggiunto un'altro al papiro.

l'unica relazione che potrebbe istaurarsi tra me e lei è quella che avviene tra uno stivale e una formica.....chiamarla relazione mi pare troppo presuntuoso;) siamo più nel rapporto causa effetto:asd: o al max danni collaterali

ciao bello

:asd:

lucusta
22-08-2018, 00:15
l'unica relazione che potrebbe istaurarsi tra me e lei è quella che avviene tra uno stivale e una formica.....chiamarla relazione mi pare troppo presuntuoso;) siamo più nel rapporto causa effetto:asd: o al max danni collaterali

ciao bello

non esistono relazioni tra uno stivale, oggetto inanimato, ed una formica, che, pur essendo un insetto, ha qualche neurone che gli consente di fare e vivere.

la relazione esiste semmai tra l'eventuale persona che calza lo stivale e la formica, ma si vede da come hai strutturato questa fallace battuta che non sei di sicuro la persona, ma solo lo stivale....

quindi mi pare logico che io con uno stivale non ho granchè di cui parlare...

(se vuoi fare battute argute, almeno azzeccale).

giovanbattista
22-08-2018, 00:19
non esistono relazioni tra uno stivale, oggetto inanimato, ed una formica, che, pur essendo un insetto, ha qualche neurone che gli consente di fare e vivere.

la relazione esiste semmai tra l'eventuale persona che calza lo stivale e la formica, ma si vede da come hai strutturato questa fallace battuta che non sei di sicuro la persona, ma solo lo stivale....

quindi mi pare logico che io con uno stivale non ho granchè di cui parlare...

(se vuoi fare battute argute, almeno azzeccale).

bravo hai seguito le briciole..... ma seguile fino alla fine.....(estratto del mio post in caso tu soffra di prolemi di memoria a breve)chiamarla relazione mi pare troppo presuntuoso siamo più nel rapporto causa effetto o al max danni collaterali


riciao bellissimo

ps

essendo membro della "Sacra loggia degli adoratori del verbo" secondo dispensa Papale tutto mi è concesso....ivi comprese battute argute o meno che esse siano

lucusta
22-08-2018, 00:35
non è che deve per forza esserci il fesso è... ognuno puo vivere felice delle proprie scelte senza rompere i cogli0ni al prossimo giudicando a membro di segugio :asd:

e due....
non è che chi compra felice felice poi deve andare in giro a rompere i cogli0ni al prossimo per le sue scelte cercando di convincere gli altri che siano giuste...
come vedi son sempre due facce della stessa moneta.




per te saranno 2 effettini per altri no; e questi "effettini" sono al cosa migliore delle novita arrivate dalle ultime 3 generazioni, l'unica vera novita grafica delle DX11 e le tanto decantate DX12.

mi citi un gioco esclusivamente DX12 tier 3.
perchè io sui giochi son ignorante, ma ti assicuro che un gioco che usa esclusivamente AC, e nel modo giusto, io non ne ho ancora mai nemmeno letto, altro che visto.
il discorso del perchè non esistano giochi DX12 "veri" lo puoi estrapolare da qualche post più sopra, basta che leggi... dovrebbe essere anche semplice capirlo...
che poi è il medesimo per cui saranno supportati gli RT core e c'è tutto questo movimento attorno a questa tecnologia, parlando schiettamente...
tra l'altro non saranno effettini, ma nella realta non sono proprio nulla, visto che è tutto nemmeno in beta.
ti rendi conto che stiamo ancora parlando del sesso degli angeli?
non c'è nulla di realmente concreto, ne schede ne giochi...
quando usciranno cercheremo di valutare i risultati che si possono ottenere... ad oggi mi sembra premauro.
io son 25 anni che aspetto il ray tracing sui giochi... ho aspettato tanto che ci ho perso la speranza e mi sono abbottato pure nel giocare...
quindi non son certo uno che rema contro.
la questione è che voglio tutto in ray tracing.
a me piace la pasta con il sugo alla bolognese;
non la pasta e basta, non il sugo e basta, e forse la bolognese, se vale, mi accontento...
A+B+C...
tanti fattori che fanno un'unità.
di qualche effetto sparso e solo su qualche titolo... ci rimango un pò indifferente.

fra l'altro la tipologia del riflesso la decidono i programamtori mica è colpa del raytracing, e tecnicamente i riflessi in ray-tracing sono fisicamente corretti
la tipologia dei riflessi la decide la potenza massima espressa.




infatti si vede la considerazione che ha la gente di te, sia qua e sia su Tom's :asd:

e a quanto vedo ne hai aggiunto un'altro al papiro.
:asd:

come ho detto tante volte è un dispiacere veder disintegrata una comunità che hai visto nascere e che hai contribuito a renderla tale...
ma le cose nascono e muoiono...
uno non ci può far più di tanto se lasciano correre l'ignoranza e la maleducazione a lazzo sciolto, senza intervenire.
si vede che è economicamente retributiva.
anni fa la battuta di giovanbattista gli sarebbe costata un ban permanente, oggi si fa gli indifferenti.
quindi una piccola battuta con la stesso modo di comportarsi potrebbe fargli comprendere i limiti della decenza.
d'altra parte è anche semplice mettere a tacere certe persone... sempre se hanno il minimo di capacità per capire che hanno sbagliato comportamento...
ma è sempre più difficile trovare persone con quel minimo...

lucusta
22-08-2018, 00:42
bravo hai seguito le briciole..... ma seguile fino alla fine.....(estratto del mio post in caso tu soffra di prolemi di memoria a breve)chiamarla relazione mi pare troppo presuntuoso siamo più nel rapporto causa effetto o al max danni collaterali


riciao bellissimo

ps

essendo membro della "Sacra loggia degli adoratori del verbo" secondo dispensa Papale tutto mi è concesso....ivi comprese battute argute o meno che esse siano

guarda che dai l'impressione di essere membro della SaGra della loggia del mi capisco da solo...
e se insisti credo anche presidente e propriamente membro di spicco... ma non uno qualsiasi, proprio "membro", ragazzo bello...

PS:non ne prendi una giusta...
attento che tutte stè tranvate non fanno bene a chi batte la testa da piccolo.

PS per AceGranger:
vedi... manco ti fanno finire di rispondere che già ci riprovano...
dimmi se questa non è 'gnoranza...

Grezzo
22-08-2018, 00:51
ahahh, a quei prezzi è una follia totale, e ci sono anche dei fresconi che le comprano in prevendita senza sapere nemmeno come vanno, ognuno purtroppo nasce con il cervello che il caso gli da, io preferisco sputtanarmeli in coca e mignotte piuttosto che strapagare una vga.

lucusta
22-08-2018, 01:06
Mavvà, quando il sole entra dalla finestra metti il pc sul tavolo e spara le ventole a manetta, dovresti avere lo stesso effetto! :D



Ed io che ero venuto qui per convincermi a tenere la mia GTX 1080 Hybrid, perché tanto gioco solo ad AC e non sarà mai support.... :cry:

Invece qualcuno mi saprebbe consigliare una scheda che se la cavi a fare editing video "tranquillo" in FHD / 4K?
Non è per me, la persona in questione usa Premiere Pro, quasi quasi una 1050 Ti se con l'uscita di queste il prezzo va giù...

ad oggi Intel e le GPU AMD usano ASIC, come le maxwell, mentre le pascal usano gli shader unificati e codice cuda core...
qui sulla serie 2000, si ritorna agli ASIC.
io aspetterei di vedere come vanno queste, tanto anche se sulle piccole non intergreranno RT core e tensor core, l'ASIC lo dovranno comunque mettere...
in più c'è sempre codice cuda..
le dichiarano 8k... forse anche per la codifica video... ad oggi si hanno pochi aspetti su questa funzionalità.
altra cosa:
stà cambiando parecchio nella codifica dei video.
sembra che H.265 sia stato scartato dai big del settore perchè hanno richieste troppo esose, e si butteranno su un altro codec, l'AV1, che ad oggi non è ancora implementato a livello HW.
i big sono google, amazon, netflix, MS, ma ci sono anche AMD e nvidia in questo consorzio per un codec open.
che ne sai, magari nvidia ha fatto lo scherzetto ed ha già fatto un ASIC che computa la codifica dell'AV1 in HW (che è assai pesante).

aspetta di capirene di più su queste, poi magari valuta un qualcosa come 2030 o 2050, consiglio spassionato.

korra88
22-08-2018, 01:07
Adesso sta a vedere che sputtanarsi il cervello con la coca e prendersi l'AIDS con le mignotte, è meglio di comprare l'ultima scheda video stato dell'arte, fatta da fior fior di ingegneri coi controcaxxi...:mc: :sofico:

lucusta
22-08-2018, 01:26
le FE sono a tutti gli effetti le reference e in genere sono lo prime che possono essere acquistate...le custom, quelle con OC di fabbrica e componentistica migliore, costeranno di più della reference..così è successo con la 1080.
Ricordo una cosa banale quanto ovvia: Nvidia non può decidere il prezzo di partenza di una scheda video progettata da altri... quel prezzo è li è solo per motivi di marketing.
Il fatto che sta cosa non sia chiara dopo 2 anni, fa capire anche a quali livelli di informazione siamo arrivati.


in linea?
modello------custom
1080---------599
2080---------799

1070--------379
2070--------599

1080ti-------699
2080ti-------1199

non questa volta.
le RTX 2000 FE sono schede che hanno frequenze più elevate di quelle "base", quindi già da questo vedi che non sono un disegno di riferimento.
hanno dissipatori che fanno invidia a quelli di alcune custom della passata generazione, delle custom arrabbiate.
il PCB e la componentistica sembrano, FINALMENTE, degni di un disegno razionale.
sono biventola.

no...
con queste FE nvidia sfida le custom degli AIB, e non quelle economiche.

già hanno fatto vedere le "turbo" della Asus, con una sola ventola blower che probabilmente userà 4 fasi e condensatori elettrolitici cinesi, con meno uscite video...

è chiaro che i 50 euro di differenza che prima, ingiustificatamente, chiedevano in per una FE rispetto, ad esempio, ad una turbo della asus, oggi sarebbero più che giustificati, quindi i 100 euro in meno ci saranno tutti, ma rispetto alle turbo, non alle custom, se per disegno custom uno interpreta un disegno personalizzato e migliorativo...
chiaro che le prestazioni delle simil "turbo" saranno inferiori a quelle delle FE.
già solo la differenza di frequenze della funzione turbo mode fa intendere un 10% in meno e la ben poca propensione di quelle schede nel salire rispetto alle FE...

quello che c'è da chiedersi è quante schede vorrà vendere nvidia con il suo marchio, direttamente.
perchè se le centellinano, ad una, massimo due ad ordine, non è che possono soddisfare la domanda, anche la minima.
ad nvidia non conviene vendere schede, per il semplice fatto che deve dare garanzia al pubblico...
agli AIB, come fornitura, non deve dare nessuna garanzia... si vedrà poi, se magari l'AIB riscontra parecchia difettosità in rientro, se dare il contentino all'AIB o meno...

quindi, per come la vedo io, questi saranno i prezzi delle custom medio corrazzate quando i listini si saranno stabilizzati, e sicuramente, un paio di mesi dopo lo svuotamento del magazzino dalle pascal, una ritoccatina al ribasso la daranno pure, almeno sulla fornitura.
poi, se cerchi il triventola da 2.7 slot, devi spendere logicamente di più...
che senso avrebbe, sennò, fare schede nvidia per questi AIB?

lucusta
22-08-2018, 01:32
Adesso sta a vedere che sputtanarsi il cervello con la coca e prendersi l'AIDS con le mignotte, è meglio di comprare l'ultima scheda video stato dell'arte, fatta da fior fior di ingegneri coi controcaxxi...:mc: :sofico:

non sò come la vedi tu la vita, ma a me non c'è una sola cosa che hai scritto che attira e vale la pena di provare...

sarà che al massimo, devo fornire HW alla prole, ma se mi chiedono 1200 euro per una scheda video 5 minuti per un discorsetto per fargli capire che il gioco non è la vita e lo devi prendere come tale glie li faccio....

korra88
22-08-2018, 01:45
non sò come la vedi tu la vita, ma a me non c'è una sola cosa che hai scritto che attira e vale la pena di provare...

sarà che al massimo, devo fornire HW alla prole, ma se mi chiedono 1200 euro per una scheda video 5 minuti per un discorsetto per fargli capire che il gioco non è la vita e lo devi prendere come tale glie li faccio....

Era per rispondere a grezzo poco sopra. Ha scritto che piuttosto che spendere 1200 euro in una scheda video, li spende a mignotte e coca.

lucusta
22-08-2018, 01:51
Si chiama minor efficienza, è una caratteristica dell'architettura.

uff, dai, se ne è discusso allo sfinimento.
i TF sono teorici e vanno moltiplicati per l'efficienza della specifica architettura su un tipo di postulato di codice implementato.

logico che se cerchi ti traslare un certo postulato su un'architettura che ne dovrebbe usare un'altro, il rendimento finale sarà scarso.

ora però chiediti se DxRT necessita o meno di DX12 AC.

perchè se fosse minimamente così queste RTX 2000 sono DX12 in toto ed i giochi che gli cuciranno addosso saranno pur anche con effetti RT, ma di base DX12 AC.

ecco...
mentre, diciamo, che gli 8.9TF della 1080 vengono sfruttati per reali 6TF, su alcuni giochi una Vega 64 da 12.5 TF rende la metà ed arriva a 6TF o anche meno.
ma sono giochi cuciti addosso a pascal, DX11 (se non anche DX10...).

ora rifatti un'altra domanda:
qual'è il rendimento di computazione se si usano le DX12 AC su pascal e su AMD?

adesso non vorrei deluderti, ma... lo vedremo con le prossime uscite....

poi senza citare l'FP16, la necessità di una caches estesa.... insomma, tutto quello che pascal e generazioni precedenti non possiedono.

alla questione su tuo discorso si risponde con una affermazione soltanto:
per il taglio netto che si avrà con queste RTX non le dovevano chiamare neanche 2000, segno di continuità rispetto a 1000, ma in qualunque altro modo che volevano, perchè con quelle di prima non c'entrano proprio nulla...
non c'è continuità.

e visto che è nvidia che sgancia soldi per farsi cucire addosso i giochi, per sapere che fine faranno le generazioni precedenti o quelle AMD ci tocca aspettare i risultati di quache titolo di prossima uscita cucito proprio addosso su queste e vedere come rispondono le pascal e le AMD.

ad oggi, come hai scritto te stesso, non si capiscono le reali prestazioni, quanto incidono gli effetti e manco il vero prezzo, essendo un paper launch senza manco uno straccio di dato su un benchmark, vecchio o nuovo che sia...

un grosso punto interrogativo che verrà svelato a mano a mano...

lucusta
22-08-2018, 01:57
Era per rispondere a grezzo poco sopra. Ha scritto che piuttosto che spendere 1200 euro in una scheda video, li spende a mignotte e coca.

ho letto (anche se ancora stò indietro con i messaggi... su questo forum tocca leggere dal primo all'ultimo e viceversa insieme per leggere e rispondere agli altri)...

ma, alla fine, non è ne figlio mio ne tuo, se ne hai, quindi se vuole buttare soldi in altri modi o prendersi una GPU da 600 o 1200 euro, a noi che frega?

è quando cercano di convincerti in tutti i modi che è giusto spendere 1200 euro per una GPU (e soprattutto alzando i toni ed i modi) che uno, magari, mette il freno alla dilagante idiozia e gli dice la verità oggettiva...
finché si fanno male da soli e non fanno male agli altri... non è importante.

lucusta
22-08-2018, 02:44
perchè a raddoppiare sono tutte le altre caratteristiche del chip....
mentre se succede come una RX550 (512sp@16ROPs) e RX560 (1024sp@16ROPs) nonostante il raddoppio della potenza, gli fps aumentano solo del 50%.
Anche GV100 pare avere prestazioni "basse" se raffrontate alla forza bruta...

la cosa positiva che in TU102, c'è un deciso aumento della banda passante grazie all'uso delle gddr6, ma non sappiamo se il fill-rate teorico sia aumentato.

la 550 ha sia 512SP (che oggi è nominata 540 ma venduta dagli OEM) che 640 SP e la 560 è stata venduta in 2 versioni, da 896 e da 1024, oltre che in versione D con ram di pessima qualità.
le ROPs possono essere affiancate in numero in eccesso, e quindi sottoutilizzate, o in numero non congruo, e quindi sottoutilizzando gli SP, per diversi motivi, ma dipendono soprattutto dalla modulazione dei moduli base (ormai i chip sono come i mattoncini lego... si fanno a pezzi e poi si compongono) e da opportunità di spazio.
adesso è difficile trovare un die shot di polaris 11 (la RX 560) e polaris 12 (550), ma per estensione del chip e integrazione si può stabilire che mentre polaris 11 è un chip che usa un progetto con disegno speculare tra le due metà (ossi i cluster degli SP li trovi a destra e a sinistra), polaris 12 non lo è, come non lo è sulle Vega integrate sui ryzen 2000G.
questo può comportare che una ROPs su polaris 11 serva due cluster (uno a destra e uno a sinistra) mentre su polaris 12 ne serva solo uno...
logico che una ROPs su polaris 12 dovrebbe essere servita da SP che clockano il doppio del clock per riuscire a saturarla...
quindi fare il calcolo con ROPs, pixel shader e via dicendo è sempre un calcolo puramente teorico e non sempre indicativo.
il lavoro di un Lexa (polaris 12), non saturerà mai quello delle sue ROPs, ma nemmeno nelle migliori condizioni.

per esattezza hai un Lexa con 512SP che produce 1.248TF, uno con 640SP che arriva a 1.514TF ed un Baffin (la 560 da 1024SP) che arriva a 2.611TF, quindi 1.72 volte la 550 vecchia.
generalmente anche su AMD questo rapporto di TF viene conservato, ma devi anche vedere che un baffin da 1024SP ha 112GB/s di banda ram, mentre il Lexa da 512 ne ha 96GB/s e "respira molto meglio per quanto riguarda la ram; se poi guard il Lexa 640, la 550 di oggi, ha anche lui 112GB/s sulla banda RAM, quindi la differenza prestazionale, in alcuni giochi, è a causa della sotto strutturazione della banda di memoria RAM della 560 (o della sovrabbondanza della 550, cosa che serve parecchio alle ROPs, soprattutto se non hanno limiti di saturazione).

insomma, ci sono diversi inghippi... non è solo TF teorici, ma è l'implementazione di un'architettura generale in un disegno del chip particolare, il codice che sfrutta il tutto che giocano un ruolo decisivo sulle prestazioni...
fosse solo un riquadramento dei parametri sarebbe anche facile..

lucusta
22-08-2018, 03:10
Livello impensabile dici bene, tanto che la loro top riesce ad equivalere il modello di scheda più basso del mercato ( anzi con questa nuova serie Nvidia non più) ... davvero un gran traguardo !


guarda che il traguardo è proprio questo.
con una CPU con iGPU del costo di 145 ero (e bada che si trovava anche a 135 euro, all'inizio), eguali una scheda che, da sola, costa anche 100 euro.
ora, se tu non capisci che è un traguardo avere una iGPU da 2.2TF integrata sono io che non ti capisco.
oltretutto AMD sembra aver capito che il business è proprio questo:
APU potenti.
voci in giro parlano di una CPU ryzen con iGPU da 28CU, ha appena fornito una APU ad una console cinese con 24CU e ryzen...
te la mettono reital su socket AM4 sfondano anche la fascia successiva alla 1030.
certo, non è la migliore espressione della tecnologia video a causa della restrizione di banda della ram (e quei 2.2TF si sentono strettini con la metà della banda che gli occorrerebbe in realtà), ma dire che non è un sistema di riferimento per l'entry livel sui gaming PC e forzare le cose... non esistono solo le top, anzi, nella realtà i modelli TOP sono i meno venduti del giro e producono meno introiti di tutte.

poi ogi ci sono 1080 e 1030.
le 2080 non le riesci manco a comprare in pre order....
per la 2030, sia per la questione che sicuramente non integreranno gli RT core e i tensor core (che ci fai con 4 unità se già la top ne ha in numero insufficiente per fare un intero gioco RT e si deve accontentare degli effetti?), sia perchè non si sa proprio se la fanno uscire (può essere che nvidia decida di arrivare solo fino alla 2060... una mattata, ma ad oggi tutto può essere), oggi un 2400G è un bell'affare, anche perchè costa tanto quanto una normale CPU Intel adeguata a far girare le stesse schede, quindi la iGPU è pure un in più...

non ci siamo... state perdendo l'ordine corretto dei valori.

qui parloamo di una sola scheda, la xx80 Ti, che oggi trovi piazzata a 1200 euro...
ma guarda che i 40 milioni di giocatori su PC, occasionali o meno, spaziano dalle iGPU Intel di 3 anni fa a l'ultimo ritrovato tecnologico...
il mondo è vario, fattene una ragione.

arxangel
22-08-2018, 07:41
Secondo me è sicuramente una tecnologia affascinante ma farà la fine di physic e hairworkd, qualche effettino insignificante ma che peserà molto sul framerate, alla fin fine i giochi per pc sono porting di giochi da console a frame rate e risoluzioni maggiori e storicamente se le console non supportano una tecnologia in modo nativo questa sarà largamente ignorata dagli sviluppatori.

Goofy Goober
22-08-2018, 08:09
guarda, io sono un ex ciclista, nella mia vita ho comprato roba per almeno 15-20K euro.
quando compri delle bici pagandole come un' utilitaria, sei folle?
si, forse si, ma se il tuo hobby e' quello, amen.


interessante la tua osservazione, però va anche vista in un ottica di razionale/irrazionale....
ho vari amici ciclisti che sono i primi a dire che non ha senso spendere quelle cifre per le bici, soprattutto se non le usi per gareggiare ma solo per i giri occasionali. ma lo fanno comunque.
sono quindi molto autocritici, non certo fanboy della bici e dei suoi costi.
uno di loro partecipa pure a gare di triathlon, quindi la sfrutta parecchio, e si ha una bici costosa, ma se guardi il parco disponibile, è lontana dal top.
per stessa ammissione, mai avrebbe considerato una due ruote di quel livello se non avesse voluto entrare in quel genere di competizione, e mai la consiglierebbe a qualcuno con stessi traguardi in mente. parole sue...

con ste gpu ormai il top è diventato economicamente un'eresia, mancherebbe anche il presupposto di "sfruttamento" vero del prodotto (benchmark? competizioni?) e spesso non si vede tutta questa "autocritica" negli appassionati...
anzi, tutto il contrario :stordita:

io, per mia fortuna, me ne sono tirato fuori da tempo, ho già dato con le Titan, sono già stato autocritico all'estremo all'epoca.
questi annunci non mi stupiscono per niente, e non mi fanno ne caldo ne freddo, i prezzi andranno sempre più all'assurdo, e non potrà stupirmi nemmeno quando le medio-basse come una xx50 futura, saranno vendute sui 500€

mi prospetto anche una formula a noleggio in futuro, e/o magari un cashback annuale, un po' come si sta verificando sul mercato smartphone, visto l'altrettanto totalmente assurdo andamento dei prezzi, con uno degli ultimi top di gamma lanciati che nasce a 1.279€ di listino :fagiano:

cignox1
22-08-2018, 08:23
Il raytracing scala male verso il basso, quindi, se anche la prossima fascia alta riuscirá nel miracolo di portare finalmente il RT nei giochi, non mi aspetto di vederla nella fascia medio-bassa, anche qualora fosse supportata...

CiccoMan
22-08-2018, 08:34
interessante la tua osservazione, però va anche vista in un ottica di razionale/irrazionale....
ho vari amici ciclisti che sono i primi a dire che non ha senso spendere quelle cifre per le bici, soprattutto se non le usi per gareggiare ma solo per i giri occasionali. ma lo fanno comunque.
sono quindi molto autocritici, non certo fanboy della bici e dei suoi costi.
uno di loro partecipa pure a gare di triathlon, quindi la sfrutta parecchio, e si ha una bici costosa, ma se guardi il parco disponibile, è lontana dal top.
per stessa ammissione, mai avrebbe considerato una due ruote di quel livello se non avesse voluto entrare in quel genere di competizione, e mai la consiglierebbe a qualcuno con stessi traguardi in mente. parole sue...

con ste gpu ormai il top è diventato economicamente un'eresia, mancherebbe anche il presupposto di "sfruttamento" vero del prodotto (benchmark? competizioni?) e spesso non si vede tutta questa "autocritica" negli appassionati...
anzi, tutto il contrario :stordita:

io, per mia fortuna, me ne sono tirato fuori da tempo, ho già dato con le Titan, sono già stato autocritico all'estremo all'epoca.
questi annunci non mi stupiscono per niente, e non mi fanno ne caldo ne freddo, i prezzi andranno sempre più all'assurdo, e non potrà stupirmi nemmeno quando le medio-basse come una xx50 futura, saranno vendute sui 500€

mi prospetto anche una formula a noleggio in futuro, e/o magari un cashback annuale, un po' come si sta verificando sul mercato smartphone, visto l'altrettanto totalmente assurdo andamento dei prezzi, con uno degli ultimi top di gamma lanciati che nasce a 1.279€ di listino :fagiano:

C'è anche chi acquista semplicemente perchè apprezza l'oggetto. Io non mi sognerei mai di vendere alcune delle mie vga. Quando non le utilizzo più le espongo in bacheca insieme alle altre... mi piacciono esteticamente, come ad un appassionato di orologi può piacere un Cartier, che magari non ha nemmeno mai indossato, acquistato solo per il gusto di averlo.

E' sotto gli occhi di tutti che a questo giro la strategia commerciale di nvidia prevede un riposizionamento commerciale dei prodotti. La Ti ha preso il posto della vecchia Titan, la 2080 liscia occupa la fascia di prezzo delle recenti Ti, mentre con la 2070 sembra esseri creata una nuova fascia di mercato (1070Ti).

Anche il fatto che la 2080Ti sia stata lanciata in contemporanea alle altre vga di fascia alta è molto indicativo e lascia aperto il grosso interrogati sul "se più in la verranno rilasciate altre vga in questo segmento" (Titan T? 2070Ti?)... insomma, la strategia commerciale è completamente nuova e di sicuro la line-up completa prevederà prodotti per tutte le tasche e gusti... così ognuno sarà libero di acquistare la scheda che ritiene opportuno senza vivere nel terrore di essere giudicato in base a quanto ha speso per la propria vga :)

PS: la battuta finale non è rivolta a te ;)

majinbu7
22-08-2018, 08:51
hai giochi 2017, 2018?
bene, conservali stretti, perchè probabilmente saranno gli ultimi per cui la tua scheda riuscirà ad essere proficua.

il sunto del discorso non è che se usano effetti grafici RT tu, con pascal, potrai semplicemente disabilitarli e computare bene come fai oggi, come farebbe uno con una AMD.
non riuscirai a sfruttarla a dovere perchè oltre che con effetti RT questi giochi saranno anche DX12, e quel tipo di DX12 che una pascal è costretta ad emulare via software, con decurtazioni di potenze del 20% minimo perchè nessun gioco uscito fino ad oggi sfrutta le peculiarità delle DX12 tier 3, proprio perchè le schede nvidia, 70% del venduto, non possono sfruttarle in HW, mentre anche quando hanno cercato di usare AC lo hanno dovuto fare in modo compatibile (ossia creando software in AC e "normale" per le nvidia, come in AOTS, che in beta si presentava solo con AC e le pascal nemmeno lo avviavano, in pratica... poi nvidia ha chiesto e ottenuto che AC si potesse disabilitare, ossia che ATOS venisse fatto anche in DX12 tier 1, ne più ne meno che delle DX11.3).
e c'è di più, tra l'altro.
quello che hanno mostrato le poche beta con AC usavano frammentazione assai bassa. AMD può gestire frammentazioni in 64esimi con polaris e 256esimi con Vega...
se Santa Nvidia ha minimamente accettato l'uso di questo paradigma di programmazione in HW su turing... pascal se lo scordano il giorno dopo che hanno finito di presentare l'intera lineup turing, anche nei driver...

è sempre stato questo il problema: nvidia forzava a non usare le DX12 per come erano state concepite, ossia la massimizzazione dei tempi d'uso del processore, non la massimizzazione delle sue prestazioni massime di punta, ma per ben pochi intervalli limitati di tempo... AC, calcolo asincrono.
il perchè è che, per come è l'architettura pascal e precedenti, nvidia ha necessità di accorpare il lavoro in una unica logica di funzionamento che poi separa e gestisce lei i calcoli sull'HW, ma di partenza il lavoro dev'essere in un'unca entità, non i frammenti di questa.
se si trova un gioco in AC deve prima ricostruire tutto per l'intero, poi gestire e dividere per l'HW e poi nuovamente ridividere le richieste fatte per il primo punto...
è per questo che perdono un sacco in unso di DX12 AC.

nessuna difficolta nell'usare le DX12, nessuna difficoltà nell'usare AC, nessuna difficoltà di parallelizzazione (in un applicativo, la grafica 3D rasterizzata, che esalta la parallelizzazione), ma unicamente l'impossibilità dell'HW maggiormente venduto e una bella dose di peli lunghi sullo stomaco da parte di chi vende di più e quindi si sente libero di condizionare il mercato (ossia che paga perchè le cose vadano a proprio vantaggio).

anche oggi è così, con RT...
credi che gli investimenti per lo sviluppo di queste soluzioni dei giochi sia stato fatto da parte delle SH?
fino a ieri non era manco stato presentato l'HW per far funzionare decentemente questi effetti.
i giochi vendono per massima parte per i primi 3 mesi nel mondo PC game.
è in quel periodo che massimizzano i profitti, poi, per il resto della vita, quel gioco al massimo può sperare di egualiare il guadagno che farai in questi primi 3 mesi, (tolte le dovute eccezioni per i sempreverdi, che non è aggettivo pro nvidia, ma solo il modo per dire che un gioco desta interesse per anni e anni, come GTA).
nei prossimi 12 mesi, a questi prezzi, è tanto se il numero di schede nvidia che potrebbero usare questa tecnologia in modo proficuo raggiunga il 2% del parco macchine dei gamer.
schede da 600 e oltre euro sono si e no il 5% dell'intero mercato GPU (comprese quelle professionali, tra l'altro, ma lì hai ben altri rendimenti per quei pochi chip che vendi); al meglio nvidia può sperare nello spostamento del doppio degli utenti, un 10%, un 15% per esagerare...
si vendono 10-12 milioni di schede all'anno (non contando il 2017 che è una eccezione per via dei miner), quindi la speranza è di 1.8 milioni di schede turing con RT core e tensor core.
bene... e chi ha già la scheda e non è certo interessato a cambiarla per i successivi 3 anni non ce lo metti?
sono i restani 20-30 milioni di giocatori PC, a guardare in modo approssimativo steam... non le sue statistiche, ma l'adozione del suo programma di "affiliazione" senza il quale non giochi ai giochi che sono sulla sua piattaforma: 40 milioni d'installato in uso (non totali, ma solo le istanze in uso).
siamo a 38 milioni di clienti contro manco 2...
e abbiamo valutato solo steam, tra l'altro, anche se steam conta tanti giocatori con iGPU...
possiamo però dire che, si, i giocatori PC che si comprano o hanno comprato una scheda video negli ultimi 3 anni sono circa 40 milioni.
ora, dimmi tu se una SH investe milioni di euro in sviluppo per una tecnologia che usera, al massimo, il 5% del mercato l'anno prossimo, mentre per i primi 3 mesi di distribuzione del gioco, se lo fanno uscire oggi, il giorno della presentazione di queste schede, è tanto che se allo scadere dei 3 mesi ci saranno mezzo milione di giocatori che avranno la reale possibilità di utilizzarli...
tutto questo articolato discorso per dirti che nvidia ha nuovamente pagato e costretto le SH a questa implementazione "fantasma".
non ci sarebbe logica oggi di affrontare spese per l'implementazione di una tecnica che è si promettente, ma non essenziale e comunque, ad oggi, solo marginale se non quella di essersi fatti pagare per farlo.
d'altronde è nvidia interessata dal fatto che questo HW venga supportato, perchè è SOLO LEI che ci guadagna, sempre se il guadagno delle SH non avviene in altri modi, ossia essere pagato per supportarli.

è per questi motivi che verrà supportata.
è per questi motivi che le DX12 non sono state ancora, dopo 4 anni dalla presentazione ufficiale avvenuta, tra l'altro, con cospicuo ritardo, usate nei giochi.

ma se nvidia ha finalmente l'HW compatibile in toto per DX12 (e se vai di DXRT credo che convenga usare il computo asicrono), le due cose vanno a braccetto ed anche le DX12 verranno adottate con la stessa enfasi...

tu che con pascal non processi in HW ne DX12 ne RT ne IA che fai?
o meglio, che ti rimane in mano tra un annetto?
almeno con una AMD di oggi non vedrai mozzare le prestazioni dall'uso delle DX12, e per gli effetti grafici.. amen... per averli dovresti sborsare minimo 600 euro.... diglielo ad uno che ha preso una 480 a 230 euro se è disposto a spendere minimo 600 euro per un pò di riflessi...

e, la cosa sgradevole, è che queste schede hanno questi prezzi proprio per favorire la vendita di quegli oltre 2 milioni di chip pascal invenduti ai miner...
quindi nvidia ha "benedetto" 2 categorie di giocatori:
quelli che volevano la nuova e scintillante generazione, perchè costa una volta e mezzo rispetto a prima;
quelli che ingenuamente si butteranno sui rimasugli delle pascal, perchè vedranno adottare dai nuovi giochi, e sempre più massicciamente, le DX12 che le pascal non digeriscono.

realmente una società con il miglior rispetto per i suaoi clienti!

se avessero fatto RT core e tensor core su un chip a parte, con schede addon, avrebbero dato il tempo ed il modo alla gente di adottare questa tecnologia con il giusto tempo di assimilazione, come successe con il 3D accellerato in HW 25 anni fa.
hanno un link, su quelle schede, che dovrebbe far magia; a sfruttarlo per un collegamento diretto con una scheda addon RT/tensor core non avrebbe dato nessun problema...

ma parliamo d'nvidia, una società che già per la scelta del suo nome si può ben etichettare: "quando l'invidia infuria in tutta la sua violenza contro di essa risulta impotente il singolo e persino un'intera istituzione" (cit. Marcus Tullius Cicero, filosofo romano 106 a.C.).

invece che derivare il nome dall'invidia
Invidia: tristezza per il bene altrui percepito come male proprio;
dovevano derivare il nome da un'altro dei vizzi capitali: la superbia
Superbia: radicata convinzione della propria superiorità, reale o presunta, che si traduce in atteggiamento di altezzoso distacco o anche di ostentato disprezzo verso gli altri, e di disprezzo di norme, leggi, rispetto altrui...

come vedi a quest'azienda (e a molti dei suoi affezionati clienti) calza molto meglio il 1° dei vizzi capitali rispetto al 4°...

pace e bene...:rolleyes:

Bene allora secondo quanto da te scritto con i giochi di prossima uscita, il 90% dei giocatori PC non potranno eseguirli se non con scarsissime prestazioni, perchè Nvidia ha prodotto vga con RT in HW , con la piccola conseguenza che il mercato pc game fallirebbe tempo zero....sei proprio sicuro di quello che stai dicendo? Io invece credo proprio che chi non ha le nuove nvidia potrà tranquillamente giocare agli stessi titoli con ottime prestazioni semplicemente disabilitando l'opzione dell'RT ;)

giovanbattista
22-08-2018, 08:51
..............



torna al tuo posto e restaci ;)

nickname88
22-08-2018, 08:55
uff, dai, se ne è discusso allo sfinimento.

Perchè rispondi a me ? Non ho toccato io questo aspetto.

nickname88
22-08-2018, 09:09
guarda che il traguardo è proprio questo.
con una CPU con iGPU del costo di 145 ero (e bada che si trovava anche a 135 euro, all'inizio), eguali una scheda che, da sola, costa anche 100 euro.
Un traguardo ridicolo visto che funzionalmente con risoluzioni dal full HD in sù puoi fare ben poco, e la GT1030 sta sui 75€ che ha anche la propria VRAM dedicata e non deve rubarla a quella di sistema.


oltretutto AMD sembra aver capito che il business è proprio questo:
APU potenti.Potentissima guarda .... raschia benissimo i fondi dei barili in effetti. Direi forse sia più giusto dire che fa meno skifo di altre.

voci in giro parlano di una CPU ryzen con iGPU da 28CU, ha appena fornito una APU ad una console cinese con 24CU e ryzen...
te la mettono reital su socket AM4 sfondano anche la fascia successiva alla 1030.Ah quindi senti le voci ? Bene.
Peccato che su AM4 non ci arriverà solo con le voci fantasiose.
Quando avrai delle prove alla mano richiamami.

Il fatto di poter realizzare APU potenti non è impossibile a nessuno, basta salire di TDP e tutto si può fare.
Ma non lo fanno, quindi polemica inutile, il 2400G è il massimo che mette a disposizione AMD e quello ti tieni.

E la cosa che fa più ridere è che la soluzione integrata più potente su desktop è sempre di AMD ma viene venduta con il prodotto del rivale. :asd:

3000
22-08-2018, 09:28
Aspettiamo i test e le comparazioni della redazione e poi vediamo.
Certo è che i consumatori hanno il Potere di far sentire la loro voce nel modo e nel momento in cui spendono (o meno) i loro soldi.
Pensavo di cambiare la GTX 285 con la RTX 2080 Ti, ma solo se questa fosse stata presentata al prezzo della RTX 2080. Se non prenderò la RTX 2070 al Black Friday credo che aspetterò inizio anno per una RTX 2060 e andrò avanti fino a che rifarò un PC nuovo per l'8K.

nickname88
22-08-2018, 09:28
Quello che ti fa ridere è che AMD non venda una APU con una iGPU altrettanto potente o che Intel debba comprare le GPU da AMD? :)
A me ed a tutti i consumatori degli affari loro non me ne frega una mazza, contrariamente ad altri. :asd:
A me interessa quello che viene offerto a me dal mercato.

E la storiella di AMD che potrebbe fare ma non fa, lascia il tempo che trova :asd:
Fra l'esser in grado di ... e non fare e il non esserlo cambia 0, io quando guardo l'offera di mercato vedo il 2400G come top delle offerte acquistabili da AMD, e questa è la realtà.

Intel che si compra la GPU da AMD può importare solamente a qualcuno di voi, al consumatore da dove venga e come si raggiungono i risultati no di certo, io guardo solo ciò che posso portarmi a casa.

Gyammy85
22-08-2018, 09:45
A me ed a tutti i consumatori degli affari loro non me ne frega una mazza, contrariamente ad altri. :asd:
A me interessa quello che viene offerto a me dal mercato.

E la storiella di AMD che potrebbe fare ma non fa, lascia il tempo che trova :asd:
Fra l'esser in grado di ... e non fare e il non esserlo cambia 0, io quando guardo l'offera di mercato vedo il 2400G come top delle offerte acquistabili da AMD, e questa è la realtà.

Intel che si compra la GPU da AMD può importare solamente a qualcuno di voi, al consumatore da dove venga e come si raggiungono i risultati no di certo, io guardo solo ciò che posso portarmi a casa.

Si ma almeno a sto giro prendetela al dayone la 2080, se no fate come gnammy che spamma sul thread vega senza possederla.
Poi vabbè il resto che scrivi si commenta da solo, ma dov'è l'apu con gp104 e i3 8350k?
Lo dico prima, meglio che ci mettano sopra una bella mela e la vendano nei genius store

nickname88
22-08-2018, 09:48
Poi vabbè il resto che scrivi si commenta da solo, ma dov'è l'apu con gp104 e i3 8350k?
Lo dico prima, meglio che ci mettano sopra una bella mela e la vendano nei genius store
E dopo la perla dei TFlops/s ... ne arriva una seconda ;)

majinbu7
22-08-2018, 10:03
Però non è che questa sia molto allettante come cosa.
Le nuova GPU costano parecchio perchè integrando i nuovi tensor core e RT core sono più grosse e costano di più, se questi nuovi core deve tenerli spenti dov'è il senso?

What?
Hai capito vero che rispondevo a Locusta, dicendogli che anche se escono giochi con RT, si potrà disabilitare dalle opzioni in game, per permettere a chi ha vecchie GPU buone performance?
Non capisco il tuo discorso sullo spegnere i core RT sulle nuove GPU Nvidia :mbe:

Alodesign
22-08-2018, 10:05
What?
Hai capito vero che rispondevo a Locusta, dicendogli che anche se escono giochi con RT, si potrà disabilitare dalle opzioni in game, per permettere a chi ha vecchie GPU buone performance?
Non capisco il tuo discorso sullo spegnere i core RT sulle nuove GPU Nvidia :mbe:

Ma figurati! E' ovvio che tutte le software house si adegueranno alle RT e Dx12 e non metteranno la retrocompatibilità! OVVIO! Compriamo tutti le 2070-80 altrimenti qui non si gioca più!

Gyammy85
22-08-2018, 10:07
What?
Hai capito vero che rispondevo a Locusta, dicendogli che anche se escono giochi con RT, si potrà disabilitare dalle opzioni in game, per permettere a chi ha vecchie GPU buone performance?
Non capisco il tuo discorso sullo spegnere i core RT sulle nuove GPU Nvidia :mbe:

Intende che quando non si utilizza il rt, quelle unità restano sempre, e si ritorna al problema delle unità dedicate, cioè che parti della gpu restano inutilizzate occupando spazio. Ma non sarà mai un problema per nvidia, figuriamoci, quelli col microscopio elettronico sono i clienti amd...

Goofy Goober
22-08-2018, 10:09
C'è anche chi acquista semplicemente perchè apprezza l'oggetto. Io non mi sognerei mai di vendere alcune delle mie vga. Quando non le utilizzo più le espongo in bacheca insieme alle altre... mi piacciono esteticamente, come ad un appassionato di orologi può piacere un Cartier, che magari non ha nemmeno mai indossato, acquistato solo per il gusto di averlo.


è per quello che prima di parlavo dell'ottica razionale/irrazionale.

a me va benissimo che ci sia chi appende le vga al muro come quadri, ma razionalmente e per il valore (al di fuori di quello affettivo) che hanno nel mondo restano oggetti di plastica-semimetallo-metallo che a te piacciono, per altri sono "niente".

quindi più che il paragone col Cartier, che è economicamente razionale possederlo, e chiunque lo abbia ne ha riconosciuto un valore al di fuori di quello estetico soggettivo, ha anche un valore estetico ed economico oggettivamente riconosciuto.
vedrei quindi più azzeccato il paragone con qualcos'altro che a livello collezionistico ha un valore affettivo, piuttosto che economico, e l'affetto si sa è spesso irrazionale :)
nel mio piccolo anche io sono attaccato irrazionalmente ad oggetti dal nullo valore.

Anche il fatto che la 2080Ti sia stata lanciata in contemporanea alle altre vga di fascia alta è molto indicativo e lascia aperto il grosso interrogati sul "se più in la verranno rilasciate altre vga in questo segmento" (Titan T? 2070Ti?)... insomma, la strategia commerciale è completamente nuova e di sicuro la line-up completa prevederà prodotti per tutte le tasche e gusti...

d'accordo con tutto, tranne che con la frase in neretto.
la nuova lineup non avrà più opzioni per tutti i gusti, ma solo per tutte le tasche.

per tanti (troppi) anni sono stato dietro all'hardware, e l'appassionato aveva sempre modo di accontentare i suoi gusti, e transitava sempre nel mercato del top di gamma.

già negli anni non proprio recenti, la stratificazione verso l'alto di ciò che una volta era visto come "extreme", ha portato a considerare quello che prima era hardware mediocre, quello che ora è visto come estremo.
prima l'estremo sostituiva l'estremo, il mediocre il mediocre, con un rinnovamento continuativo.
oggi no, tutti si ricorderanno l'anno in cui l'asticella è stata alzata, il mediocre ha preso il posto del non-plus-ultra del giorno prima, e dal nulla si è dato spazio a qualcosa che prima non c'era.

e, sopra l'estremo, è comparso dell'altro, l'esoterico. :asd:

nel mio piccolo ho lasciato proprio perchè al paganesimo hardware non mi voglio convertire :D

al135
22-08-2018, 10:15
mi sembra di ricordare qualche cosa di te......si circa 20 anni or sono......eri salito agli onori della cronaca mi pare fossi caduto dal seggiolone? ricordo bene.....mi confermi?

ma ti sei offeso perche hai la firma col link al sito amd oppure devi fare per forza il clown di turno?

majinbu7
22-08-2018, 10:32
Intende che quando non si utilizza il rt, quelle unità restano sempre, e si ritorna al problema delle unità dedicate, cioè che parti della gpu restano inutilizzate occupando spazio. Ma non sarà mai un problema per nvidia, figuriamoci, quelli col microscopio elettronico sono i clienti amd...

Si ma cosa caspita c'entra con quello che avevo scritto io, e cioè che io con pascal e altre vecchie GPU potrò tranquillamente giocare ai nuovi titoli senza perdita di prestazione, semplicemente disabilitando l'opzione relativa agli effetti RT.

calabar
22-08-2018, 10:57
io quando guardo l'offera di mercato vedo il 2400G come top delle offerte acquistabili da AMD, e questa è la realtà.
Guarda che non è un caso che AMD non faccia nulla di più potente del 2400G: il limite qui è la bandwidth della memoria.
Già per sfruttare bene queste APU servono memorie veloci, aumentare la potenza della GPU integrata sarebbe semplicemente uno spreco senza una memoria dedicata. Non a caso sia la soluzione intel-amd che la consolle cinese utilizzano per la memoria soluzioni ben diverse da quelle utilizzate nelle integrate da PC.
L'unica alternativa sarebbero memorie capaci di fornire un'ampiezza di banda molto maggiore, ma alla fine servirebbero solo per queste soluzioni integrate, quindi difficilmente si risolverebbe il problema.

nickname88
22-08-2018, 11:04
Guarda che non è un caso che AMD non faccia nulla di più potente del 2400G: il limite qui è la bandwidth della memoria.
Già per sfruttare bene queste APU servono memorie veloci, aumentare la potenza della GPU integrata sarebbe semplicemente uno spreco senza una memoria dedicata. Non a caso sia la soluzione intel-amd che la consolle cinese utilizzano per la memoria soluzioni ben diverse da quelle utilizzate nelle integrate da PC.
L'unica alternativa sarebbero memorie capaci di fornire un'ampiezza di banda molto maggiore, ma alla fine servirebbero solo per queste soluzioni integrate, quindi difficilmente si risolverebbe il problema.Infatti la soluzione Intel 8809G che usa nei NUC ( non so di quale console parli ) gli ha tranquillamente affiancato l'HBM e fornisce le prestazioni che avrebbe dovuto avere l'ultima APU di AMD per potersi definire una soluzione da gioco dignitosa.

AMD che invece ne utilizza in maggior quantità ora mai da anni sulle GPU High-end non lo fa.
Semplicemente decidono di rimanere nelle fasce basse di mercato con l'intera gamma.

calabar
22-08-2018, 11:15
Intende che quando non si utilizza il rt, quelle unità restano sempre, e si ritorna al problema delle unità dedicate, cioè che parti della gpu restano inutilizzate occupando spazio. Ma non sarà mai un problema per nvidia, figuriamoci, quelli col microscopio elettronico sono i clienti amd...
Vabbè dai, ma che discorso è? Allora dovremmo disperarci quando non guardiamo video perchè non sfruttiamo il DSP integrato? O quando giochiamo con certe impostazioni perchè sottosfruttiamo parte dell'hardware?
Schede video e processori hanno tutti elementi altamente specializzati che contribuiscono alle prestazioni complessive.

Le unità dedicate sono una soluzione che in genere ha due grandi vantaggi rispetto alle unità generiche: ottengono le stesse prestazioni occupando una frazione dello spazio e con una frazione dei consumi. Lo svantaggio è ovviamente dato dalla poca flessibilità e dal fatto che se non le usi per come sono state progettate, non le usi proprio.
Si tratta quindi di trovare un equilibrio tra versatilità ed efficienza. Oggi queste unità dedicate consentono di ottenere un risultato altrimenti impensabile per delle unità generiche. Un domani magari, con potenze a disposizione molto più elevate, le cose cambieranno.

Francamente dubito che AMD possa in futuro tirare fuori qualcosa che non preveda unità dedicate, in questo momento non sarebbe competitiva.
E non credo che AMD sia stata presa alla sprovvista da questa mossa di Nvidia, dato che sono entrambe protagoniste dell'introduzione del Ray Tracing ibrido, per esempio nelle nuove DirectX Raytracing.
In ogni caso, che siano AMD o Nvidia, temo che queste prime schede diventeranno obsolete in poco tempo, come sempre accade con le prime generazioni che implementano una nuova tecnologia.

sgrinfia
22-08-2018, 11:15
ahahh, a quei prezzi è una follia totale, e ci sono anche dei fresconi che le comprano in prevendita senza sapere nemmeno come vanno, ognuno purtroppo nasce con il cervello che il caso gli da, io preferisco sputtanarmeli in coca e mignotte piuttosto che strapagare una vga.

Io penso peggio, penso che qualcuno non si é messo neanche in fila quando il buon Dio li ha distribuiti i cervelli....pagare una scheda video 1200euro....vera demenza.j

nickname88
22-08-2018, 11:25
....pagare una scheda video 1200euro....vera demenza.j
Pagare di più un melafonino ancora peggio.

Alodesign
22-08-2018, 11:29
Pagare di più un melafonino ancora peggio.

Poco ma sicuro. Ma almeno un telefono non mi permette solo di vedere la polvere illuminata in una stanza.

calabar
22-08-2018, 11:33
Semplicemente decidono di rimanere nelle fasce basse di mercato con l'intera gamma.
Probabilmente è una mera questione di mercato. Avranno visto quale potrebbe essere la richiesta di soluzioni del genere e concluso che non valesse la pena di produrle.

Oltretutto le soluzioni come quella Intel sono molto vicine a quelle di una scheda dedicata, quindi se AMD producesse qualcosa del genere sarebbe comunque un prodotto molto diverso dalle attuali APU e di sicuro non sarebbe compatibile con le piattaforme attuali.

Per quanto mi riguarda il 2400G è un'ottima soluzione per la macchina che vorrei acquistare a breve, ma il costo molto elevato delle RAM mi frena. Di contro, il costo molto elevato delle GPU dedicate con prestazioni almeno equivalenti mi frena da una soluzione CPU+GPU. Insomma, in un modo o nell'altro sono fregato! :p

nickname88
22-08-2018, 11:39
Probabilmente è una mera questione di mercato. Avranno visto quale potrebbe essere la richiesta di soluzioni del genere e concluso che non valesse la pena di produrle.

Che non valga la pena a loro dire questo è sicuro, ovviamente è una decisione presa da loro.
Che esista forse una correlazione fra questa loro politica e la minor visibilità del loro brand ?

I suoi competitors la pensano diversamente e spesso e volentieri vanno alla ricerca di primati con prodotti di fascia enthusiast, edizioni limitate o modelli esclusivi, e sono leaders nei propri settori. Di certo la pubblicità non arriverà da prodotti di fascia bassa che puntano solo al prezzo/prestazioni.

Poco ma sicuro. Ma almeno un telefono non mi permette solo di vedere la polvere illuminata in una stanza.Disabilita anche le altre opzioni grafiche già che segui questo ragionamento.
Io però recensioni e comparative per giudicare ancora non ne vedo ....

al135
22-08-2018, 12:02
ragazzi, ricordatevi che siamo su un forum tecnico, la questione monetaria ci sta, pero' non riducete questo thread al 90% su una mera discussione di soldi.

tornando al raytracing.... che dite, qua c'entra qualcosa? come lo hanno provato all'e3 questa "demo" ? https://www.youtube.com/watch?v=EWJD8DMasCU

calabar
22-08-2018, 12:08
Che non valga la pena per loro è sicuro.
Che esista forse una correlazione fra questa loro politica e il fatto che il loro marketing sia sempre perdente.
No, questa volta il marketing non c'entra nulla (del resto i prodotti di fascia più alta non le mancano affatto), è una questione molto più pratica: nessuna azienda sana investirebbe in un prodotto che non ha mercato. E questo è valido soprattutto in casi come questo dato che i costi per mandare in produzione un chip non sono bassi e richiedono un notevole sforzo sia tecnico che finanziario.
Comunque siamo un po' OT, non divagherò oltre.

Disabilita anche le altre opzioni grafiche già che segui questo ragionamento.
Lui non disabilita nulla, semplicemente per ora evita di spendere tanto per una scheda che secondo lui produrrà solo "polvere illuminata". Il che mi pare abbastanza legittimo, per lo meno fino a quando non vedremo cosa sarà possibile ottenere con queste tecniche di rendering ibrido e quale sarà il prezzo in termini di prestazioni.

nickname88
22-08-2018, 12:10
No, questa volta il marketing non c'entra nulla (del resto i prodotti di fascia più alta non le mancano affatto), è una questione molto più pratica: nessuna azienda sana investirebbe in un prodotto che non ha mercato. E questo è valido soprattutto in casi come questo dato che i costi per mandare in produzione un chip non sono bassi e richiedono un notevole sforzo sia tecnico che finanziario.
Comunque siamo un po' OT, non divagherò oltre.


Lui non disabilita nulla, semplicemente per ora evita di spendere tanto per una scheda che secondo lui produrrà solo "polvere illuminata". Il che mi pare abbastanza legittimo, per lo meno fino a quando non vedremo cosa sarà possibile ottenere con queste tecniche di rendering ibrido e quale sarà il prezzo in termini di prestazioni.
Hai quotato metà di entrambi i post

giovanbattista
22-08-2018, 12:15
ma ti sei offeso perche hai la firma col link al sito amd oppure devi fare per forza il clown di turno?

sono molto combattuto:( ......oggi, però mi sento + pagliaccio del solito:asd:, quindi vada x il clown........aggiudicato a furor di popolo:Prrr: :read:

bagnino89
22-08-2018, 12:39
Delirio allo stato puro qui dentro, sto già tremando pensando che la mia inutile 1080 non farà girare più alcun gioco da qui in futuro.

D'altronde Il Profeta ha parlato, RT e DX12 saranno la nostra rovina. :O

korra88
22-08-2018, 12:53
ahia!

https://www.tomshw.it/prestazioni-rtx-2080-ti-prime-considerazioni-dalla-gamescom-96857

nickname88
22-08-2018, 12:58
ahia!

https://www.tomshw.it/prestazioni-rtx-2080-ti-prime-considerazioni-dalla-gamescom-96857
Dall'articolo :

l'account Twitter del gioco ha preso la parola per ricordare che si trattava di una versione "work in progress" del nuovo capitolo dell'avventura, con aree non del tutto ottimizzate. I creatori del titolo hanno inoltre affermato che l'integrazione finale della tecnologia ray tracing di Nvidia arriverà con un update post-lancio"

korra88
22-08-2018, 13:12
Dall'articolo :

l'account Twitter del gioco ha preso la parola per ricordare che si trattava di una versione "work in progress" del nuovo capitolo dell'avventura, con aree non del tutto ottimizzate. I creatori del titolo hanno inoltre affermato che l'integrazione finale della tecnologia ray tracing di Nvidia arriverà con un update post-lancio"

che suona come una mega paraculata :D

sgrinfia
22-08-2018, 13:14
ahia!

https://www.tomshw.it/prestazioni-rtx-2080-ti-prime-considerazioni-dalla-gamescom-96857

Vabbè,non vedo il problema,se una non ce la fa.....si prendono 2 2080ti, problema risolto.

nickname88
22-08-2018, 13:47
Tipo quando usciranno le schede a 7nm che potranno usare veramente il ray tracing senza morirne? :stordita:La tua opzione è quella di aspettare altri 2 anni immagino o ancora meglio sperare in un assist colto da AMD con Navi solamente il prossimo anno ... sperando che non abbia integrato anch'essa unità di RT.

nickname88
22-08-2018, 13:51
Mi riferivo a nuove schede Nvidia perchè stiamo parlando di schede con RT core e Navi ancora nessuno sa se avrà qualcosa di simile.
Nuove Nvidia con le attuali non ancora uscite ? Altri 2 annetti in pratica.

\_Davide_/
22-08-2018, 14:11
ragazzi, ricordatevi che siamo su un forum tecnico, la questione monetaria ci sta, pero' non riducete questo thread al 90% su una mera discussione di soldi.

Concordo: dopotutto se hanno imposto tali prezzi il motivo è che gli permettono di ottenere il migliore margine di guadagno (leggasi come "anche se costano 1200€ noi le compriamo ugualmente"). È inutile prendersela, semmai si potrà parlare, quando si avranno sufficienti dati tecnici, di quale sia la più conveniente o della necessità di upgrade dalle precedenti generazioni.
Ora come ora mi sembra per una buona parte una discussione da bar sport, con interventi insensati come quelli in cui viene tirata in mezzo Apple, che non avrebbe motivo di vendere il suo top di gamma ad un prezzo inferiore visto che la gente lo acquista comunque e l'azienda non è una onlus. :)

CiccoMan
22-08-2018, 14:16
Per tranquillizare un po' tutti...

NVIDIA GeForce RTX 2080 Ti Performance Previewed – Delivers Well Over 100 FPS at 4K Resolution and Ultra Settings in AAA Games, Ray Tracing Performance Detailed (https://wccftech.com/nvidia-geforce-rtx-2080-ti-performance-preview-4k-100-fps/)

Gyammy85
22-08-2018, 14:28
Per tranquillizare un po' tutti...

NVIDIA GeForce RTX 2080 Ti Performance Previewed – Delivers Well Over 100 FPS at 4K Resolution and Ultra Settings in AAA Games, Ray Tracing Performance Detailed (https://wccftech.com/nvidia-geforce-rtx-2080-ti-performance-preview-4k-100-fps/)

Finalmente una buona notizia
Quindi se la 1080ti era per il gaming a 60 fps a 5k, questa è per il 4k 100, che sono 70 a 5k, good :asd:
Ma le recinzioni? O.O

CiccoMan
22-08-2018, 15:05
Finalmente una buona notizia
Quindi se la 1080ti era per il gaming a 60 fps a 5k, questa è per il 4k 100, che sono 70 a 5k, good :asd:

Ti stimo, riesci sempre a strapparmi un sorriso :cincin:

Ma le recinzioni? O.O

NDA? Prestazioni vergognose?

...speriamo la prima...

:)

eaman
22-08-2018, 15:09
Quest'articolo non e' male: https://www.forbes.com/sites/jasonevangelho/2018/08/21/nvidia-rtx-20-graphics-cards-why-you-should-jump-off-the-hype-train/#70c7d79c3f8e

nickname88
22-08-2018, 15:22
Quest'articolo non e' male: https://www.forbes.com/sites/jasonevangelho/2018/08/21/nvidia-rtx-20-graphics-cards-why-you-should-jump-off-the-hype-train/#70c7d79c3f8e
Questo è interessante, quindi 7nm Nvidia già dal prossimo anno ...

CiccoMan
22-08-2018, 15:30
Questo è interessante, quindi 7nm Nvidia già dal prossimo anno ...

Ci può stare... visto che hanno già sfoderato la 2080Ti, non hanno schede della serie 20 per rinverdire la line-up...

Certo che, se così fosse, i prezzi sono davvero imbarazzanti... 999USD per una scheda che vede la sue sostituta dopo 360 giorni non sono una bella cosa...

Chissà però che con i 7nm non riescano ad integrare piu RT core in moda da avere maggiori performance?

korra88
22-08-2018, 15:48
3080ti, 7nm, 6000 cuda cores, 1000 RT core...preorder a 1499:fagiano:

corvazo
22-08-2018, 16:36
Quando le rifarebbero a 7 nm? il prossimo anno quando? gia a dicembe AMD ha le sue a 7. Ma era questo dicembre o il dicembre del prossimo anno. Faccio fatica a credere che le prime gpu 7 nm saranno di AMD. Se qualcuno vuole chiarire grazie

lucusta
22-08-2018, 17:01
Bene allora secondo quanto da te scritto con i giochi di prossima uscita, il 90% dei giocatori PC non potranno eseguirli se non con scarsissime prestazioni, perchè Nvidia ha prodotto vga con RT in HW , con la piccola conseguenza che il mercato pc game fallirebbe tempo zero....sei proprio sicuro di quello che stai dicendo? Io invece credo proprio che chi non ha le nuove nvidia potrà tranquillamente giocare agli stessi titoli con ottime prestazioni semplicemente disabilitando l'opzione dell'RT ;)

no, forse ancora non mi sono espresso nel modo giusto...
non è che faranno giochi solo con RT, e quindi amen...
sarà sicuramente un'opzione disabilitabile.
se però turing è DX12 tier 3 in HW li faranno DX12, e visto che tier 3 significa l'uso di computo asincrono, che pascal è costretto ad emulare via software, sarà quest'ultima a pagare pegno...

avrai giochi che andranno a 60fps su una serie 2000, ma invece di andare a 40fps sulle serie 1000, non essendo più DX11 ma DX12 faranno al massimo 25.
questo problema AMD lo risente meno, perchè è giaà DX12, quindi ipoteticamente in quel gioco se fosse fatto in Dx11 andasse a 40, in DX12 continua ad andare a 40, se non anche qualche fps in più.

è questo il punto.
se turing è DX12, pascal non verrà più considerato come riferimento, quindi nemmeno le DX11.

LkMsWb
22-08-2018, 17:05
Quando le rifarebbero a 7 nm? il prossimo anno quando? gia a dicembe AMD ha le sue a 7. Ma era questo dicembre o il dicembre del prossimo anno. Faccio fatica a credere che le prime gpu 7 nm saranno di AMD. Se qualcuno vuole chiarire grazie

Perché faresti fatica a credere che le prime GPU 7nm siano di AMD? ATI/AMD diverse volte ha usato per prima processi produttivi nuovi.

Sono curioso anche se nVidia translerà a 7nm subito le 2080/70, o se magari lo saranno le 2060 in giù, come primo "assaggio", visto che ancora non se ne sa nulla e che AMD Navi dovrebbe andare proprio in quella fascia di prezzo, a quanto si sa.

lucusta
22-08-2018, 17:06
torna al tuo posto e restaci ;)

vedi, bello mio, il mio posto è proprio questo.

quello che deve mettersi al suo posto, ed educatamente, sei solo tu.

e se continui si chiede anche l'intervento dei mod, perchè l'educazione è la prima richiesta su questo forum.
non ti piace?
non ci riesci?
trova un'altra soluzione, ma al di fuori di qua.

hai capito ora?

se fai battute caprine, poi non te la devi prendere se vieni trattato per quello che mostri o se le risposte non ti piacciono...

lucusta
22-08-2018, 17:10
Un traguardo ridicolo visto che funzionalmente con risoluzioni dal full HD in sù puoi fare ben poco, e la GT1030 sta sui 75€ che ha anche la propria VRAM dedicata e non deve rubarla a quella di sistema.


Potentissima guarda .... raschia benissimo i fondi dei barili in effetti. Direi forse sia più giusto dire che fa meno skifo di altre.

Ah quindi senti le voci ? Bene.
Peccato che su AM4 non ci arriverà solo con le voci fantasiose.
Quando avrai delle prove alla mano richiamami.

Il fatto di poter realizzare APU potenti non è impossibile a nessuno, basta salire di TDP e tutto si può fare.
Ma non lo fanno, quindi polemica inutile, il 2400G è il massimo che mette a disposizione AMD e quello ti tieni.

E la cosa che fa più ridere è che la soluzione integrata più potente su desktop è sempre di AMD ma viene venduta con il prodotto del rivale. :asd:

io non ti sto dicendo che la faranno, ma che ad oggi il 2400G è la CPU con iGPU più potente, tanto da star dietro alle entry livel nvidia e anche a quelle della stessa AMD.
se poi faranno APU con una iGPU ancora più potente (e parliamo di un salto elevato da 11 a 28CU), ben venga...
lo si chiedeva da anni, dalle prime APU delle console.

non devi screditare quel settore di giocatori... molti si accontentano di tali prestazioni per il semplice fatto che sono a bassissimo prezzo.

lucusta
22-08-2018, 17:17
Ma figurati! E' ovvio che tutte le software house si adegueranno alle RT e Dx12 e non metteranno la retrocompatibilità! OVVIO! Compriamo tutti le 2070-80 altrimenti qui non si gioca più!

basta aspettare qualche titolo per capirlo...
la retrocompatibilità e tra avere gli RT core e non averli, non tra essere DX12 o DX11...
nvidia ti offre la compatibilità DX12 AC con le pascal, ma via software... quindi, se prorpio vuoi, ci giochi uguale, ma con le dovute limitazioni del caso.

il punto è che un gioco DX12 AC non può essere compatibile con le DX11, lo devi riscrivere in toto, e questo è un costo.

quindi i 2 milioni di pascal che nvidia ha intenzione di vendere oggi, per svuotare i magazzini, quanto tempo hanno prima che diventano troppo lenti?

lucusta
22-08-2018, 17:19
Intende che quando non si utilizza il rt, quelle unità restano sempre, e si ritorna al problema delle unità dedicate, cioè che parti della gpu restano inutilizzate occupando spazio. Ma non sarà mai un problema per nvidia, figuriamoci, quelli col microscopio elettronico sono i clienti amd...

no, non intendo questo.
intendo dire che RT potrebbe andare a braccetto con DX12 sulle turing.
tolti gli effetti RT sempre DX12 rimangono e pascal non tutte le DX12 riesce a digerire bene.

fukka75
22-08-2018, 17:53
Con questi prezzi dovranno esserci in bundle almeno 3 giochi che usano il RT :asd::asd:
Detto qusto, mi sa che per fine anno pensiono la 970

calabar
22-08-2018, 18:22
avrai giochi che andranno a 60fps su una serie 2000, ma invece di andare a 40fps sulle serie 1000, non essendo più DX11 ma DX12 faranno al massimo 25.
Mi sa che i conti non tornano... se la perdita è del 20%, allora non si passa certo da 40 a 25 FPS, che è invece una perdita doppia.
Oltretutto il guadagno teorico del 20% era quello stimato da Microsoft per l'utilizzo di asynchronous compute, shader model 6.0 e bindless resources (ricorda che il Tier 3 delle DX12 riguarda principalmente il binding delle risorse). Oltretutto Pascal supporta almeno parzialmente queste caratteristiche.

Oltretutto è un discorso che non ha senso, perchè le prestazioni di Pascal sono quelle, quindi da 40 rimangono 40. Al più l'uso di queste caratteristiche potrebbe dare un "bonus" alle schede che le supportano (magari le turing stesse).

Ma soprattutto quello che non torna è il binomio che tu dai per certo dell'uso delle caratteristiche delle DX12 di cui parlavamo sopra con il Ray Tracing, assunto tutto tuo, non sostenuto da alcuna prova, che però stai usando come certezza assoluta nelle tue argomentazioni.

PS: ti consiglierei di evitare di scrivere papiri ogni volta ma di concentrarti si passaggi che contano e accorpare quando possibile, perchè la reazione tipica del lettore è quello di saltare tutto a piè pari: nessuno ha voglia di leggere un polpettone confuso lungo pagine e pagine.

AceGranger
23-08-2018, 01:08
Quando l'ho scritto io non ci credevi eh? :nono:

hei, io l'ho detto prima di te ! :O

AceGranger
23-08-2018, 01:14
Però non è che questa sia molto allettante come cosa.
Le nuova GPU costano parecchio perchè integrando i nuovi tensor core e RT core sono più grosse e costano di più, se questi nuovi core deve tenerli spenti dov'è il senso?

e perchè mai dovrebbe tenerli spenti ?

escludento i calcoli raytracing, la parte RT si occupera del tracciamento del suono, mentre la parte Tensor si occupera di:

- nuovo deep learning anti-aliasing
- resolution scaling
- video re-timing
- photo imaging and video processing

è sempre roba che vai a scalare dai CUDA che potranno cosi generare piu frame visto che dovranno occuparsi di meno roba.

ilario3
23-08-2018, 09:55
Io passando dalla mia ex 980 alla mia attuale 1080 ho guadagnato infatti appena +70-80%. Roba da poco ...
Per quanto riguarda queste ultime invece tu già conosci le sue performance e il grado di usabilità del RayTracing nell'attuale panorama ludico ?

Quoto, 970 - 1070 gain da un minimo del 48% al 80%, poi in memoria 100%, al prezzo, lo stesso pagato per la 970 (379) vendendo la 970 a 198 euro, quindi ci ho messo 181 euro di tasca mia.

Se la gente continua a comprare prodotti follemente sovraprezzati per guadagnare un nulla in prestazioni, la colpa è di chi compra, solitamente gli stessi che poi frignano per i prezzi alti :D.

Quindi noi saremmo dei polli :mbe: :doh:

Dalla 1070 alla 2070 vedo lo stesso gap, però non ne sento la necessita e non ne ho bisogno. Ray Tracing molto interessante, però secondo me serve ancora un altra generazione per la potenza giusta ed un paio d'anni per vederla in tutti i titoli delle SH

ilario3
23-08-2018, 10:00
Quando l'ho scritto io non ci credevi eh? :nono:

No, non sei una fonte attendibile :D

Scherzo ovviamente!!!!! :Prrr:

nickname88
23-08-2018, 11:29
Tralascia per un attimo come si chiamano le schede e guarda solo il costo.
La 970 costava inizialmente 350$, la 1070 450$, quindi parlando per fasce di prezzo e non per nomi del prodotto la 1070 è più l'erede della 980 che della 970.
Allo stesso modo la 2070 a 600€ io l'abbinerei alla 1080 e il salto di performance c'è lo stesso eh, ma più contenuto.

Secondo me bisogna tenere conto di queste cose o almeno secondo me è più importante "quanto costa e quanto va" di "come si chiama"
50-60-70-80 ecc.. definiscono le fasce fondamentalmente in base alle performance, non ai prezzi.
Che poi vi sia un aumento fra una e l'altra è palese ma la media generale è stabilita da altri fattori.

nickname88
23-08-2018, 11:35
La cosa importante è che ci credi tu.
Io so solo che se prima con 500€ si prendeva la 980 poi ci potevi prendere una 1070 e oggi non ci prendi niente, magari una 2060 quando sarà.
Se poi per te è più importante il nome della scheda di quanti soldi devi cacciare per portarla a casa è un tuo modo di vedere, ma non mi venire a dire che il mio è sbagliato.Quello che vuoi credere tu non centra.

Sigle come i3-i5-i7-i9 distingue solamente i prodotti a livello prestazionale all'interno di una linea di prodotti, e non fa alcun riferimento a nessuna fascia di prezzi. Questa è la realtà e non deve piacere a nessuno.

Io so solo che se prima con 500€ si prendeva la 980 poi ci potevi prendere una 1070 e oggi non ci prendi niente, magari una 2060 quando sarà.Si e quindi ?
Se non c'è una concorrenza che propone prezzi più bassi cosa pretendi che succeda ?
La tua è una lagna gratuita, che non centra con quanto ti ho fatto notare.

Se poi per te è più importante il nome della scheda di quanti soldi devi cacciare per portarla a casa è un tuo modo di vedere, ma non mi venire a dire che il mio è sbagliato.Per me è importante godermi appieno i titoli a 60fps costanti alla risoluzione che voglio io se possibile.
Il nome della scheda non mi interessa, il brand nemmeno.

Se AMD esce sempre in ritardo quando io sono già passato alla nuova Gen o quando esce assieme e non rappresenta la scheda migliore non vado di certo a comperarla comunque, non è un gioco a turni.
Non è che se prima ho comperato Nvidia, l'anno successivo devo prendere AMD.

lucusta
23-08-2018, 17:04
guarda, nick, che se le fasce di mercato erano per nomi, non avrebbero fatto prezzi a 599.99$
se erano per nome le prezzavano direttamente 600.

quella che tu indichi è la divisione della GAMMA, non delle fasce di mercato, perchè i mercati girano in soldi, quindi si guarda il prezzo e basta.

lucusta
23-08-2018, 17:12
Mi sa che i conti non tornano... se la perdita è del 20%, allora non si passa certo da 40 a 25 FPS, che è invece una perdita doppia.
Oltretutto il guadagno teorico del 20% era quello stimato da Microsoft per l'utilizzo di asynchronous compute, shader model 6.0 e bindless resources (ricorda che il Tier 3 delle DX12 riguarda principalmente il binding delle risorse). Oltretutto Pascal supporta almeno parzialmente queste caratteristiche.

Oltretutto è un discorso che non ha senso, perchè le prestazioni di Pascal sono quelle, quindi da 40 rimangono 40. Al più l'uso di queste caratteristiche potrebbe dare un "bonus" alle schede che le supportano (magari le turing stesse).

Ma soprattutto quello che non torna è il binomio che tu dai per certo dell'uso delle caratteristiche delle DX12 di cui parlavamo sopra con il Ray Tracing, assunto tutto tuo, non sostenuto da alcuna prova, che però stai usando come certezza assoluta nelle tue argomentazioni.

PS: ti consiglierei di evitare di scrivere papiri ogni volta ma di concentrarti si passaggi che contano e accorpare quando possibile, perchè la reazione tipica del lettore è quello di saltare tutto a piè pari: nessuno ha voglia di leggere un polpettone confuso lungo pagine e pagine.

ok, cercherò di essere conciso.

il miglioramento indicato del 20% nell'uso dell'AC è giusto, ma questo è il raffronto di un gioco scritto in DX11 rispetto ad un gioco scritto in DX12 e, tra l'altro, sfruttando al massimo il potenziale della CPU.
a questo +20% per le RTX (sempre se siano DX12 in HW) devi aggiungere un'altro fattore: il decadimento prestazionale delle pascal nel processare DX12 AC, che sono emulate in SW.
e anche quello è un buon 20%.

ecco da dove escono fuori i miglioramenti del 50-60% in più di Turing rispetto a Pascal.
il 10-15% per la maggiorazione del numero di cudacore, il 20% per l'uso delle DX12, ma anche il -20% per le pascal.
se normalizzi per le pascal ottieni il 50, 60% di miglioramento.

ed è appunto quel -20% da osservare, perchè ancora oggi non hanno descritto l'architettura turing.
se i nuovi giochi saranno tutti DX12, perchè turing è DX12 e quindi tutto il parco macchine da gioco è DX12, dalle console alla concorrenza, è pascal che perde, perchè continuerebbe ad andare bene solo se glie li scrivono anche in DX11, sennò ha una decurtazione per l'aggiunta del layer software per l'emulazione.

calabar
23-08-2018, 17:26
il miglioramento indicato del 20% nell'uso dell'AC è giusto, ma questo è il raffronto di un gioco scritto in DX11 rispetto ad un gioco scritto in DX12 e, tra l'altro, sfruttando al massimo il potenziale della CPU.
a questo +20% per le RTX (sempre se siano DX12 in HW) devi aggiungere un'altro fattore: il decadimento prestazionale delle pascal nel processare DX12 AC, che sono emulate in SW.
e anche quello è un buon 20%.
Non lo vedi come il ragionamento non torna?
Stai parlando dell'apporto che certe funzionalità di DX12 potrebbero dare alle prestazioni, quindi o consideri il vantaggio nell'usarle rispetto a chi non le usa o consideri lo svantaggio del non usarle rispetto a chi le usa. L'uno o l'altro, non entrambi.

Oltretutto come già ti dicevo questo discorso è numericamente sbagliato a prescindere, perchè Pascal supporta comunque almeno in parte queste caratteristiche.

Puoi per caso indicarmi un link dove si parla del fatto che Pascal emuli certe caratteristiche via software? La cosa francamente mi suona un po' strana, dato che i vari TIER e Feature Level di DX12 sono relativi al supporto hardware di una GPU, non software.

ecco da dove escono fuori i miglioramenti del 50-60% in più di Turing rispetto a Pascal.
Ahem... guarda che stiamo parlando di altri numeri.

se i nuovi giochi saranno tutti DX12, perchè turing è DX12 ...
Continui ad usare una terminologia sbagliata. Sono tutte schede DX12, anche se le supportano in modo differente (e nessuna supporta tutte tutte le caratteristiche).

bagnino89
23-08-2018, 17:33
Puoi per caso indicarmi un link dove si parla del fatto che Pascal emuli certe caratteristiche via software? La cosa francamente mi suona un po' strana, dato che i vari TIER e Feature Level di DX12 sono relativi al supporto hardware di una GPU, non software.

Ma ancora gli rispondi? In tutte le notizie riguardanti Nvidia, soprattutto in Tom's dove si scatena senza freni, non fa altro che trollare scrivendo amenità che non esistono.

Ignoratelo, ormai non si sopportano più le scemenze che scrive.

lucusta
23-08-2018, 19:55
Non lo vedi come il ragionamento non torna?
Stai parlando dell'apporto che certe funzionalità di DX12 potrebbero dare alle prestazioni, quindi o consideri il vantaggio nell'usarle rispetto a chi non le usa o consideri lo svantaggio del non usarle rispetto a chi le usa. L'uno o l'altro, non entrambi.

Oltretutto come già ti dicevo questo discorso è numericamente sbagliato a prescindere, perchè Pascal supporta comunque almeno in parte queste caratteristiche.

Puoi per caso indicarmi un link dove si parla del fatto che Pascal emuli certe caratteristiche via software? La cosa francamente mi suona un po' strana, dato che i vari TIER e Feature Level di DX12 sono relativi al supporto hardware di una GPU, non software.


Ahem... guarda che stiamo parlando di altri numeri.


Continui ad usare una terminologia sbagliata. Sono tutte schede DX12, anche se le supportano in modo differente (e nessuna supporta tutte tutte le caratteristiche).

aspetta.
il confronto lo devi fare sul risultato netto.
il confronto va fatto considerando un software A scritto in DX11 su un HW che supporta le DX11 in HW ed un software B scritto in DX12 su un HW che supporta le DX12 in HW.
a parità di processore le DX12, o meglio AC, consento un maggior sfruttamento dei tempi di attesa della GPU.
la sequenza è questa:
in DX11 il processore elabora, manda alla gpu e poi sta in attesa dell'lelaborazione del thread;
la GPU esegue, molto velocemente, e manda il risultato al processore, che implementa e esegue il successivo thread.
è qui che si crea la differenza, perchè mentre la GPU è veloce nel rispondere alla CPU, questa non lo è altrettanto nell'elaborare, chiudere il vecchio thread e riaprirne un altro.
il processore si trova ad essere usato in modo sequenziale al 100%, a 0% per il tempo di attesa della GPU, e nuovamente al 100%; la GPU allo stesso modo per i suoi tempi di operazione, ma questi sono assai più brevi.
in DX12 invece i thread sono divisi in funzioni minime e vengono mandati alla GPU nel frattempo che la CPU riceve una risposta, quindi c'è l'annullamento dei tempi di attesa della GPU e la massimizzazione del lavoro della CPU.

questo lavoro è quantizzabile nel 20%, secondo microsoft.

quindi una GPU DX11 in HW che esegue un gioco DX11 con una CPU tal dei tali arriva a 100fps mentre una GPU DX12 in HW che esegue lo stesso gioco, ma in DX12 AC con la stessa CPU ottiene 120fps.
stesso gioco scritto in modi diversi, stessa CPU, stessa potenza della GPU ma applicata in modo differente, uno DX11 e l'altro DX12.

visto che l'AC viene implementato proprio a livello di logica di strutturazione delle pipeline una DX12 AC emula le DX11 via software, una DX11 emula le DX12 AC in software.
non c'è altro modo.

e se metti un ulteriore layer di traslazione tra codice e HW (e lo fanno i driver), questo ti costa ulteriori risorse sulla CPU, che decurta parte della sua potenza per i driver, invece che per gestire la generazione dei frame.

il risultato è che nei giochi DX11 AMD perde molto rispetto al suo sfruttamento migliore, che è con AC, perchè deve gestire al meglio le innumerevoli pipeline che ha, che, bada bene, sono contate a se stanti...
nvidia, invece, perderebbe nell'esecuzione di DX12 AC perchè la sua divisione interna è assai diversa.
nvidia accorpa tutto in distinte unità di calcolo, i GPC, che poi hanno sotto unità di calcolo, gli SM che hanno a quel punto le pipeline di calcolo, i cudacore.
GPC ed SM sono divisioni logiche che sono a carico della scheduazione via driver, quindi sulla CPU.
dividere quindi le richieste in molteplici thread mette in difficoltà la schedulazione del lavoro.
da questa ragione parte la "credenza" che i TF AMD valgono meno dei TF Nvidia.
valgono meno perchè il rendimento dell'architettura non è massimizzato.

TF x rendimento = prestazioni reali.

è prettamente impossibile che Pascal, come maxwell, abbiano la possibilità di eseguire direttamente codice asincrono con quel tipo di architettura.
la compatibilità di Pascal si ferma a ben poche funzionalità delle DX12, tutte quelle poche aggiunte che si possono anche ritrovare nelle DX11.3...

si trovano davanti codice asincrono?
devono prima accorpare nuovamente i sub threds, elaborarli come farebbero in DX11 e poi ridividere per rispondere alle singole richieste della CPU, il tutto proprio sulla CPU, i drive, via software.

la questione è che proprio per il fatto che non possono eseguire in modo agevole il codice asincrono i giochi fin'ora fatti non erano AC.
AoTS sulle pascal gira con codice personalizzato, come maxwell, e non è AC.
gli sviluppatori hanno dovuto prontamente costruire il gioco anche in DX11.

quindi il ragionamento che ti ho fatto è più che giusto.

turing sembra essere realmente una Dx12 in HW con tutti i requisiti giusti per elaborare direttamente in HW il computo asincrono (o, quantomeno, per riuscire a mandare alle pipeline lavori molto piccoli... se noti hanno aumentato gli SM e diminuito il numero di cudacore ad SM).

in quei giochi già usciti che hanno elencato le AMD hanno sempre brillato.
guardacaso sono proprio i giochi che molti sostenevano PRO AMD.
e non era sbagliato, visto che in quei giochi le AMD riuscivano a sfruttare molto meglio la loro sovrabbondanza di potenza pura teorica con rendimenti ben più alti di quanto potevi riscontrare in giochi prettamente DX11.

se prendi proprio WS2 potrai vedere che una vega 64 può dare le medesime prestazioni rispetto ad una 1080 Ti, superando nettamente la 1080, che invece, in giochi DX11 alcune volte la supera.

è quella la differenza sostanziale.
la 1080 su WS2, a 1440p, raggiunge 70fps, la 1080 ti ne fa 90 e vega 64 anche.
su GTA V vega fa si e no 55fps, 10 in meno della 1070 a 65; la 1080 80 e la 1080 Ti 100.
vedi cosè comporta la differenza di rendimento?

quindi la 2080 su WS2 arriva a 105fps.
ti rendi conto che è cambiato qualcosa?
che i 2900 e rotti cudacore della 2080 dovrebbero clockare al limite dei 3000mhz per dare una prestazione simile se fossero meramente simili alle vecchie pascal?

no, semplicemente la questione è che "masticano" DX12 ed è stato cancellato il gap di differenza di rendimento tra pascal e vega proprio su codice DX12.

per un giusto raffronto ci dovrebbe essere una suitte di giochi decisamente più variegata (anche il caro ARMA 3 che annullava le prestazioni delle AMD , essendo DX9), ma il fatto che ti abbiano mostrato tutti giochi DX12, e quelli fortemente ottimizzati per AMD, ti fa capire che il miglioramento non è solo frequenza, più cudacore o altro, ma propriamente il fatto che queste schede sono DX12 in HW, e il tipo di DX12 che oggi contano...

calabar
23-08-2018, 20:06
@lucusta
E meno male che ti avevo suggerito di non scrivere papiri, che poi nessuno li legge... :asd:

Comunque
questo lavoro è quantizzabile nel 20%, secondo microsoft.
A parte il fatto che si dice "quantificabile", questo non è affatto vero. Ti sei creato un film tuo sulla differenza tra DX11 e DX12 e non è giustificabile neppure nell'ottica della semplificazione. Rileggi quanto avevo scritto sopra sull'origine di quel 20%.

quindi il ragionamento che ti ho fatto è più che giusto.
Affatto, è sbagliato anche a prescindere dell'inesattezza sulla spiegazione sul 20%. Speravo che a questo punto l'avessi capito.

lucusta
23-08-2018, 22:39
comunque non è un problema...
il tempo dimostrerà la questione.

calabar
23-08-2018, 23:04
comunque non è un problema...
il tempo dimostrerà la questione.
Il punto non è il risultato, ma i ragionamenti con cui arrivi a quel risultato, che sono molto, troppo fantasiosi.
Il risultato potrebbe pure verificarsi, ma questo non significherebbe che quanto hai scritto sopra sia esatto.

Se accetti un consiglio, scrivi solo di ciò che hai realmente compreso, ne avresti un duplice vantaggio: eviteresti di scrivere papiri poco leggibili e al contempo le tue idee acquisterebbero maggiore solidità.

Cioè, se la tua intenzione era semplicemente dire che le nuove Turing supportano finalmente certe caratteristiche delle DX12 e che nei giochi futuri distanzieranno ancora più le Pascal a causa dei limiti di queste ultime fallo pure, la tua opinione sarà pienamente legittima.
Se però ti butti in tecnicismi scrivendo inesattezze, allora fai il gioco di chi non la pensa come te e vuole darti contro.

CrapaDiLegno
23-08-2018, 23:58
@lucusta
Hai scritto un sacco di fregnacce inutili.
Ora non ho tempo di spiegarti come funziona l'AC su Pascal, ma tu hai scritto una marea di vaccate. Pascal è in grado di effettuare l'esecuzione simultanea di più thread come GCN ma diversamente da questo non può intervallare un thread grafico con uno di calcolo o copia. La questione thread cpu che attendono i thread GPU non c'entrano una fava.

La domanda che ti devi porre è perché in un processo prettamente seriale come le fasi di calcolo di un frame grafico ti devi mettere a spezzettarlo in decine e decine di sottothread che si interrompono continuamente. Alla fine il lavoro svolto è lo stesso, solo in modalità diversa.

E descrivendo l effetto dell'AC su Pascal stai sempre o dimostrando di non aver capito un kaiser oppure mentendo da fanboy (sto nuovo RTX che relega GCN finalmente alla preistoria dove doveva essere prima di Polaris ti è indigesto, eh?)
Le prestazioni di Pascal con o senza ac rimangono sostanzialmente invariate. Se il motore non è scritto appositamente x interrompere continuamente il thread grafico (come dovrebbe fare un motore intelligente e non uno scritto ad hocx hw amd) anche Pascal ottiene qualche miglioramento.
GCN ottiene miglioramenti perché è sostanzialmente inefficiente ad elaborare un thread ampio e preferisce decine di thread più piccoli. Cosa che necessita al programmatore di creare più thread indipendenti e quindi più lavoro. E quindi non è un plus, è uno scassamento in più da dover implementare x supportare l'hw amd.

Quindi tutte le fanfaronate riguardanti la differenza tra GCN e Pascal sono già caxxate documentate, ma ora ti spingi a voler a tutti i costi spalare cacca anche su Turing che vedi prendere il largo rispetto a Polaris / Vega e forse pure il n contropiede Navi il cui sviluppo dovrebbe essere già concluso, quindi se non supporta ray tracing Nvidia sarà avanti ancora x almeno 3 anni, ma forse anche 5.

Spiace vederti così frustrato, ma la realtà dice che maxwell ha belle e sorpassato GCN con tutti e tre i parametri fondamentali (prestazioni/area, consumi/area, costi/prestazioni, che non sono il prezzo /prestazioni come ben indicano i bilanci). Pascal ha accelerato portandosi un giro avanti e Turing sta definendo una rivoluzione che Koduri manco col binocolo aveva visto con la sua roadmap scalcagnata che già ha lasciato amd con 3 anni di ritardo.
AMD rischia di giocare in serie B l'anno prossimo se Nvidia, oltre che il guadagno prestazionale con i "normali giochi" si avvantaggia con il Ray tracing. Ora acerbo, senza dubbi, ma con enormi potenzialità (e possibilità) che il semplice aumento di TFLOPS può garantire.

Fattene una ragione e smetti di blaterare fandonie che non stanno né in cielo né in terra.

OttoVon
24-08-2018, 01:25
no, semplicemente la questione è che "masticano" DX12 ed è stato cancellato il gap di differenza di rendimento tra pascal e vega proprio su codice DX12.
... ma propriamente il fatto che queste schede sono DX12 in HW, e il tipo di DX12 che oggi contano...

Quindi compriamole dannazione!:read:

Sul serio, bisogna aspettare le recensioni e magari Navi.
Avendo un i5 4690K queste gpu me le posso dare in faccia, di cambiare tutto il sistema non se ne parla.

calabar
24-08-2018, 11:12
sto nuovo RTX che relega GCN finalmente alla preistoria dove doveva essere prima di Polaris ti è indigesto, eh?
Certo che anche tu con le sparate non sei da meno, eh! :asd:

Se consideri l'assunto della tua affermazione, Turing supporta solo ora ciò che GNC supporta da anni, il che la dice tutta su chi fosse più avanti, altro che preistoria.
Probabilmente il problema di GNC è che AMD non ha mai avuto la forza commerciale per farla sfruttare a dovere, e di conseguenza certe scelte sono diventate una zavorra.

quindi se non supporta ray tracing Nvidia sarà avanti ancora x almeno 3 anni, ma forse anche 5.
Si è "avanti" di anni quando alla concorrenza servono anni per raggiungere il tuo livello tecnologico, ma non mi sembra questo il caso: AMD come nVidia partecipa alla creazione di queste tecnologie, per esempio entrambe fanno parte del gruppo di lavoro per le DX12 Raytracing.
Se AMD dovesse decidere di non utilizzare il Raytracing sulle proprie schede lo farà probabilmente per motivi commerciali, non tecnologici. Magari sbagliando, possibilissimo, ma non certo perchè questa sia una tecnologia nVidia che AMD deve ancora concepire.

O forse credi che AMD viva fuori dal mondo e non si renda conto delle evoluzioni del suo settore? Suvvia, non siamo sciocchi.

CrapaDiLegno
24-08-2018, 14:14
Turing supporta cosa di GCN?
Forse non ti sei accorto che da maxwell in poi a parità di spazio e risorse di calcolo le architetture Nvidia vanno di più senza richiedere lavoro extra. Che svantaggio sarebbe questa cosa per cui con meno silicio e meno energia Nvidia fa più lavoro?

Le architetture si sviluppano in periodi di 3-4 anni. Se amd con navi si è concentrata esclusivamente a cercare di tirare fuori TFLOPS veri da tutti gli inutili teorici che ha allora rimarrà indietro di sicuro anche per i prossimi 3 anni minimo.

Vedremo con i 7nm cosa tirerà fuori dal cilindro. Per ora Nvidia è avanti 2 giri.

lucusta
24-08-2018, 15:42
@lucusta
Hai scritto un sacco di fregnacce inutili.
Ora non ho tempo di spiegarti come funziona l'AC su Pascal

non ci perdere neanche tempo.
ti leggo da troppi anni per sperare che hai qualcosa di sensato da scrivere, quindi salterei a piè pari.

come ho già scritto il tempo dimostrerà la questione:
il 20 escono le recensioni e, probabilmente, i dettagli dell'architettura.
i risultati mostreranno se turing ha i requisiti per DX12, requisiti che pascal non aveva, visto che non riesce ad essere ugualmente superiore alle architetture AMD in giochi esplicitamente dichiarati DX12 come riesce in quelli DX11;
i soliti 5 o 6 giochi che i fan AMD portano ad esempio e che quelli nvidia li tacciano di ottimizzazione pro AMD, quando è esclusivamente l'uso della API a fare la differenza.
se questa non è una chiara indicazione che nvidia ha aggiornato l'HW delle sue schede rendendole più sfruttabili con le DX12, io non saprei proprio come convincervi (oltretutto poco mi'importa).


a me sembra invece che la questione, per voi, non è come vanno e cosa fanno queste schede, ma che, sotto sotto, vi siete già resi conto che quelle che avete nel case sono già da buttare, quindi vi state arrampicando sugli specchi sperando che nvidia non vi abbandoni troppo presto e non confermi quello che "i soliti fanboys AMD" sostengono: siete mucche da mungere e nvidia vi si scorda ad ogni nuova generazione.

ma è un problema vostro, non tecnologico.

lucusta
24-08-2018, 15:58
Quindi compriamole dannazione!:read:

Sul serio, bisogna aspettare le recensioni e magari Navi.
Avendo un i5 4690K queste gpu me le posso dare in faccia, di cambiare tutto il sistema non se ne parla.

se oggi mi chiedono (come hanno già fatto) cosa comprare nell'immediato risponderei di sicuro no pascal, se hai i soldi RTX, se non ce l'hai accontentati di vega (sempre se la trovi a buon prezzo, ma stanno pian piano calando).

pascal, solo per il fatto di essere una passata generazione nvidia, la escluderei a priori, anche se te la tirano dietro, cosa che non hanno assolutamente intenzione di fare.
vogliamo riprendere i risultati eclatanti di maxwell oggi, guardando i quello che ha ottenuto in 2 anni dalla commercializzazione di pascal per capire come si è sempre mossa nvidia?

c'è gente che al tempo prese le 970 dietro consiglio di una nota testata giornalistica allo stesso prezzo delle 480 4GB.
ora si accontentano di continuare a giocare a GTA V (che poi, ben venga per loro se non si annoiano, naturalmente).

qualche settimana fa sulla nota rivista di prima hanno fatto un confronto tra 480 (non si capisce se 4 o 8 GB) e 1060 6GB cercando di smontare questa questione...
la 1060 6GB ha ricevuto il 15% d'incremento su hitman grazie ai driver.
ho un'amico con una 970 e abbiamo testato su hitman la differenza su questa: anche se solo di una bazzecola di punti percentuali va peggio con i nuovi driver rispetto a quelli di 2 anni fa.

il progresso avanza.
non consiglierei mai a qualcuno di acquistare un HW dopo un salto tecnologico del genere... un conto un refresh dell'architettura, anche se poderosamente pompato, un conto è il totale cambio di architettura.
ti si scordano appena hanno venduto l'ultima in magazzino.

lucusta
24-08-2018, 16:05
Turing supporta cosa di GCN?
Forse non ti sei accorto che da maxwell in poi a parità di spazio e risorse di calcolo le architetture Nvidia vanno di più senza richiedere lavoro extra. Che svantaggio sarebbe questa cosa per cui con meno silicio e meno energia Nvidia fa più lavoro?
eccerto... il resto stà sul software che gira sulla CPU...
poi si dice che le CPU fanno da bottleneck anche se vanno a 5Ghz o che sono "efficienti".
accidenti!
se per sistema efficiente devo qualificare un overclock al limite della tecnologia del silicio siamo a posto.
guarda che si gioca con l'intero PC non solo con la GPU, quindi il consumo è dell'intero PC, compresa la CPU a 5ghz...

sono anni che v'infinocchiano con questi test fatti a casaccio.

e tu eri quello che doveva spiegare a me come funziona AC su Pascal?
ma se ci riesci con un ragionamento logico ti dò io una laurea, ad onorem.

calabar
24-08-2018, 19:26
Turing supporta cosa di GCN?
Eh ma se mi scrivi così mi dici che non hai neppure capito il discorso che tu stesso stavi facendo. ;)

Comunque GNC era avanti rispetto a Pascal sul binding delle risorse (e ancora di più lo era sulle architetture precedenti), si parlava di questo, no? Ora locusta ha supposto che con Turing nVidia abbia eliminato le ultime limitazioni della sua architettura in relazione a questo aspetto.

... le architetture Nvidia vanno di più senza richiedere lavoro extra.
In realtà la flessibilità di avere risorse unbinded è una manna per i programmatori (altro che lavoro extra), peccato che nVidia sia arrivata così in ritardo su questo.

Le architetture si sviluppano in periodi di 3-4 anni.
Ripeto: tu credi che AMD non conosca l'ambiente in cui opera e non abbia realizzato nulla nella direzione in cui sta andando il mercato? Suvvia... :rolleyes:

guarda che si gioca con l'intero PC non solo con la GPU, quindi il consumo è dell'intero PC, compresa la CPU a 5ghz...
Ora però non ricominciamo con la favola delle nVidia che necessitano di super CPU, l'hai sempre buttata li ma non hai mai portato uno straccio di prova.
Di norma a questo punto un utente intellettualmente onesto evita di parlarne ancora, ma vedo che tu insisti.
Porta prove concrete se esistono, poi avrai i giusti argomenti per tirare fuori la questione.

bagnino89
24-08-2018, 19:37
Ora però non ricominciamo con la favola delle nVidia che necessitano di super CPU, l'hai sempre buttata li ma non hai mai portato uno straccio di prova.
Di norma a questo punto un utente intellettualmente onesto evita di parlarne ancora, ma vedo che tu insisti.
Porta prove concrete se esistono, poi avrai i giusti argomenti per tirare fuori la questione.

Aspetta e spera allora, continuerà con questa favoletta per tutti i secoli dei secoli.

giovanbattista
24-08-2018, 20:05
...

scala un paio di marce;)