PDA

View Full Version : NVIDIA GeForce RTX 2080 e RTX 2080Ti Founder's Edition: test e prestazioni


Redazione di Hardware Upg
19-09-2018, 14:01
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/5259/nvidia-geforce-rtx-2080-e-rtx-2080ti-founder-s-edition-test-e-prestazioni_index.html

Sono le prime due schede basate su architettura NVIDIA Turing a giungere in redazione, caratterizzate dal supporto al Ray Tracing. Le specifiche tecniche elevatissime permettono di ottenere prestazioni sempre molto elevate, anche a 4K: il design delle nuove Founder's Edition è inoltre molto particolare ed altrettanto efficiente


Click sul link per visualizzare l'articolo.

Paolo78
19-09-2018, 14:18
Sinceramente visto il prezzo delle nuove schede, le prestazioni non sono così esaltanti per fare il passaggio dalla famiglia GTX 1000 alle nuove RTX 2000, il Ray Tracing ancora troppo acerbo per utilizzarlo...
Sarà per la prossima generazione..

Spider-Mans
19-09-2018, 14:19
mhm leggermente deludenti o sbaglio...cioe
la 2080 è sui livelli della 1080ti...non ha senso per chi ha la 1080ti

la 2080ti pensavo andasse molto meglio....dov e il 40-50% ?
a 1300 euro ma scherziamo :p

resto felicemente con la mia 1080ti

rtx è roba che sara accessibile fra 3 o 4 anni a 4k...ora giocare con rtx on solo in fullhd sarebbe retrogaming per chi è abituato alla definizione dei 4k

bagnino89
19-09-2018, 14:21
Pensavo meglio sinceramente, in pratica la 2080 va come la 1080 Ti. I prezzi non giustificano assolutamente l'incremento di prestazioni - senza considerare RT e DLSS, ovviamente.

Per RT vedremo tra qualche mese - ma il costo prestazionale sarà sicuramente molto pesante - mentre DLSS sembra interessante, ma da valutare meglio.

Anche i consumi non scherzano, ma i chip sono grandi e c'era da aspettarselo.

Cfranco
19-09-2018, 14:22
La 2080 non ha alcun senso, va come la 1080ti ma costa di più :mc:

igiolo
19-09-2018, 14:22
hmmmmmm
credevo ed auspicavo ad un delta con la 1080Ti maggiore.
un 30% netto SEMPRE tipo
alla fine invece hanno mantenuto il "tradizionale" delta tra una gen e l'altra (la GTX che va come la Ti), ma il problema stavolta è l'aumento del 50% nel prezzo.
sarà che turing, gddr6 ecc ecc... anche mettendoci la scommessa "RT", 'nzomma
aspettiamo i bench tra un paio di mesi con i vari titoli RT

Levax
19-09-2018, 14:38
Negli ultimi anni ho fatto l'upgrade da una scheda x70 alla successiva guadagnando un 50-60% di prestazioni almeno e spendendo sui 350-400 euro. Adesso per avere lo stesso salto dalla 1070 devo spendere almeno 800 euro per una 2080. Direi ottimo.

Vul
19-09-2018, 14:42
Turing riassunto: hai un monitor 4k e vuoi disperatamente maxare tutto e te lo puoi permettere? 2080ti.

Per chiunque altro è meglio upgradare a Pascal, usato o nuovo, risparmiando tanti soldi e avendo pressapoco le stesse prestazioni.

Daytona
19-09-2018, 14:52
ma quanto sono migliorate con i driver le VEGA !!!!!!


:D :cool:

MadMax of Nine
19-09-2018, 15:05
Il sistema utilizzato nei test vede processore Intel Core i7-8700K, 16 Gbytes di memoria di sistema DDR4-2400 e scheda madre con chipset Intel Z370.

:D Lo sapevo :read:

Ma mi spiegate che problema avete con le RAM ? :sofico:

Bestio
19-09-2018, 15:06
Direi che posso aspettare con calma la 3080, la 2080TI è ampiampiamente sopra le mie possibilità, (e l'incremento prestazionale non è abbastanza marcato da farmi impazzire la scimmia e farmi fare il passo estremamente più lungo della gamba) e passare dalla 1080ti alla 2080 liscia non ha senso. :fiufiu: :mc:
Al limite se trovo una buona 1080ti ibrida/AIO usata potrei rifare un pensierino allo SLI. (se si decidono a rispondermi per l'RMA dell'HCP1300p)

TigerTank
19-09-2018, 15:08
Per essere buone, sono buone ma sinceramente trovo che la recensione sia troppo pro parte. Io sinceramente come prima impressione non le trovo un passo in avanti come definito, anzi sono d'accordo con quanto scritto da alcuni altri utenti sopra. Direi che forse il passo in avanti maggiore(o forse sarebbe meglio dire "passo più lungo della gamba") sia nel rincaro spropositato rispetto ad un incremento prestazionale meno miracoloso di quanto dichiarato nella fase di hype.
Cosa che di sicuro per molti non sarà affatto un incentivo a passare alla 4K, ma piuttosto nel restare a risoluzioni inferiori per avere margine prestazionale senza dover spendere tali cifre.

Certo qualcuno potrebbe dire "sono costose come produzione" ma ai più degli acquirenti è cosa che non interessa, questi sono problemi di chi produce.

Predator_1982
19-09-2018, 15:08
Il sistema utilizzato nei test vede processore Intel Core i7-8700K, 16 Gbytes di memoria di sistema DDR4-2400 e scheda madre con chipset Intel Z370.

:D Lo sapevo :read:

Ma mi spiegate che problema avete con le RAM ? :sofico:

è il componente la cui velocità ha influenza praticamente 0 sulle prestazioni in-game

3000
19-09-2018, 15:10
Rispetto alla generazione precedente:
circa il 50% di aumento del prezzo
e
circa il 25% di aumento delle prestazioni.
Quando invece DA CHE MONDO è MONDO, con le new gen si aveva un aumento di prestazioni del 25% mantenendo il costo della scheda all'incirca lo stesso della serie precedente.
WAKE UP!
NON COMPRATENE "NEANCHE UNA" della serie 2xxx
e possiamo esser certi che la serie 3xxx avrà gli stessi prezzi della serie 1xxx.

MadMax of Nine
19-09-2018, 15:14
è il componente la cui velocità ha influenza praticamente 0 sulle prestazioni in-game
Dipende, in 4K influenza poco, ma in situazioni in cui serve anche CPU come 1% e i 0.1% low la ram la puoi sentire, poi a 1080p per build 144hz si nota.
Ma e' una question di principio, per testare solo le GPU si deve far in modo di escludere quasi completamente qualsiasi collo di bottiglia seppur minimo, non dico di usare delle 4600, ma delle 3200/3600 direi proprio che ci stavano...

Bestio
19-09-2018, 15:17
Rispetto alla generazione precedente:
circa il 50% di aumento del prezzo
e
circa il 25% di aumento delle prestazioni.
Quando invece DA CHE MONDO è MONDO, con le new gen si aveva un aumento di prestazioni del 25% mantenendo il costo della scheda all'incirca lo stesso della serie precedente.
WAKE UP!
NON COMPRATENE "NEANCHE UNA" della serie 2xxx
e possiamo esser certi che la serie 3xxx avrà gli stessi prezzi della serie 1xxx.

Concordo in pieno, il motivo per cui nVidia può permettersi di fare certi prezzi è grazie alla sua attuale posizione di monopolio, ma se tutti continuiamo a stare zitti e cacciare il grano, sarà sempre peggio! :cry:

Paolo78
19-09-2018, 15:20
Rispetto alla generazione precedente:
circa il 50% di aumento del prezzo
e
circa il 25% di aumento delle prestazioni.
Quando invece DA CHE MONDO è MONDO, con le new gen si aveva un aumento di prestazioni del 25% mantenendo il costo della scheda all'incirca lo stesso della serie precedente.
WAKE UP!
NON COMPRATENE "NEANCHE UNA" della serie 2xxx
e possiamo esser certi che la serie 3xxx avrà gli stessi prezzi della serie 1xxx.
GIUSTO!
Spero vivamente ad un ritorno sui prezzi "normali", inoltre spero che ci sia più competizione, forza AMD svegliati...

ningen
19-09-2018, 15:31
Costano troppo e sono tutt'altro che indispensabili in questo preciso istante. Bello il Raytracing e balzo prestazionale decente (ma niente per cui strapparsi i capelli), ma mancando le applicazioni che le sfruttano a dovere (ringraziamo le care vecchie carrette console), rimane tutto bello sulla carta proprio come le ormai famigerate Dx 12, di cui ancora aspetto l'uso intensivo che qualcuno farneticava qualche anno fa.

tuttodigitale
19-09-2018, 15:50
Costano troppo e sono tutt'altro che indispensabili in questo preciso istante. Bello il Raytracing e balzo prestazionale decente (ma niente per cui strapparsi i capelli), ma mancando le applicazioni che le sfruttano a dovere (ringraziamo le care vecchie carrette console), rimane tutto bello sulla carta proprio come le ormai famigerate Dx 12, di cui ancora aspetto l'uso intensivo che qualcuno farneticava qualche anno fa.

sulle dx12 non darei colpa alle console...queste usano librerie a basso livello fin dalla loro introduzione e il motivo è proprio dovuto alla scarsa potenza del processore: l'ipc nel ST di piledriver è circa 10% superiore a quella dei core kabini e viaggiano a 1,6GHz nella ps4. Sono costretti a fare codice che sia ben distribuito sui i diversi core...

se proprio vogliamo puntare il dito, cerchiamo le possibili spiegazioni del mantenimento dello status quo:
DX12, l'aumento di complessità non vale il guadagno prestazionale
obiezione fatta da koduri a suo tempo....le librerie Vulkan/openGL e DX12 console/PC sono simili. E le software house sono costrette per produrre giochi per le scatolette ad utilizzarle in modo massiccio.

il problema potrebbe anche essere di natura hardware....una architettura che può essere anche 10volte più lenta nel multitasking potrebbe aver influito sulla diffusione delle dx12:read:

Marko#88
19-09-2018, 15:56
Sulle prestazioni nulla da dire... ma sui soldi che servono per fare un vero upgrade non ci siamo proprio.

noiman
19-09-2018, 16:02
Sono buone come prestazioni, visto la totale assenza di concorrenza. Non potevo certo aspettarmi incrementi alti. Per chi ha una 1080 ti non ha senso, ma per chi ha una 1080, ci sta il cambio. Naturalmente avendo disponibilità economiche.

Soulbringer
19-09-2018, 16:19
Se consideriamo il passaggio dai 16 ai 12nm, l'incremento prestazionale è ottimo.
Ma alla luce dei prezzi, queste schede sono una delusione unica! Complimenti ad nvidia che riesce sempre ad alzare l'asticella "creando" nuove fasce dal nulla!

Io aspetto tranquillo la prossima generazione con la mia 1080ti ma, mi spiegate che senso ha una 2080 che va come una vecchia ti ma costa di più?
Poi la 2080ti non si può proprio vedere, 1300€ per una scheda che va il 25% più della precedente generazione che costava più o meno la metà...

Per anni la progressione del mercato gpu è sempre stata che con la stessa cifra spesa, alla successiva generazione si aumentavano le prestazioni rimanendo nella stessa fascia...adesso invece si scende di fascia e ci si perde pure di prestazioni. No comment!

MadMax of Nine
19-09-2018, 16:22
Dipende, in 4K influenza poco, ma in situazioni in cui serve anche CPU come 1% e i 0.1% low la ram la puoi sentire, poi a 1080p per build 144hz si nota.
Ma e' una question di principio, per testare solo le GPU si deve far in modo di escludere quasi completamente qualsiasi collo di bottiglia seppur minimo, non dico di usare delle 4600, ma delle 3200/3600 direi proprio che ci stavano...

Tra l'altro dalle varie review un po piu' tecniche che stanno girando pare che anche 1440p ci siano dei colli di bottiglia con il 8700K @ 5GHz e ram a 3400...

xxxyyy
19-09-2018, 16:26
Belle schede per la nuova tecnologia che portano.
Assolutamente fuori mercato il prezzo... che comunque le fara' vendere a bizzeffe. :rotfl:

Io sono falice e' pacifico, niente scimmie varie, essendo in attesa di una scheda che mi faccia 120fps in 8K "equivalenti" (realta' virtuale), con Raytracing. Dite che, tra 4 anni, due 4080Ti in Sli che la faranno?

TigerTank
19-09-2018, 16:29
Inoltre a quanto pare partono con dei problemi energetici da fixare, vedi recensioni sulle FE di TechPowerUP.

sgrinfia
19-09-2018, 16:29
Sono buone ma non riescono nelle promesse (a caro prezzo $) , sponsorizzate per l'RTX a 720P ......:doh:

majinbu7
19-09-2018, 17:00
Le prestazioni sarebbero anche buone, ma se le rapportiamo all'esborso richiesto ...beh allora per me è un bel flop.

benderchetioffender
19-09-2018, 17:37
:rotfl:

Sinceramente visto il prezzo delle nuove schede, le prestazioni non sono così esaltanti per fare il passaggio [...]

mhm leggermente deludenti o sbaglio...[...]

Pensavo meglio sinceramente[...]

hmmmmmm
credevo ed auspicavo ad un delta con la 1080Ti maggiore.
un 30% netto SEMPRE tipo[...]

non per ridere di voi eh, percarità
parlo solo per esperienza storica (vista l'età) e consiglio di prendere SEMPRE molto con le pinze i dati delle presentazioni
io sospettavo fortemente che fossero questi i risultati e lo dissi in altri lidi gia ai tempi dei rumors: consolidamento prestazioni 4k e RT per attirare qualche Early adopter (pollo o meno che risulti, dipende dai punti di vista)

Sicuramente RTX apre nuovi scenari computazionali e grafici, ma d'altronde mica possono fare una scheda che vada il doppio secco
i prezzi riflettono solo una situazione di monopolio tecnologico -de facto- e dal fatto che han venduto schede a prezzo perfino aumentato con la scusa del mining - che IMHO ha influito ma molto fin là, han cominciato a tirare su i prezzi, han visto che vendevano comunque (anche nel canale gaimng) perciò perchè non buttarla li.. ci provano, sicuramente non venderanno i volumi di Pascal e quindi i prezzi scenderanno lentamente (molto lentamente, ricordiamo il monopolio vale ancora)

PS: posso dire solo una opinione civettuola? IMHO le custom son sempre tamarre ma le FE edition sono brutte assai questo giro

Telstar
19-09-2018, 17:46
Turing riassunto: hai un monitor 4k e vuoi disperatamente maxare tutto e te lo puoi permettere? 2080ti.

Yes.

Per chiunque altro è meglio upgradare a Pascal, usato o nuovo, risparmiando tanti soldi e avendo pressapoco le stesse prestazioni.

Maybe.
Aspettiamo di vedere prestazioni e street price della 2070.

Mparlav
19-09-2018, 18:04
Le prestazioni, dopo 1.5-2 anni, sono più o meno in linea con le aspettative.
Per il Ray Tracing è inevitabile l'impatto prestazionale sulla prima generazione di schede, è sempre stato così con le innovazioni.
Per me resta la critica sul prezzo: siamo intorno al +30% da 1080 a 2080 e da 1080ti a 2080Ti nelle prestazioni in 4K, ma i prezzi salgono minimo del 50%

Telstar
19-09-2018, 18:29
Il DLSS si comporta molto bene però, e sarà presto disponibile sui titoli AAA.

HwWizzard
19-09-2018, 18:31
Yes.



Maybe.
Aspettiamo di vedere prestazioni e street price della 2070.

Qui siamo di fronte o ad un epic fail o a una presa per il :ciapet: stile intel da parte di invidia, ma vedendole girare a 2ghz propenderei per la prima opzione.
2080 costa più della 1080Ti è OC di fabbrica per riuscire a stare davanti un pelino alla 1080Ti.
La 2080Ti improponibile proprio costando 2 1080Ti quindi anche scalando da cani lo SLI faccio 2 1080Ti tutta la vita.
La 1070 poi ancora più inutile visto che costa come la 1080Ti ma andrà decisamente meno.
RT lasciamo stare che è utile come un :ciapet: senza il buco.
L'unica cosa positiva è che AMD per recuperare terreno stile Ryzen deve fare un passo più corto di quello che si temeva. Se non steccano in pieno possono tranquillamente andare a contrastare la 2080Ti così da far infilare nel :ciapet: a Huang quel prezzo assurdo di 1200Eur

bagnino89
19-09-2018, 18:37
Il DLSS si comporta molto bene però, e sarà presto disponibile sui titoli AAA.

Da valutare con attenzione, e caso per caso.

calabar
19-09-2018, 18:55
Beh direi che hanno rispettato le attese: c'è un certo salto di prestazioni (tutto sommato discreto, visto il salto limitato nel processo produttivo) ma non giustifica il considerevole aumento del costo di queste schede, soprattutto se si considera che le nuove tecnologie al momento non sembrano garantire risultati realmente soddisfacenti.

A tal proposito mi stavo chiedendo: abbiamo visto che le prestazioni in Ray Tracing sono quel che sono, ma il collo di bottiglia dove sta?
Se nei giochi tradizionali abbiamo le unità RT a braccia conserte, accade lo stesso con i cuda core quando si utilizza il Ray Tracing? Verrebbe da pensarlo perchè di fatto la scena è rasterizzata a bassa risoluzione (quindi, teoricamente, ampiamente alla portata dell'hardware) ma alla fine gli FPS sono pochi (unità RT insufficienti?).
In altre parole le schede sembrano sbilanciate verso il rendering tradizionale, cosa che di fatto le rende poco fruibili in Ray Tracing.

Un'altra cosa: ho letto un po' di fretta la parte relativa alle prestazioni, ma i test sono stati fatti con l'antialising tradizionale o con il nuovo DLSS?
Suppongo che sia il primo caso, e dato che il DLSS è calcolato dai tensor core e non impatta quindi sulle prestazioni, il divario con le vecchie schede potrebbe aumentare, il che è sicuramente una dato positivo per nVidia.
Il secondo caso del resto sarebbe un bel disastro, l'aumento di prestazioni a parità di condizioni sarebbe ulteriormente ridotto e apparirebbe decisamente deludente.


Due note dolenti per questa review:
- troppi grafici "riparametrati", quasi a voler far apparire le prestazioni migliori di quelle che sono.
- deludente l'analisi rispetto alle precedenti generazioni, che di fatto ha solo letto e commentato i numerini delle schede tecniche. Il titolo della pagina mi ha fatto sperare in un'analisi sull'evoluzione dell'architettura che rispondesse a domande più "interessanti", per esempio come si è evoluto il supporto alle diverse tecnologie promosse da DX12 e Vulkan nelle varie generazioni, magari includendo anche un confronto con la concorrenza.


i prezzi riflettono solo una situazione di monopolio tecnologico -de facto- e dal fatto che han venduto schede a prezzo perfino aumentato con la scusa del mining - che IMHO ha influito ma molto fin là, han cominciato a tirare su i prezzi, han visto che vendevano comunque (anche nel canale gaimng) perciò perchè non buttarla li.. ci provano, sicuramente non venderanno i volumi di Pascal e quindi i prezzi scenderanno lentamente (molto lentamente, ricordiamo il monopolio vale ancora)
Esattamente. Secondo me non avrebbero avuto il coraggio di sparare così alto se non avessero avuto prima la conferma che la gente era disposta a spendere cifre folli.
Purtroppo l'aumento dei prezzi a causa del mining ha avuto anche questa pessima conseguenza.

Oltretutto in nVidia hanno pure preso due piccioni con una fava: con i prezzi tanto alti in questa generazione possono evitare di svendere la sovraproduzione di schede pascal che si sono ritrovati a causa del calo del mercato legato al mining.

L'unica cosa positiva è che AMD per recuperare terreno stile Ryzen deve fare un passo più corto di quello che si temeva. Se non steccano in pieno possono tranquillamente andare a contrastare la 2080Ti così da far infilare nel a Huang quel prezzo assurdo di 1200Eur
Sicuramente le scelte di nVidia aprono qualche porta in più ad AMD, ma la tua teoria è troppo ottimistica.
AMD non sta uscendo ora con le nuove schede gaming, uscendo l'anno prossimo e sui 7nm dovrà tirare fuori qualcosa che sia competitiva con la prossima generazione nVidia a 7nm (che probabilmente uscirà qualche mese dopo), non con questa.

goku4liv
19-09-2018, 19:18
PREZZO STELLARE = SCAFFALE STARE..

goku4liv
19-09-2018, 19:24
PS..... ma se la serie 2000 ha sti prezzi la prossima 3000 la fascia media partira' da 1000 dollari e le top sui 1600 1800 dollari ?

MiKeLezZ
19-09-2018, 20:07
1249 euro... che burloni... :stordita:
per giocare a...?
ci risentiamo ai 249 euro... a presto :ciapet:

nickname88
19-09-2018, 20:09
Direi in perfetta linea con le aspettative
Considerando poi i drivers acerbi la performance è anche migliore del previsto.

https://tpucdn.com/reviews/NVIDIA/GeForce_RTX_2080_Founders_Edition/images/relative-performance_2560-1440.png


Performance per watt anche superiori alle precendenti:

https://tpucdn.com/reviews/NVIDIA/GeForce_RTX_2080_Founders_Edition/images/performance-per-watt_2560-1440.png

AceGranger
19-09-2018, 20:21
Qui siamo di fronte o ad un epic fail o a una presa per il :ciapet: stile intel da parte di invidia, ma vedendole girare a 2ghz propenderei per la prima opzione.
2080 costa più della 1080Ti è OC di fabbrica per riuscire a stare davanti un pelino alla 1080Ti.
La 2080Ti improponibile proprio costando 2 1080Ti quindi anche scalando da cani lo SLI faccio 2 1080Ti tutta la vita.
La 1070 poi ancora più inutile visto che costa come la 1080Ti ma andrà decisamente meno.
RT lasciamo stare che è utile come un :ciapet: senza il buco.
L'unica cosa positiva è che AMD per recuperare terreno stile Ryzen deve fare un passo più corto di quello che si temeva. Se non steccano in pieno possono tranquillamente andare a contrastare la 2080Ti così da far infilare nel :ciapet: a Huang quel prezzo assurdo di 1200Eur

cioè, nVidia ha aumentato del 25% le prestazioni con un pp molto simile ai 16nm, il che vuol dire che AMD dovra farsi il 25% fra VEGA e la 1080Ti + il 25% della 2080Ti + fai tranquillamente un'altro 25% delle future nVidia sui 7nm
visto che, prima lanceranno VEGA 20 ( che sara solo HPC ), poi lanceranno gli EPYC, ho idea che NAVI prima del Q3 non la vedremo; quindi non so quanto sara il vantaggio di AMD con i 7nm, ammesso che riescano a tirare fuori un +75%.

il lato positivo lo vedi solo tu... visto che nVidia rimarra da sola per 9 mesi abbondanti, sommati ovviamente all'attuale scoperto della fascia alta....

se poi arrivera prima ben venga, ma dubito seriamente che AMD riesca a lanciare VEGA 20, EPYC e NAVI nei primi 6 mesi del 2019.

Ale55andr0
19-09-2018, 23:04
cioè, nVidia ha aumentato del 25% le prestazioni con un pp molto simile ai 16nm, il che vuol dire che AMD dovra farsi il 25% fra VEGA e la 1080Ti + il 25% della 2080Ti + fai tranquillamente un'altro 25% delle future nVidia sui 7nm


si, il 25% sullo stesso pp ma con padelloni grandi quanto? "facile" così :asd:

AceGranger
19-09-2018, 23:22
si, il 25% sullo stesso pp ma con padelloni grandi quanto? "facile" così :asd:

si ma il 25% non lo fa con tutto quel silicio.... se ci aggiungi la parte con il DLSS arrivi tranquillamente al 35-40%; e manca la parte RT.

è inutile girarsi dall'altra parte o far finta di non capire la situazione...
Turing è un'architettura di transizione, quindi sara, come tutti i prodotti di transizione, sfigata sotto molti aspetti.

I bench della prossima generazione saranno popolati da un buon numero di giochi con il DLSS e da qualche gioco RTX, e quindi leggerai % piu elevate.
se a questo giro fossero arrivati con un chip solo CUDA e con l'RT con le 3000, si sarebbero lette le stelle lamentele a vanvera con la prossima serie... quindi meglio ora, cosi ce le leviamo subito dai maroni :asd:

poi personalmente, preferisco avere una serie di GPU nuove dal rapporto prezzo/prestazioni peggiorato, piuttosto che rimanere altri 9 mesi almeno con GPU piu economiche ma vecchie di 2 anni.

DukeIT
19-09-2018, 23:38
L'alternativa non è tra avere la stessa tecnologia all'infinito a prezzi terreni o avere novità a prezzi marziani.
Dall'uscita delle prime GPU ho sempre visto aumento di prestazioni e nuove tecnologie (e questo non solo in ambito GPU), non è un regalo che oggi ci fa Nvidia.
I prodotti nuovi prendono il posto di quelli vecchi allo stesso prezzo, introducendo prestazioni migliori, altrimenti, ad oggi, le automobili costerebbero miliardi.
Il ragionamento che queste schede sono migliori delle precedenti e dunque debbono costare in proporzione di più, è una follia... e qui invece i prezzi sono addirittura saliti senza rispettare le proporzioni relative al boost prestazionale.

AceGranger
19-09-2018, 23:45
L'alternativa non è tra avere la stessa tecnologia all'infinito a prezzi terreni o avere novità a prezzi marziani.
Dall'uscita delle prime GPU ho sempre visto aumento di prestazioni e nuove tecnologie (e questo non solo in ambito GPU), non è un regalo che oggi ci fa Nvidia.
I prodotti nuovi prendono il posto di quelli vecchi allo stesso prezzo, introducendo prestazioni migliori, altrimenti, ad oggi, le automobili costerebbero miliardi.
Il ragionamento che queste schede sono migliori delle precedenti e dunque debbono costare in proporzione di più, è una follia... e qui invece i prezzi sono addirittura saliti senza rispettare le proporzioni relative al boost prestazionale.

si ma io mica ho scritto questa roba....


dopo di che, ognuno ha anche un po il suo metro per giudicare se il prezzo sia consono o meno a quello che offre la GPU.

calabar
19-09-2018, 23:54
È anche vero che normalmente se il prezzo di lancio di una certa schede della precedente generazione è, numero a caso, 500€, il suo prezzo pian piano scende e dopo una anno è, poniamo, di 350€. A quel punto viene naturale per la scheda corrispondente di generazione successiva essere nuovamente piazzata a 500€, ottenendo così l'aumento di prestazioni a parità di prezzo di cui si sta parlando. L'esempio è naturalmente una semplificazione.
Raramente l'uscita della nuova generazione provoca un evidente riassestamento del prezzo della precedente, questo succede quando il prezzo viene tenuto artificialmente alto (per esempio in quei mercati dove c'è poca concorrenza).
In questo caso comunque questo non solo non è avvenuto, si è avuto persino il trend contrario, con schede che si trovavano in vendita a prezzi ben superiore a quello di lancio. Il risultato è quello che abbiamo di fronte.

DukeIT
20-09-2018, 00:00
poi personalmente, preferisco avere una serie di GPU nuove dal rapporto prezzo/prestazioni peggiorato, piuttosto che rimanere altri 9 mesi almeno con GPU piu economiche ma vecchie di 2 anni.
Non dici proprio questo... ma quasi...

E anche quando dici che ognuno potrà giudicare se il prezzo è congruo all'offerta.

È naturale che un'azienda tecnologica abbia l'obbligo di innovare (ed in questo caso probabilmente si tratterà di innovazioni che non si godranno chi comprerà il prodotto in oggetto, come più volte successo in passato), ma questa politica dei prezzi è figlia della bolla dovuta ai miners ed alla momentanea mancanza di concorrenza, non ha alcun altra spiegazione logica o "tecnologica".

AceGranger
20-09-2018, 00:08
Non dici proprio questo... ma quasi...

E anche quando dici che ognuno potrà giudicare se il prezzo è congruo all'offerta.

È naturale che un'azienda tecnologica abbia l'obbligo di innovare (ed in questo caso probabilmente si tratterà di innovazioni che non si godranno chi comprerà il prodotto in oggetto, come più volte successo in passato), ma questa politica dei prezzi è figlia della bolla dovuta ai miners ed alla momentanea mancanza di concorrenza, non ha alcun altra spiegazione logica o "tecnologica".

si e quindi ?

se per te non è congruo e per me lo è, hai ragione tu :asd: ? o hanno ragione tutti e ognuno acquista un po il caz che gli pare ? chiaro che piacerebbe a tutti pagare di meno ma se questa è la situazione ognuno si fa un po i conti e decide.

DukeIT
20-09-2018, 00:16
si e quindi ?

se per te non è congruo e per me lo è hai ragione tu :asd: ? o hanno ragione tutti e ognuno acquista un po il caz che gli pare.
Non proprio.

Io dico che se la nuova Ford Fiesta costasse ogni volta decisamente di più di quanto costava quella precedente al lancio, adesso costerebbe come una villa.
Dico che tutto ciò è illogico ed è figlio degli aumenti indiscriminati dovuti ai miners ed alla mancanza di concorrenza.
Non dico solo che non è congruo.

Tu invece dici che non è vero e che per te è il prezzo giusto, vista l'offerta? Rispetto la tua opinione, anche se continuo a trovarla bizzarra.

AceGranger
20-09-2018, 00:29
Non proprio.

Io dico che se la nuova Ford Fiesta costasse ogni volta decisamente di più di quanto costava quella precedente al lancio, adesso costerebbe come una villa.
Dico che tutto ciò è illogico ed è figlio degli aumenti indiscriminati dovuti ai miners ed alla mancanza di concorrenza.
Non dico solo che non è congruo.

Tu invece dici che non è vero e che per te è il prezzo giusto, vista l'offerta? Rispetto la tua opinione, anche se continuo a trovarla bizzarra.

mmm no, dico che nella prima parte concordo con te, ma nella seconda, una volta che il prezzo è questo, non esiste il giusto e sbagliato... esiste il metro di paragone di ognuno.

nel mio caso ti dico che 1300 è pure economica per quello che fara :sofico:, certo, se la dovessi pagare 900 sarei piu felice ma visto che non ci sono alternative... preferisco pagarla 1300 piuttosto che dover aspettare il 2020...

Dragon2002
20-09-2018, 02:15
A me sembra un mezzo flop. Pascal al suo debutto era di gran lunga superiore alla precedente generazione,una serie 70,superava la scheda top e cioè la 980ti,qui per prendere la top bisogna prendere la serie 80 e il distacco è risicatissimo. Per non parlare del fatto che Pascal portava consumi e temperature di gran lunga inferiori e invece da questo punto di vista siamo tornati indietro ai tempi di maxwell e cioè a schede video di 4 anni fa. E con questi risultati tutt'altro che esaltanti che li hanno costretti ad uscire subito con il modello ti di punta,si sono pure permessi il lusso di alzare i prezzi. Amd non può non approfittarne con delle schede video finalmente degne della sua storia.

ShineOn
20-09-2018, 02:28
1300 euro per la 2080TI...tutta sta potenza bruta con la garanzia di esser limitati a 60fps in 4k su HDMI?

Come minimo, visto che l'hardware non è un problema, dovevano garantire di poter aggiornare (una volta possibile) via firmware ad HDMI 2.1.

Praticamente, all'uscita della prima tv con HDMI 2.1 il prossimo anno, queste 2080 saranno già osbolete.

lucusta
20-09-2018, 05:43
Anche i consumi non scherzano, ma i chip sono grandi e c'era da aspettarselo.

approposito di consumi...
hai visto che una Vega 56 in hitman a 4K ha l'identico valore prestazionale di una 1080 , ma che alla fine la differenza di consumo è di 20W in più, e tutto questo con una Vega tirata fuori dalla scatola e messa a benchare senza nessun tuning particolare?

hai visto, quindi, che la differenza di consumo quando si usano giochi adatti e si parametrizzano per le prestazioni sono molto meno marcate.

senza poi menzionare la questione che con un buon tuning la 56 consuma uguale e va il 10% in più, e solo una custom 1080 riuscirebbe a sargli dietro, ma non allo stesso consumo di una 1080 FE.

e hai anche visto che in hitman le vega 64 "out of the box" non superano i 400W per l'intero sistema, quando invece vengono spacciate per schede che superano i 400W SEMPRE.

e ti sei chiesto perchè oggi ti fanno vedere i consumi su hitman, che fino a ieri non l'avrebbero manco preso in considerazione per una cosa del genere?
forse perchè in questo modo un'architettura molto simile a Vega risente meno dei maltrattamenti mediatici e viene fuori che consuma SOLO UN PO' DI PIU' DI UNA PASCAL.

quando ti si dice che l'enorme efficienza di pascal rispetto alle AMD è nella maggior parte dei casi esclusivamente enfatizzata dalla condizione d'uso e dalla pubblicità mediatica che ci fanno sopra è la pura e semplice verità.
Vega consuma più di Pascal, ma non ti credere tanto di più se invece di prendere certi giochi ne prendi altri... dipende molto dal riferimento e dalle prestazioni che ottieni su quel riferimento ed è compito della stampa specializzata non fartelo notare e mandare avanti questa percezione di maggiore efficienza.

ma probabilmente sono cose che ti vengono difficili da capire, anche se al tempo ho speso tempo per spiegartele.

or aprendi una 2080 e mettila sotto i giochi che usavano prima per valutare il consumo (batman, the last of us, crysis), poi vediamo quanto consuma in più rispetto a pascal e vediamo come ti strappi i capelli dalla testa perchè arriva al limite del TDP dantoti 2 fps in più di una 1080 Ti.

apri gli occhi: ti fanno vedere solo quello per cui son pagati e nel modo in cui vuole il pagatore di turno.
chi paga di più vince.

lucusta
20-09-2018, 05:49
belle schede, costo alto.

tra sei mesi risulteranno ancora meglio, e non per RTrt e DSLL, ma perchè ci saranno giochi adatti a loro, gioci prettamente DX12.

notare il rapporto che c'è tra vega 64 e 1080 FE rispetto a 1080 TI FE e 2080.
dove vega va uguale alla 1080, anche la 2080 va più o meno uguale alla 1080 TI, dove è superiore, anche la 1080 risulta superiore, dove vega è inferiore, la 2080 subisce, il tutto condito tra varie risoluzioni ed i problemi o i miglioramenti della banda ram.

sono schede che adottano un'architettura più DX12 che DX11, e questo lo dimostrano i numeri.

PS:
@bagnino89, se ti avessero fatto vedere solo vecchi giochi DX11 e con un 7700K (come scandalosamente hanno fatto su tom, dove fino a ieri usavano l'8700K), avresti gridato allo scandalo, perchè per una manciata di fps in più ti stanno chiedendo il doppio del prezzo.

le cose non sono mai come vogliono fartele apparire sulle recenzioni, perchè l'onestà intellettuale ormai si è persa negli anni, in questo settore.
esistono solo le linee guida delle recensioni, da seguire o meno per chi paga di più (o tramite pubblicità, o favori o in soldi sonanti).
ormai è un settore totalmente macerato dal marketing.

lucusta
20-09-2018, 06:19
Tra l'altro dalle varie review un po piu' tecniche che stanno girando pare che anche 1440p ci siano dei colli di bottiglia con il 8700K @ 5GHz e ram a 3400...

e pensa che c'è chi le ha testate con un 7700K...

bisogna fare i salti mortali tra le varie review per riuscire ad avere un quadro realistico della situazione scevro dal marketing nvidia.
ricordiamoci che, come qualcuno ha giustamente ricordato, le Pascal sono e rimarrano in vendita per ancor aun bel pò, e che questi sono chipponi difficili da fare in grande tiratura, almeno per ora, quindi nvidia non ha nesuna utilità a far vedere le reali differenze tra Pascal e Turing, almeno finchè non ha venduto tutte le Pascal.

la gente è facilmente influenzabile dalla lunghezza di una stanghetta, sempre.

lucusta
20-09-2018, 06:23
Belle schede per la nuova tecnologia che portano.
Assolutamente fuori mercato il prezzo... che comunque le fara' vendere a bizzeffe. :rotfl:

Io sono falice e' pacifico, niente scimmie varie, essendo in attesa di una scheda che mi faccia 120fps in 8K "equivalenti" (realta' virtuale), con Raytracing. Dite che, tra 4 anni, due 4080Ti in Sli che la faranno?

se nvidia continua così direi di si, ma difficile che troverai giochi a 8K in RTrt, perchè li farebbero solo per te in esclusiva.
il mercato non può assorbire questi prezzi, e 10000 euro per giocare a 8k RTrt full frame saranno ad appannaggio di ben poche persone sull'intero pianeta.

andare avanti su questa linea significa semplicemente annientare il mercato videoludico PC, ridurlo al lumicino... e su poche persone si fanno ben pochi soldi, soprattutto se fai giochi.

HwWizzard
20-09-2018, 06:49
cioè, nVidia ha aumentato del 25% le prestazioni con un pp molto simile ai 16nm, il che vuol dire che AMD dovra farsi il 25% fra VEGA e la 1080Ti + il 25% della 2080Ti + fai tranquillamente un'altro 25% delle future nVidia sui 7nm
visto che, prima lanceranno VEGA 20 ( che sara solo HPC ), poi lanceranno gli EPYC, ho idea che NAVI prima del Q3 non la vedremo; quindi non so quanto sara il vantaggio di AMD con i 7nm, ammesso che riescano a tirare fuori un +75%.

il lato positivo lo vedi solo tu... visto che nVidia rimarra da sola per 9 mesi abbondanti, sommati ovviamente all'attuale scoperto della fascia alta....

se poi arrivera prima ben venga, ma dubito seriamente che AMD riesca a lanciare VEGA 20, EPYC e NAVI nei primi 6 mesi del 2019.

Per favore leggiamo bene quello che si quota, io ho detto che il passo dovrà essere più corto di quello che si temeva. Poi sul 25% di aumento vanno fatte tutte le considerazioni visto che è OC di fabbrica e tirato al limite e costa il doppio. Quindi confermo il mio giudizio di fail per questa generazione e presa per il :ciapet: lato prezzi. Purtroppo la colpa è anche di AMD che l'ulltima VGA decente oramai risale alla 7970...

nickname88
20-09-2018, 07:07
si, il 25% sullo stesso pp ma con padelloni grandi quanto? "facile" così :asd:
Grandi quanto ? Le nuove unità occupano quasi il 50% dello spazio. :asd:
TU104 nonostante ciò ha dimensione poco più grande di GP102 e va di più.

... e qui invece i prezzi sono addirittura saliti senza rispettare le proporzioni relative al boost prestazionale.La 2080 è salita di prezzo del 16% rispetto alla 1080 liscia eppure il boost mi sembra sia molto più marcato :rolleyes:

tuttodigitale
20-09-2018, 07:46
È anche vero che normalmente se il prezzo di lancio di una certa schede della precedente generazione è, numero a caso, 500€, il suo prezzo pian piano scende e dopo una anno è, poniamo, di 350€.
ma questo dipende più dai commercianti che dai produttori...
Le ultime schede che hanno condizionato il mercato (ma questo è stato condizionato ancora più dal mining) sono state di AMD: RX480 4GB proposte a 220 euro, quando la GTX970 3,5GB si trovava nei negozi almeno un centinaio in più.
E in misura assai minore VEGA 56, che ha visto l'introduzione della 1070ti allo stesso prezzo della 1070.

D'altronde senza concorrenza e con un marchio forte, non ha senso abbassare i prezzi.

tuttodigitale
20-09-2018, 07:47
Grandi quanto ? Le nuove unità occupano quasi il 50% dello spazio. :asd:
chi te l'ha detta questa stupidaggine?

Alekx
20-09-2018, 08:11
Cioe' fatemi capire i tes sono eseguiti a 3840 e 2560 risoluzionei che forse utilizzano il 10% dei giocatori ?

L'unica cosa che mi ha impressionato e' il prezzo pompato, per il resto secondo me chi oggi ha una scheda top di gamma di 2 anni puo' saltare tranquillamente questa generazione.

futu|2e
20-09-2018, 08:17
Cioe' fatemi capire i tes sono eseguiti a 3840 e 2560 risoluzionei che forse utilizzano il 10% dei giocatori ?

L'unica cosa che mi ha impressionato e' il prezzo pompato, per il resto secondo me chi oggi ha una scheda top di gamma di 2 anni puo' saltare tranquillamente questa generazione.

Ho l'impressione che la fascia bassa stia lentamente perdendo quote e il
full HD insegue questo trend.

AceGranger
20-09-2018, 08:19
Per favore leggiamo bene quello che si quota, io ho detto che il passo dovrà essere più corto di quello che si temeva.

il problema è quando arrivera Navi, perchè il passo è piu breve solo del 10% e non tiene conto del DLSS che, per quando uscira NAVI, sara gia bello che diffuso...

visto che è OC di fabbrica e tirato al limite e costa il doppio.

costa si, tirato direi proprio di no visti gli OC che raggiungono le schede.

Vul
20-09-2018, 08:22
Cioe' fatemi capire i tes sono eseguiti a 3840 e 2560 risoluzionei che forse utilizzano il 10% dei giocatori ?

L'unica cosa che mi ha impressionato e' il prezzo pompato, per il resto secondo me chi oggi ha una scheda top di gamma di 2 anni puo' saltare tranquillamente questa generazione.

E vorrei ben vedere, tolto Wildlands non c'è un singolo gioco dove la 2080ti non faccia 60 fps a 4k.

A che ti serve vedere 1080p?

bagnino89
20-09-2018, 08:41
approposito di consumi...
hai visto che una Vega 56 in hitman a 4K ha l'identico valore prestazionale di una 1080 , ma che alla fine la differenza di consumo è di 20W in più, e tutto questo con una Vega tirata fuori dalla scatola e messa a benchare senza nessun tuning particolare?

hai visto, quindi, che la differenza di consumo quando si usano giochi adatti e si parametrizzano per le prestazioni sono molto meno marcate.

senza poi menzionare la questione che con un buon tuning la 56 consuma uguale e va il 10% in più, e solo una custom 1080 riuscirebbe a sargli dietro, ma non allo stesso consumo di una 1080 FE.

Ah, aspettavo proprio i tuoi commenti notturni deliranti...

In quale universo parallelo una 1080 va come una Vega 56? Solo nel tuo mi sa.

La 56 va in media come una 1070 Ti e con questa la devi confrontare, mentre la 1080 va in media come una 64 e con questa devi confrontarla. Peccato che il sistema con Vega 64 consumi "solo" 118 W in più, un'inezia insomma.

Non parlare di cose che non conosci... Ma tanto che te lo dico a fare, continui a scrivere scemenze a prescindere. Almeno non quotarmi, no...

e hai anche visto che in hitman le vega 64 "out of the box" non superano i 400W per l'intero sistema, quando invece vengono spacciate per schede che superano i 400W SEMPRE.

Questo non so dove lo hai letto. Diamine, se una Vega 64 consumasse da sola più di 400 W ci sarebbe da preoccuparsi sul serio...

e ti sei chiesto perchè oggi ti fanno vedere i consumi su hitman, che fino a ieri non l'avrebbero manco preso in considerazione per una cosa del genere?
forse perchè in questo modo un'architettura molto simile a Vega risente meno dei maltrattamenti mediatici e viene fuori che consuma SOLO UN PO' DI PIU' DI UNA PASCAL.

Eh già, perché invece su un altro gioco Turing avrebbe consumato esageratamente di più di Pascal, vero? Perché non lo dimostri invece di blaterare cose a caso?

Media su svariati giochi DX11/12:

https://tpucdn.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_Founders_Edition/images/power_average.png

quando ti si dice che l'enorme efficienza di pascal rispetto alle AMD è nella maggior parte dei casi esclusivamente enfatizzata dalla condizione d'uso e dalla pubblicità mediatica che ci fanno sopra è la pura e semplice verità.
Vega consuma più di Pascal, ma non ti credere tanto di più se invece di prendere certi giochi ne prendi altri... dipende molto dal riferimento e dalle prestazioni che ottieni su quel riferimento ed è compito della stampa specializzata non fartelo notare e mandare avanti questa percezione di maggiore efficienza.

I consumi sono chiari: Vega 64 consuma solo 118 W in più di una 1080, che vuoi che siano?

ma probabilmente sono cose che ti vengono difficili da capire, anche se al tempo ho speso tempo per spiegartele.

Tu non hai spiegato un bel niente, parli solo per partito preso. Come al solito non porti uno straccio di prova per le tue congetture. Quanto non sopporto i complottisti come te... Ma del resto ce li ritroviamo pure a governare, quindi ormai è diventato uno status quo.

or aprendi una 2080 e mettila sotto i giochi che usavano prima per valutare il consumo (batman, the last of us, crysis), poi vediamo quanto consuma in più rispetto a pascal e vediamo come ti strappi i capelli dalla testa perchè arriva al limite del TDP dantoti 2 fps in più di una 1080 Ti.

apri gli occhi: ti fanno vedere solo quello per cui son pagati e nel modo in cui vuole il pagatore di turno.
chi paga di più vince.

Fammeli vedere 'sti consumi, che aspetti?

Suggerimento: i consumi del grafico di sopra sono mediati su una pletora di giochi DX11.

Tanto so già la tua risposta: Techpowerup? Al soldo di Nvidia, ovvio.

belle schede, costo alto.

tra sei mesi risulteranno ancora meglio, e non per RTrt e DSLL, ma perchè ci saranno giochi adatti a loro, gioci prettamente DX12.

Congettura. Nei giochi testati qui, e anche da altre testate, in DX12 gli equilibri non cambiano, ma tu ovviamente sai predire il futuro.

notare il rapporto che c'è tra vega 64 e 1080 FE rispetto a 1080 TI FE e 2080.
dove vega va uguale alla 1080, anche la 2080 va più o meno uguale alla 1080 TI, dove è superiore, anche la 1080 risulta superiore, dove vega è inferiore, la 2080 subisce, il tutto condito tra varie risoluzioni ed i problemi o i miglioramenti della banda ram.

sono schede che adottano un'architettura più DX12 che DX11, e questo lo dimostrano i numeri.

Ma dove, di grazia? Solo tu vedi questi presunti trend, senza capire una cosa molto semplice: DX11, DX12, Vulcan, di per sé non vogliono dire una mazza, la verità è che ogni gioco è sponsorizzato o da Nvidia o da AMD, e quindi a seconda dei casi ci saranno differenze più o meno marcate tra le schede di pari fascia.

Invece no, dobbiamo darci alle congetture più assurde...

PS:
@bagnino89, se ti avessero fatto vedere solo vecchi giochi DX11 e con un 7700K (come scandalosamente hanno fatto su tom, dove fino a ieri usavano l'8700K), avresti gridato allo scandalo, perchè per una manciata di fps in più ti stanno chiedendo il doppio del prezzo.

Questo è vero anche in DX12 e Vulcan, eh. Solo tu vedi cambiare trend, non so dove però...

le cose non sono mai come vogliono fartele apparire sulle recenzioni, perchè l'onestà intellettuale ormai si è persa negli anni, in questo settore.
esistono solo le linee guida delle recensioni, da seguire o meno per chi paga di più (o tramite pubblicità, o favori o in soldi sonanti).
ormai è un settore totalmente macerato dal marketing.

E' tutto un complotto, già. Siamo spacciati. L'umanità non ha speranze. Nvidia peggio di Skynet. Speriamo che AMD ci liberi tutti.

Alekx
20-09-2018, 08:45
E vorrei ben vedere, tolto Wildlands non c'è un singolo gioco dove la 2080ti non faccia 60 fps a 4k.

A che ti serve vedere 1080p?

Perche' magari ci gioca il 90% dei giocatori ?

Il problema e' che se poi testi questi mostri dal prezzo osceno a 1080P maxato vedrai che una 1070 o una vega ti bastano e vanzano tanto ripeto se fai 200 fps o 150 non ti cambia la vita se spendi 1300 contro 350 invece si.

In un recente sondaggio che avevo lanciato sui monitor con risoluzioni superiori al FHD, 2k o 4k e' venuto fuori che in FHD ci giocano in moltissimi, in 2k piu' di qualcuno, in 4k forse 2 o 3 giocatori. Certo non era fatto su scala mondiale :D

Marko#88
20-09-2018, 08:46
Cioe' fatemi capire i tes sono eseguiti a 3840 e 2560 risoluzionei che forse utilizzano il 10% dei giocatori ?

L'unica cosa che mi ha impressionato e' il prezzo pompato, per il resto secondo me chi oggi ha una scheda top di gamma di 2 anni puo' saltare tranquillamente questa generazione.

A) Schede video del genere non le prendi per il 1080
B) Più sali di risoluzione/effetti e meno impattano eventuali colli di bottiglia.

lucusta
20-09-2018, 08:49
Grandi quanto ? Le nuove unità occupano quasi il 50% dello spazio. :asd:
TU104 nonostante ciò ha dimensione poco più grande di GP102 e va di più.

La 2080 è salita di prezzo del 16% rispetto alla 1080 liscia eppure il boost mi sembra sia molto più marcato :rolleyes:

scusa se ti correggo, ma le nuove unità usano si e no il 5% del silicio.
è la questione che ci vuole preferibilmente un'architettura DX12 per farle funzionare a dovere che occupa spazio, ma anche pensata solo per il gaming in rasterizzazione (quello che speculiamo farranno le schede turing di gamma inferiore a 2070), e non più con la megacaches necessaria ad una PRO e RT e tensor core, ma solo ed unicamente DX12, alla fine il TU104 sarebbe diventato grande come il GP102.
anche prendendo in considerazione il fatto che la densità per transistor è scesa, ossia che hanno diramato maggiormente i transistors da pascal a turing, probabilmente per farlo correre di più, tra 545mm^2 e 472mm^2 ci passa il silicio per fare un'altro chip...
d'altra parte stai guardando un chip grande come il GP102 che viaggia senza particolari difficoltà a 2.1ghz, ed uno che è ben più grande che lambisce i 1900mhz... a confronto di TU104 il GP102 se li sogna i 2Ghz a consumi accettabili, e per il TU102 non ci sono riferimenti (schede prettamente gaming che possono essere overclockate)... la Titan V, GV100, è una cosa più unica che particolare.

per il prezzo la 1080 liscia è stata presentata a 699$ non a 800.
è da noi, in italia, che ha avuto inizialmente un prezzo di 800 euro, sceso a 770 il mese dopo... ma per lo street price di una 1080 parliamo di 650 euro per fine 2016 e tutto il 2017 (con punte di minimo di 540 euro verso metà 2017... la 1080 non è mai stata realmente presa in considerazione dai veri miner, ma solo dai miner che minavano per ripagarsela).
quindi parlamo comunque di molti soldi in più rispetto alla 1080.
ad oggi non sappiamo effettivamente il costo iniziale delle 2080... potresti ritrovartele a 900 e passa euro per il primo periodo.

RaZoR93
20-09-2018, 08:55
Perche' magari ci gioca il 90% dei giocatori ?

Il problema e' che se poi testi questi mostri dal prezzo osceno a 1080P maxato vedrai che una 1070 o una vega ti bastano e vanzano tanto ripeto se fai 200 fps o 150 non ti cambia la vita se spendi 1300 contro 350 invece si.

In un recente sondaggio che avevo lanciato sui monitor con risoluzioni superiori al FHD, 2k o 4k e' venuto fuori che in FHD ci giocano in moltissimi, in 2k piu' di qualcuno, in 4k forse 2 o 3 giocatori. Certo non era fatto su scala mondiale :DQueste GPU non sono destinate a quel 90%.
1080p è ormai fascia bassa.
Che senso ha dedicare GPU enthusiast a risoluzioni low end?

Alekx
20-09-2018, 09:01
A) Schede video del genere non le prendi per il 1080
Infatti ma se ancora e' la risoluzione regina quando il 2k, 4k o risoluzioni altissime saranno di largo consumo la 2080 sara' esposta in un museo.



B) Più sali di risoluzione/effetti e meno impattano eventuali colli di bottiglia.

Nessuno dice il contrario ma se prendiamo l'esempio degli anni passati alcune tecnologie innovative inserite in schede top di gamma sono diventate ad uso e consumo dopo qualche anno quando la scheda oramai la buttavi.
Il Rai Tracing vedrai che non vera' implementato Standard nei giochi se non tra qualche anno e la 2080 sara' oramai obsoleta.

Non dico che non sia un mostro ma dico solo che ad oggi secondo me e' da scaffale e la deve rimanere visti i prezzi da strozzino. ;)

Alekx
20-09-2018, 09:04
Queste GPU non sono destinate a quel 90%.
1080p è ormai fascia bassa.
Che senso ha dedicare GPU enthusiast a risoluzioni low end?

Sicuramente hai ragione, ma la massa e' quella che ti fa fare i soldi.
Poi secondo me vedrai in quanti compreranno la 2080 e ci giocheranno in fhd. ;)

futu|2e
20-09-2018, 09:07
Un pc nuovo con la 2080 fa presto a costare 2000€ escluso un monitor 2k.
Il concetto di massa è al di fuori di questo tipo di mercato. 2000€ sono
una ps4 pro + one x + switch + 15 giochi. A chi sarebbero destinati ste
macchine se non a quei 4 fissati con pc gaming con tutti questi soldi da
investirci.

AceGranger
20-09-2018, 09:14
scusa se ti correggo, ma le nuove unità usano si e no il 5% del silicio.


da dove deriverebbe il calcolo ?

nickname88
20-09-2018, 09:40
scusa se ti correggo, ma le nuove unità usano si e no il 5% del silicio.
è la questione che ci vuole preferibilmente un'architettura DX12 per farle funzionare a dovere che occupa spazioOltre al cambio di anatomia dei tensor cores, ora c'è anche un RT core per ogni cluster a dire il vero.

per il prezzo la 1080 liscia è stata presentata a 699$ non a 800.
1080 599$
2080 699$
Differenza : 16%
Differenza di performance : 38% ( escludendo DLSS, RT e drivers maturi )

E siccome le schede usciranno a partire da oggi, bisognerà ancora attendere qualche settimana affinchè saranno disponibili negli shops e vedere i prezzi reali.

da dove deriverebbe il calcolo ?
Dal nulla ovviamente, ennesima farneticazione.

Ale55andr0
20-09-2018, 09:41
si ma il 25% non lo fa con tutto quel silicio.... se ci aggiungi la parte con il DLSS arrivi tranquillamente al 35-40%; e manca la parte RT.



si, ma a quanto ho capito il DLSS non funziona ovunque e comunque, mentre l'RT è sfruttabile in pratica solo con la ti e e nemmeno in 4k. Tutta quella padella e quei prezzi per un 25%? ma anche no grazie! come ho detto nel thread ufficiale sarebbe stato immensamente meglio avere più CC, rop ecc in tutto quello spazio per un boost molto più consistente delle prestazioni e voglio proprio vedere chi avrebbe sentito la mancanza dell'RT (che fino a ieri l'altro manco sapevamo che fosse) cuna tecnologia che, di fatto, non potrà usare quasi nessuno se non chi ha la top...e dovrà cmq ricorrere a compromessi o con la risoluzione o col frame rate con 1300 euro di scheda :sbonk:

Ale55andr0
20-09-2018, 09:42
Oltre al cambio di anatomia dei tensor cores, ora c'è anche un RT core per ogni cluster a dire il vero.

1080 599$
2080 699$
Differenza : 16%
Differenza di performance : 38% ( escludendo DLSS, RT e drivers maturi )

E siccome le schede usciranno a partire da oggi, bisognerà ancora attendere qualche settimana affinchè saranno disponibili negli shops e vedere i prezzi reali.


Dal nulla ovviamente, ennesima farneticazione.


poi ci dici dove stanno le 2018 a 699 però :asd:

nickname88
20-09-2018, 09:44
poi ci dici dove stanno le 2018 a 699 però :asd:
Le 2018 cosa sono ? :asd:
Se non sbaglio quasi tutti i prezzi che vedi ora sono ancora riferiti a disponibilità zero o limitata :rolleyes:
Le schede iniziano a poter essere disponibili solo da oggi.
Quando ci sarà una disponibilità diffusa vedrai prezzi migliori.

ilario3
20-09-2018, 09:47
Scusate, solo curiosità, ma il software per fare OC automatico, verrà rilasciato solo per la serie 20 o funziona anche con la serie 10?

ilario3
20-09-2018, 10:00
Cioe' fatemi capire i tes sono eseguiti a 3840 e 2560 risoluzionei che forse utilizzano il 10% dei giocatori ?

L'unica cosa che mi ha impressionato e' il prezzo pompato, per il resto secondo me chi oggi ha una scheda top di gamma di 2 anni puo' saltare tranquillamente questa generazione.

Che senso ha fare dei Bench di queste schede a 1080? Chi le prende per il FHD è un folle, il bench l'hanno fato per il 4k e 2k, ovvio :doh:

AceGranger
20-09-2018, 10:14
si, ma a quanto ho capito il DLSS non funziona ovunque e comunque, mentre l'RT è sfruttabile in pratica solo con la ti e e nemmeno in 4k.

il DLSS funzionera a discrezione dello sviluppatore come tutto il resto.

l'RT è sfruttabile solo con la 2080Ti con 2 settimane di lavoro.

Tutta quella padella e quei prezzi per un 25%? ma anche no grazie! come ho detto nel thread ufficiale sarebbe stato immensamente meglio avere più CC, rop ecc in tutto quello spazio per un boost molto più consistente delle prestazioni e voglio proprio vedere chi avrebbe sentito la mancanza dell'RT (che fino a ieri l'altro manco sapevamo che fosse) cuna tecnologia che, di fatto, non potrà usare quasi nessuno se non chi ha la top...e dovrà cmq ricorrere a compromessi o con la risoluzione o col frame rate con 1300 euro di scheda :sbonk:


ma anche no, perchè tanto poi ti saresti lamentato alla prossima generazione :asd:

il Raster ha raggiunto i suoi limiti che sono irrisolvibili, c'è poco da fare; è almeno un lustro che non c'è un guadagno in resa grafica e l'unica novita è lo spingere in modo becero la risoluzione... poi fa niente se hai le luci che passano attraverso gli oggetti, gli oggetti stessi sono fatti da 2 poligoni, hai riflessi e luci dove invece dovresti avere il buio etc. etc.; senza RT andrai avanti ancora un'altro lustro senza cambiamenti.

- Se per questo nessuno poteva usare nemmeno il FHD a pieni filtri e si andava di SLI, come nessuno riusciva ad usare il 1440p appena uscito e ancora oggi non riesci a usare il 4K.

se ragioni cosi son sempre tutti fail e tu oggi saresti ancora fermo al FHD con la novita dei 120 Hz :rolleyes:.

che poi i prezzi siano elevati non ci piove, ma in se non è per nulla un'architettura fail, è un'architettura necessaria; l'hardware di transizione è sempre cosi, è piu sfortunato rispetto a quello a fine ciclo ma prima o poi si deve iniziare, seno non cambiera mai nulla.

lucusta
20-09-2018, 10:29
Ah, aspettavo proprio i tuoi commenti notturni deliranti...

In quale universo parallelo una 1080 va come una Vega 56? Solo nel tuo mi sa.
hitman?
hai sia il grafico delle prestazioni che dei consumi in game proprio su hitman su questa stessa recensione.
vega 56 = 51 - 88
1080 FE = 52 - 94
vega 64 = 60 - 103

tra l'altro su hitman dipende dai filtri che si usano, visto che il famigerato supporto di hitman in DX12 per AC è solo sui filtri SMAA e SAOA (e non sono impostazioni dei preset di default).

La 56 va in media come una 1070 Ti e con questa la devi confrontare, mentre la 1080 va in media come una 64 e con questa devi confrontarla. Peccato che il sistema con Vega 64 consumi "solo" 118 W in più, un'inezia insomma.
peccato che quei 118W valgono il 14% in più di prestazioni e che qui stanno usando un 8700K overclockato.
non è affatto detto che serva un 8700K overclockato per spremere da vega i 103fps a 1440p, ma è molto più probabile che questa è la condizione inevitabile per averli con una gtx 1080.
quindi i 385W di Vega 64, senza nessun tuning particolare, potrebbero diventare solo 300 perchè un 8700K in overclock può arrivare a consumare 180W a 5ghz contro i 95W del settaggio normale.
al consumo della 1080, invece, devi aggiungerci comunque quei 90W di overclock se vuoi ottenere questi numeri...
vedi che quindi la questione consumo si ridimensionerebbe drasticamente già solo così, senza nemmeno mettersi a fare un tuning di fino alle vega (cosa assai impegnativa).

Non parlare di cose che non conosci... Ma tanto che te lo dico a fare, continui a scrivere scemenze a prescindere. Almeno non quotarmi, no...

continui ad avere la solita frase nel tuo profilo...
diamogli un senso a quella frase, ma aderente a quanto è scritto:
"Le Pascal non sono efficienti..." almeno non tanto quanto te le mostrano di solito nelle review per stroncarle...



Questo non so dove lo hai letto. Diamine, se una Vega 64 consumasse da sola più di 400 W ci sarebbe da preoccuparsi sul serio...
test di Igor di tomshardware.de sulla recensione, in italiano, di tomshw.it che tanti appassionati con "marcate conoscenze" sbandierano appena qualcuno parla di vega...
"chi Vega? vega è un fail che consuma 400W"
vega 64 consuma 400W sotto l'overclock estremo meno tunnato del mondo, ad alzare a manetta la stanghetta e senza capire come effettivamente si deve regolare: dal voltaggio e non dalle frequenze massime.
tra l'alto l'hai scritto anche te ed è per questo che te lo sto rinfacciando, giusto perchè ora qui hanno fatto un test che confuta del tutto le teorie degli "anticomplottisti".



Eh già, perché invece su un altro gioco Turing avrebbe consumato esageratamente di più di Pascal, vero? Perché non lo dimostri invece di blaterare cose a caso?

non parliamo di Turing, ma delle pascal.
in un altro gioco la 2080 TI potrebbe consumare sempre quel livello di energia, ma andare a 2 fps in più di una 1080 TI.
prendi GTA V o Arma III e vediamo come se la cava turing con quei giochi.
è un'architettura DX12 e sarebbe più impegnata a cercare di funzionare in DX11 che a generare frame, te lo assicuro.
è l'identico problema che si ha con vega: i giochi di oggi sono pensati principalmente per le pascal, quelli di ieri erano esclusivamente per le pascal.
stesso AOTS: Pascal non usa AC, e te lo possono confermare direttamente gli sviluppatori, e qui vediamo una comparazione sulle DX12 fatta esclusivamente per vedere come va in AC dove c'è una scheda che non usa AC, o come su Hitman che spacciano DX12 AC quando sono i FILTRI ad avere quella proprietà di computo, non il gioco... e quindi ti dicono che testano hotman DX12 AC ma disabilitano quei filtri...
è solo una palese presa per i fondelli.



I consumi sono chiari: Vega 64 consuma solo 118 W in più di una 1080, che vuoi che siano?
in hitman, quando fa il 14% in più di una 1080....
che vuoi che sia...



Tu non hai spiegato un bel niente, parli solo per partito preso. Come al solito non porti uno straccio di prova per le tue congetture. Quanto non sopporto i complottisti come te... Ma del resto ce li ritroviamo pure a governare, quindi ormai è diventato uno status quo.
le hai sempre chieste, ora te le hanno fornite direttamente le review.
leggi e capisci.



Suggerimento: i consumi del grafico di sopra sono mediati su una pletora di giochi DX11.

Tanto so già la tua risposta: Techpowerup? Al soldo di Nvidia, ovvio.


no...
il consumo medio (e non il valore medio calcolato sulla media dei consumi) su un non ben precisato gioco su un gruppo di giochi DX11.
ed il problema risiede proprio sulla questione:
DX11=esaltazione di Pascal
Pascal= ci vogliono CPU a millemila ghz, per vega no è così sui DX12
consumi senza rapportarli alle prestazioni puntuali: sul gioco x va tot e consuma tot.

e, altra cosa, sono tutti al soldo d'nvidia, perchè hanno firmato l'NDA che non gli permette di essere obbiettivi ed indipendenti.
se non lo firmavano non avevano le schede da testare.

Congettura. Nei giochi testati qui, e anche da altre testate, in DX12 gli equilibri non cambiano, ma tu ovviamente sai predire il futuro.
vai su toms che hanno provato anche come va in GTA V... il 5% in più, altro che 25% medio...
tra un chip da 472 e uno da 754mm^2... bello sforzo, direbbe un osservatore distratto.
la questione invece è che GTA V è il peggior gioco possibile per una scheda DX12.


Ma dove, di grazia? Solo tu vedi questi presunti trend, senza capire una cosa molto semplice: DX11, DX12, Vulcan, di per sé non vogliono dire una mazza, la verità è che ogni gioco è sponsorizzato o da Nvidia o da AMD, e quindi a seconda dei casi ci saranno differenze più o meno marcate tra le schede di pari fascia.

Invece no, dobbiamo darci alle congetture più assurde...
la questione è che ogni gioco è sponsorizzato da nvidia, ma fino a ieri se lo ottimizzavi solo per AMD sulle nvidia (70% del mercato) andava da schifo, ma schifo realmente, tanto da costringerti a non usare le vere prerogative delle DX12, sennò l'avresti venduto solo ad alcuni appartenenti a "quegli sfigati" che hanno AMD.
quindi sponsorizzato Nvidia significa che gira ottimamente su nvidia e in modo pessimo su AMD;
sponsorizzato AMD significa che gira comunque bene su nvidia, e molto meglio del solito su AMD.
questo significa la sponsorizzazione, perchè non può controvertire le leggi del commercio: fare una cosa e venderla a più persone possibile.

Questo è vero anche in DX12 e Vulcan, eh. Solo tu vedi cambiare trend, non so dove però...

negli ultimi giochi usciti nel 2017 c'è stato un netto miglioramento prestazionale dell'architettura AMD (ma anche di quelle delle schede vecchie), segno che si stanno adottando sempre più questioni da DX12 (multithread e aumento delle draw call principalmente).
e questo trend sarà sicuramente accellerato dall'introduzione di un'architettura DX12 di nvidia, qual'è turing.



E' tutto un complotto, già. Siamo spacciati. L'umanità non ha speranze. Nvidia peggio di Skynet. Speriamo che AMD ci liberi tutti.
non è un complotto, ma mosse commerciali unita a sana ignoranza delle persone...
d'altronde il marketing vive sull'ingenuità del pubblico.

lucusta
20-09-2018, 10:32
da dove deriverebbe il calcolo ?

dal die shot del TU102.

AceGranger
20-09-2018, 10:37
dal die shot del TU102.

si ma i calcoli per dire 5%.

lucusta
20-09-2018, 10:38
Oltre al cambio di anatomia dei tensor cores, ora c'è anche un RT core per ogni cluster a dire il vero.

1080 599$
2080 699$
Differenza : 16%
Differenza di performance : 38% ( escludendo DLSS, RT e drivers maturi )

E siccome le schede usciranno a partire da oggi, bisognerà ancora attendere qualche settimana affinchè saranno disponibili negli shops e vedere i prezzi reali.


Dal nulla ovviamente, ennesima farneticazione.

se vuoi proprio saperlo son sicuro che la differenza prestazionale tra 2080 e 1080 sarà assai più marcata del 38%, escludendo tensor core e rt core.
un pò sono i driver, ma molto lo fa il gioco che testi.
questa è un'architettura DX12 e per farla andare al massimo gli devi dare un gioco realmente DX12, e fino ad oggi non lo abbiamo avuto a disposizione.

la questione è che la percezione è stata quella di costare di più per andare poco di più (e non è la mia, ma generale).

figurati che a molti sto consigliando una 2080 invece di una 1080 Ti, anche se costa 100-150 euro in più.

nickname88
20-09-2018, 10:46
hitman?
hai sia il grafico delle prestazioni che dei consumi in game proprio su hitman su questa stessa recensione.
vega 56 = 51 - 88
1080 FE = 52 - 94
vega 64 = 60 - 103


Cioè stai affermando che la 1080 vada come la Vega56 sulla base di un solo titolo e per giunta scelto ad hoc ?
:sofico:

Questa è invece la cruda realtà nella situazione odierna :
1080 davanti alla 64 :O

https://tpucdn.com/reviews/NVIDIA/GeForce_RTX_2080_Founders_Edition/images/relative-performance_2560-1440.png

lucusta
20-09-2018, 10:52
si ma i calcoli per dire 5%.

prendi il die shot del TU102, vai sui moduli SM.
le parti in chiaro sono le TMU (sopra e sotto in senso orizzontale) e le nuove unità RT core e tensor core (a desta e a sinistra).
sono assai piccoli, in realtà, ma non funzionerebbero bene (se non affatto) se non accostati ad un'architettura DX12; architettura che ha richiesto di rimettere in HW tutto lo scheduling della GP, visto che sarebbe troppo oneroso e troppo poco reattivo farlo via SW dalla CPU, come avviene su Pascal.
poi ci sono registrei e L1 debitamente maggiorati.

la maggior parte dello spazio è per avere le DX12.

(una bella parte lo fa anche la cache, comunque, ma è si e no il 10% del silicio impiegato... sono le bande nere che vedi verticali tra un gruppo di SM e l'altro).

è lo stesso problema di dimensioni elevate che ha vega in confronto a pascal (o maxwel con thaiti e fuji).
avere le DX12 comporta vantaggi tangibili, SE SFRUTTATE, ma anche che l'HW sia condito di certi elementi che costano spazio e transistors, ma che non calcolano attivamente per far salire le prestazioni....
il fatto è che senza quelle caratteristiche non fai una DX12 e che RTrt e tensor core sono coadiuvati da un'architettura che può giostrare i dati più finemente di quanto mostrato su pascal.

anche Volta è DX12 e ha i tensor core, caches proporzionata, ma è comunque grande (anzi, il più grande).

ti assicuro che il valore scritto, 50%, è fuori ordine di grandezza per RTcore e tensor core.... avrebbero messo il doppio degli RT core una 2080 sarebbe cresciuta sui 30mm^2 in più, sui 570 totali, ma almeno 30fps a 4K o 60 a 1440p o 120 a 1080p te li faceva fare in RTrt...

probabilmente si giocheranno questa carta sul die shrink a 7nm, perchè 570 diventava quasi la dimensione di un GP100... complicatino da tirare fuori...

bagnino89
20-09-2018, 11:06
hitman?
hai sia il grafico delle prestazioni che dei consumi in game proprio su hitman su questa stessa recensione.
vega 56 = 51 - 88
1080 FE = 52 - 94
vega 64 = 60 - 103

tra l'altro su hitman dipende dai filtri che si usano, visto che il famigerato supporto di hitman in DX12 per AC è solo sui filtri SMAA e SAOA (e non sono impostazioni dei preset di default).

Giustamente un solo gioco rappresenta un corretto campionario statistico per fare valutazioni di questo tipo. Tutti gli altri lasciamoli perdere...

Per te AC è diventata un'ossessione, eh...

peccato che quei 118W valgono il 14% in più di prestazioni e che qui stanno usando un 8700K overclockato.

Un campione di efficienza, non c'è che dire!

non è affatto detto che serva un 8700K overclockato per spremere da vega i 103fps a 1440p, ma è molto più probabile che questa è la condizione inevitabile per averli con una gtx 1080. quindi i 385W di Vega 64, senza nessun tuning particolare, potrebbero diventare solo 300 perchè un 8700K in overclock può arrivare a consumare 180W a 5ghz contro i 95W del settaggio normale.
al consumo della 1080, invece, devi aggiungerci comunque quei 90W di overclock se vuoi ottenere questi numeri...

Sarà la miliardesima volta che ripeti questa cosa delirante, ma non hai alcuna prova a sostegno. Mentre io che seguo anche il thread di Vega in questo forum so bene che anche le AMD vengono tappate da CPU non all'altezza, c'è poco da fare... Ma continuiamo pure con le congetture.

vedi che quindi la questione consumo si ridimensionerebbe drasticamente già solo così, senza nemmeno mettersi a fare un tuning di fino alle vega (cosa assai impegnativa).

Eh sì, fare il tuning di Vega è proprio un attimo... Mi sa che un thread di Vega non lo hai visto manco con un binocolo.

continui ad avere la solita frase nel tuo profilo...
diamogli un senso a quella frase, ma aderente a quanto è scritto:
"Le Pascal non sono efficienti..." almeno non tanto quanto te le mostrano di solito nelle review per stroncarle...

La frase è un monito alle scemenze che vai scrivendo sui vari siti specializzati.

E ribadisco, non mi piace avere a che fare con i complottisti...

test di Igor di tomshardware.de sulla recensione, in italiano, di tomshw.it che tanti appassionati con "marcate conoscenze" sbandierano appena qualcuno parla di vega...
"chi Vega? vega è un fail che consuma 400W"
vega 64 consuma 400W sotto l'overclock estremo meno tunnato del mondo, ad alzare a manetta la stanghetta e senza capire come effettivamente si deve regolare: dal voltaggio e non dalle frequenze massime.
tra l'alto l'hai scritto anche te ed è per questo che te lo sto rinfacciando, giusto perchè ora qui hanno fatto un test che confuta del tutto le teorie degli "anticomplottisti".

Ma che c'entra, il consumo totale tiene conto di tutta la piattaforma, è ovvio che possa variare caso per caso... Uno dovrebbe vedere quanto consuma Vega 64 e basta per fare valutazioni di questo tipo. Altro delirio.

non parliamo di Turing, ma delle pascal.
in un altro gioco la 2080 TI potrebbe consumare sempre quel livello di energia, ma andare a 2 fps in più di una 1080 TI.
prendi GTA V o Arma III e vediamo come se la cava turing con quei giochi.
è un'architettura DX12 e sarebbe più impegnata a cercare di funzionare in DX11 che a generare frame, te lo assicuro.
è l'identico problema che si ha con vega: i giochi di oggi sono pensati principalmente per le pascal, quelli di ieri erano esclusivamente per le pascal.
stesso AOTS: Pascal non usa AC, e te lo possono confermare direttamente gli sviluppatori, e qui vediamo una comparazione sulle DX12 fatta esclusivamente per vedere come va in AC dove c'è una scheda che non usa AC, o come su Hitman che spacciano DX12 AC quando sono i FILTRI ad avere quella proprietà di computo, non il gioco... e quindi ti dicono che testano hotman DX12 AC ma disabilitano quei filtri...
è solo una palese presa per i fondelli.

Non mi pare...

https://tpucdn.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_Founders_Edition/images/grand-theft-auto-v_2560-1440.png


in hitman, quando fa il 14% in più di una 1080....
che vuoi che sia...

Un solo gioco per fare statistica, gli altri facciamo finta che non esistono. Metodologia inconfutabile.

le hai sempre chieste, ora te le hanno fornite direttamente le review.
leggi e capisci.

Qua mi sa che sei tu l'unico a dover leggere e capire... Ma forse proprio cambiare hobby.

no...
il consumo medio (e non il valore medio calcolato sulla media dei consumi) su un non ben precisato gioco su un gruppo di giochi DX11.

La lista è ben precisata sul sito, vattela a vedere.

ed il problema risiede proprio sulla questione:
DX11=esaltazione di Pascal

Certo!

Pascal= ci vogliono CPU a millemila ghz, per vega no è così sui DX12

Sicuro! Poi c'erano le marmotte che confezionavano le AC.

consumi senza rapportarli alle prestazioni puntuali: sul gioco x va tot e consuma tot.

e, altra cosa, sono tutti al soldo d'nvidia, perchè hanno firmato l'NDA che non gli permette di essere obbiettivi ed indipendenti.
se non lo firmavano non avevano le schede da testare.

Cattiva Nvidia, cattiva.

Allora se le comprassero di tasca loro le schede e le valutassero senza peli sulla lingua, no? Non mi sembra un esborso impossibile per una testata di un certo livello.

Potresti farlo anche tu, per il bene dell'informatica. Magari ci scappa anche un Pulitzer.

vai su toms che hanno provato anche come va in GTA V... il 5% in più, altro che 25% medio...
tra un chip da 472 e uno da 754mm^2... bello sforzo, direbbe un osservatore distratto.
la questione invece è che GTA V è il peggior gioco possibile per una scheda DX12.

Nel grafico sopra la situazione mi sembra diversa...

Ah, sì! E' per via del 8700K superovercloccato! Tra l'altro il 7700K di Tom's va a 4.4 GHz, mica così poco... Non credo che 400 MHz cambino drasticamente lo scenario come sembra.

In ogni caso, GTA5 lo sa anche mio nonno che è un gioco ottimizzato con i piedi, che sia DX11 non c'entra una mazza.

la questione è che ogni gioco è sponsorizzato da nvidia, ma fino a ieri se lo ottimizzavi solo per AMD sulle nvidia (70% del mercato) andava da schifo, ma schifo realmente, tanto da costringerti a non usare le vere prerogative delle DX12, sennò l'avresti venduto solo ad alcuni appartenenti a "quegli sfigati" che hanno AMD.
quindi sponsorizzato Nvidia significa che gira ottimamente su nvidia e in modo pessimo su AMD;
sponsorizzato AMD significa che gira comunque bene su nvidia, e molto meglio del solito su AMD.
questo significa la sponsorizzazione, perchè non può controvertire le leggi del commercio: fare una cosa e venderla a più persone possibile.

Come no. Fonti?

negli ultimi giochi usciti nel 2017 c'è stato un netto miglioramento prestazionale dell'architettura AMD (ma anche di quelle delle schede vecchie), segno che si stanno adottando sempre più questioni da DX12 (multithread e aumento delle draw call principalmente).
e questo trend sarà sicuramente accellerato dall'introduzione di un'architettura DX12 di nvidia, qual'è turing.

Fonti?

non è un complotto, ma mosse commerciali unita a sana ignoranza delle persone...
d'altronde il marketing vive sull'ingenuità del pubblico.

Te l'ho detto cosa penso di complottisti come te.

Evita di rispondermi, se puoi... Grazie.

lucusta
20-09-2018, 11:09
Cioè stai affermando che la 1080 vada come la Vega56 sulla base di un solo titolo e per giunta scelto ad hoc ?
:sofico:

Questa è invece la cruda realtà nella situazione odierna :
1080 davanti alla 64 :O


vedi, basa un solo titolo che vega digerisce male per mandare a remengo la media, ed in quella lista vedo:

Assassin's Creed Origins (10% solo di differenza tra 2080 e 1080 TI)
Call Of Duty WWII (come sopra)
Civilization IV (2% di differenza a 1080p!)
Divinity Original Sin 2 (0%!)
GTA V (0%)

quando invece vai a prendere roba scritta per le nuove generazioni di schede grafiche (anche se hanno 6 anni sul groppone), come wolfestein II e vedi un 49% in più a 1080p tra 1080 Ti e 2080, con vega 64 al 2% in meno della 1080 Ti, ti accorgi che tutto quello che valuti dipende fortemente dal contesto e che una media ponderata non ha senso, soprattutto se parli di giochi che hanno 5 anni sul groppone o uno soltanto...
ma i giochi possono essere usciti anche domani, se son fatti con tecnologie datate sono giovani solo esteriormente, non nelle viscere...

ora, secondo te, i nuovi giochi li faranno con incremento ZERO tra 1080 TI e 2080, o cercheranno di raggiungere il 40-45, se non il 50% in più usando codice adatto alla 2080?
perchè quel codice va altrettanto bene sulle AMD...

ed ora mi fermo qua, che battibecchi con gente non obbiettiva non ne voglio più tenere.
vi lascio alle vostre convinzione, sicuro che parleranno i fatti a mano a mano che succedono (come è successo sulla questione che le RTX 20 sono DX12 AC).

AceGranger
20-09-2018, 11:15
prendi il die shot del TU102, vai sui moduli SM.
le parti in chiaro sono le TMU (sopra e sotto in senso orizzontale) e le nuove unità RT core e tensor core (a desta e a sinistra).


la 1080 ha 7,2 Miliardi di transistor
le 2070 ha 10,8 Miliardi di transistor

la 1080 ha 2560 CUDA
la 2070 ha 2304 CUDA

hanno stessi canali RAM e stesso bus.


gia cosi con meno core la 2070 ha il 50% in piu di transistor, se contiamo il confronto a parita di core, arrivera ad averne il 60% in piu.

h4xor 1701
20-09-2018, 11:17
il vero scandalo è che in tutto ciò Nvidia ancora non si è degnata di introdurre il supporto alla configurazione monitor misti con Nvidia Surround :mad:

Raven
20-09-2018, 11:18
mhm leggermente deludenti o sbaglio...cioe
la 2080 è sui livelli della 1080ti...non ha senso per chi ha la 1080ti


Ho udito chiaramente le urla di dolore dei possessori delle 1080ti (s)vendute sul mercatino per passare alla 2080 lisssia... :asd:

nickname88
20-09-2018, 11:22
vedi, basa un solo titolo che vega digerisce male per mandare a remengo la media, ed in quella lista vedo:

Assassin's Creed Origins (10% solo di differenza tra 2080 e 1080 TI)
Call Of Duty WWII (come sopra)
Civilization IV (2% di differenza a 1080p!)
Divinity Original Sin 2 (0%!)
GTA V (0%)

La lista si conclude con un vantaggio attorno al +10% da parte della 2080, quindi se ci sono titoli in cui è simile, vuol dire che in altri ha guadagnato ... Ossia quelli che non hai riportato :asd:

Comunque è bello continuare a non considerare che i titoli più vecchi non dispongono del supporto driver per le nuove RTX :asd:

argez
20-09-2018, 12:02
A me sembra che nvidia sia quasi stata costretta a tirare fuori subito la 2080ti perchè a sensazione la 2080 è un mezzo passo falso rispetto alla precedente generazione.

al135
20-09-2018, 12:02
La lista si conclude con un vantaggio attorno al +10% da parte della 2080, quindi se ci sono titoli in cui è simile, vuol dire che in altri ha guadagnato ... Ossia quelli che non hai riportato :asd:

Comunque è bello continuare a non considerare che i titoli più vecchi non dispongono del supporto driver per le nuove RTX :asd:

ha riportato titoli che non supportano neanche SCHEDE VIDEO DISCRETE :asd:

Kharonte85
20-09-2018, 12:25
Come probabilmente osservato da altri essendo le prestazioni delle RTX2080 allineate circa alla vecchia 1080TI non si sente alcuna scimmia per chi la possiede.

La RTX2080TI raggiunge prestazioni superiori ma ad un costo veramente alto per ora. La tecnologia in più è interessante ma ancora non è diffusa o completamente implementata si tratta di un primo passo. Va fatto comunque pregio a Nvidia di aver alzato la qualità costruttiva delle FE.

Penso che in futuro dovremo abituarci sempre di più ad avere meno incremento prestazionale da una generazione all'altra, probabilmente le features assumeranno un maggiore peso nella scelta.

TigerTank
20-09-2018, 12:35
A me sembra che nvidia sia quasi stata costretta a tirare fuori subito la 2080ti perchè a sensazione la 2080 è un mezzo passo falso rispetto alla precedente generazione.

Perchè probabilmente l'RT agli inizi sarà così pesante che servirà subito la 2080Ti per avere/mostrare risultati decenti. Non a caso, quel che gira per ora come demo si basa sull'uso della 2080Ti...ma ovviamente senza far vedere i numerini del framerate tra ON e OFF :fagiano:

argez
20-09-2018, 13:03
Eh sì... cmq la cosa veramente triste restano i prezzi. Speriamo ci sia un revamp della fascia media altrimenti non considererei molto strano se la gente tornasse in massa al mercato console.

Ale55andr0
20-09-2018, 13:10
il DLSS funzionera a discrezione dello sviluppatore come tutto il resto.


ergo appresso all'rt mi interessa na sega




se ragioni cosi son sempre tutti fail e tu oggi saresti ancora fermo al FHD con la novita dei 120 Hz :rolleyes:.

.

hai indovinato proprio. :asd: Ad ora cio che ho visto in metro quanto ad RT mi ha solo fatto preferire l'immagine con la zavorra off spesso e volentieri, chiamalo progresso :asd:

Ale55andr0
20-09-2018, 13:17
A me sembra che nvidia sia quasi stata costretta a tirare fuori subito la 2080ti perchè a sensazione la 2080 è un mezzo passo falso rispetto alla precedente generazione.

va quasi uguale alla ti, con un margine di vantaggi esiguo, costa l'iradiDDio e ha 3gb di ram in meno. Cmq teoricamente andrebbe valuta come erede della 1080 liscia, e in quel caso il guadagno è valido, è il prezzo che è osceno

Raven
20-09-2018, 13:23
va quasi uguale alla ti, con un margine di vantaggi esiguo, costa l'iradiDDio e ha 3gb di ram in meno. Cmq teoricamente andrebbe valuta come erede della 1080 liscia, e in quel caso il guadagno è valido, è il prezzo che è osceno

E' quasi commovente vedere come chi l'ha già ordinata al posto della 1080ti si affanni a difendere la 2080... :)

Cioé... se non aveva quasi alcun senso il salto da una 980ti-->1080 (se non altro il prezzo era quasi pari, la ram nel secondo caso era di più, etc...) adesso davvero il passaggio 1080ti--->2080 è davvero la mossa "informatica" più assurda (e sbagliata) degli ultimi anni! :asd:

Bestio
20-09-2018, 13:48
si ma il 25% non lo fa con tutto quel silicio.... se ci aggiungi la parte con il DLSS arrivi tranquillamente al 35-40%; e manca la parte RT.

è inutile girarsi dall'altra parte o far finta di non capire la situazione...
Turing è un'architettura di transizione, quindi sara, come tutti i prodotti di transizione, sfigata sotto molti aspetti.

Proprio per questo ritengo sia ancora più assurdo sborsare 1200€ per un'archittetura di "transizione".

I bench della prossima generazione saranno popolati da un buon numero di giochi con il DLSS e da qualche gioco RTX, e quindi leggerai % piu elevate.
se a questo giro fossero arrivati con un chip solo CUDA e con l'RT con le 3000, si sarebbero lette le stelle lamentele a vanvera con la prossima serie... quindi meglio ora, cosi ce le leviamo subito dai maroni :asd:

poi personalmente, preferisco avere una serie di GPU nuove dal rapporto prezzo/prestazioni peggiorato, piuttosto che rimanere altri 9 mesi almeno con GPU piu economiche ma vecchie di 2 anni.

Se la scheda di 2 anni fa ancora benissimo il suo lavoro perchè no?
Non è meglio aspettare che la "nuova architettura" sia affinata, e ci siano titoli in grado supportarla?
Anche perchè sicuramente avanti che arriveranno titoli che sfruttano RT e DLSS, la 3080 sarà già alle porte...

Ovviamente ognuno dei propri soldi è libero di fare ciò che vuole, ma purtroppo finchè ci sarà gente che "shut up and take my money", nVidia continuerà con questi prezzi sempre più folli. :doh:

E quelli che non sono così benestanti da potersi permettere di spendere 1200€ all'anno solo di scheda video, saranno costretti a trovarsi un'altro hobby. :cry:

ShineOn
20-09-2018, 14:05
1300 euro per la 2080TI...tutta sta potenza bruta con la certezza di esser limitati a 60Hz in 4k su HDMI?

Come minimo, visto che l'hardware non è un problema, dovevano garantire di poter aggiornare (una volta possibile) via firmware ad HDMI 2.1.

Praticamente, all'uscita della prima tv con HDMI 2.1 il prossimo anno, queste 2080 saranno già osbolete.

Bestio
20-09-2018, 15:15
1300 euro per la 2080TI...tutta sta potenza bruta con la certezza di esser limitati a 60Hz in 4k su HDMI?

Come minimo, visto che l'hardware non è un problema, dovevano garantire di poter aggiornare (una volta possibile) via firmware ad HDMI 2.1.

Praticamente, all'uscita della prima tv con HDMI 2.1 il prossimo anno, queste 2080 saranno già osbolete.

Tanto finchè nVidia continuerà a non voler supportare il Variable Refresh Rate per imporre il suo G-Sync, non potrà mai avvalersi di una HDMI 2.1 completa, dato che il VRR fa parte delle sue specifiche.

Abbiamo capito che se vuoi i 4k a più di 60hz con Gsync, nVidia oltre a venderti la sua GPU da 1200€ vuole anche rifilarti monitor G-Sync 27'' da 2500€ o il 65'' da 5000€! :doh: :muro:

Ormai il gaming su PC sta diventando roba sempre più da nababbi. :cry:

floc
20-09-2018, 15:20
io intanto faccio i complimenti a Corsini perchè i suoi contenuti sono sempre interessanti, ben fatti e pertinenti con il tono della testata. E viste le schifezze che si vedono pubblicate ogni tanto lo si apprezza ancora di più :)

Detto questo le conclusioni dicono già tutto, a meno di necessità di 4k spinto questa scehde possono restare dove sono, il ray tracing per ora è "a metà" (nemmeno) e ne passerà di acqua sotto i ponti prima che possa davvero essere una killer feature.

l4sty
20-09-2018, 15:23
Se ben ricordo la serie 9x0 quando il carico era basso faceva 0db perchè le ventole restavano ferme..

qui sembra che sia la serie 10x0 e la serei 20x0 non abbiano questa funzionalità ed in Iddle facciano cmq girare le ventole (40db).

ShineOn
20-09-2018, 15:49
Tanto finchè nVidia continuerà a non voler supportare il Variable Refresh Rate per imporre il suo G-Sync, non potrà mai avvalersi di una HDMI 2.1 completa, dato che il VRR fa parte delle sue specifiche.


Hai ragione, a me però basterebbe già il poter arrivare fino a 120Hz. Senza G-Sync penso di poter vivere lo stesso.

bagnino89
20-09-2018, 15:58
Senza G-Sync penso di poter vivere lo stesso.

Pensi male :D

nickname88
20-09-2018, 15:58
Tanto finchè nVidia continuerà a non voler supportare il Variable Refresh Rate per imporre il suo G-Sync,
Perchè il Gsync cosa pensi che sia ? :asd:

Bestio
20-09-2018, 18:31
Perchè il Gsync cosa pensi che sia ? :asd:

Fanno la stessa cosa, ma uno è uno standard aperto che sarà adottato da tutte le TV e i Monitor dell'immediato futuro, l'altro una feature proprietaria che sarà semrpre adottata solo dai soliti 4 o 5 monitor ultrasovraprezzati.

Hai ragione, a me però basterebbe già il poter arrivare fino a 120Hz. Senza G-Sync penso di poter vivere lo stesso.

Per me Gsync o VRR sarebbero fondamentali quando non si riescono a mantenere alti framerate costanti, e prima che ci sarà un HW in grado di gestire il 2160p@120fps costanti ci vorranno ancora un po di anni, sopratutto coi giochi più pesanti (già oggi è difficile arrivarci anche a1080p o 1440p!)
Ma per me sarebbe altrettando fondamentale anche un monitor/TV con pannello OLED, percui purtroppo temo che a una delle due cose dovrò per forza rinunciare. :cry:

ShineOn
20-09-2018, 22:25
Pensi male :D

Mica tanto :D, a me i 120hz servirebbero su un simulatore che in 4k fa 250fps medi (con la 1080ti) dove di tearing non c'è nemmeno l'ombra a 60hz...il Gsync sarebbe solo una palla al piede considerando l'input lag che introduce.

l4sty
21-09-2018, 05:26
Se ben ricordo la serie 9x0 quando il carico era basso faceva 0db perchè le ventole restavano ferme..

qui sembra che sia la serie 10x0 e la serie 20x0 non abbiano questa funzionalità ed in Iddle facciano cmq girare le ventole (40db).

non riesco a trovare info al riguardo....:mc:

Marko#88
21-09-2018, 06:36
Se ben ricordo la serie 9x0 quando il carico era basso faceva 0db perchè le ventole restavano ferme..

qui sembra che sia la serie 10x0 e la serei 20x0 non abbiano questa funzionalità ed in Iddle facciano cmq girare le ventole (40db).

Non dipende solo dalla serie ma dal dissi e dal software. La mia ex 980Ti non teneva le ventole ferme nemmeno in idle (ma io le avevo impostate che girassero veramente piano, tipo 300 rpm), la 1070 di un mio amico invece ha proprio il fan stop e fino a tot gradi le sue ventole rimangono immobili.

al135
21-09-2018, 08:51
G-Sync 27'' da 2500? ma dove li guardate sti prezzi :D
ci sono per tutti i gusti da 500 a 1500 :D

Marko#88
21-09-2018, 09:28
G-Sync 27'' da 2500? ma dove li guardate sti prezzi :D
ci sono per tutti i gusti da 500 a 1500 :D

Parlavano di 4K.

al135
21-09-2018, 09:55
Parlavano di 4K.

beh, da 700 in su , non cambia tantissimo

ana79
21-09-2018, 18:20
Ho letto i commenti e qualche test e vorrei alla fine della fiera avere questa risposta chiara:tolto l'RTX,la 2080Ti fa girare i giochi in 4k senza compromessi?Perchè se la risposta è positiva,allora si puo' giustificare anche il prezzo (anche se mi sembra esagerato),viceversa,con i giochi che escono dopodomani,che si fa?Punto e a capo?

Grezzo
22-09-2018, 00:31
recensionne markettara, l' incremento di prezzo non giustifica minimamente l' incremento prestazionale, meglio stare sulla gen precedente non si può spendere per una sola scheda quanto il computer intero, follia pura, inspiegabile non venga trattato con il peso giusto anche questo aspetto. mah-

3000
22-09-2018, 08:19
IT
Dopo le prove in SLI con driver WHQL,
OT
potreste fare anche dei test a schede madri con doppio socket che è una vita che non se ne vedono?

Kommodore64
22-09-2018, 17:00
non riesco a trovare info al riguardo....:mc:
MSI
https://tpucdn.com/reviews/MSI/GeForce_RTX_2080_Ti_Gaming_X_Trio/images/fannoise_idle.png
https://tpucdn.com/reviews/MSI/GeForce_RTX_2080_Ti_Duke/images/fannoise_idle.png
https://tpucdn.com/reviews/MSI/GeForce_RTX_2080_Gaming_X_Trio/images/fannoise_idle.png

ASUS
https://tpucdn.com/reviews/ASUS/GeForce_RTX_2080_Ti_Strix_OC/images/fannoise_idle.png
https://tpucdn.com/reviews/ASUS/GeForce_RTX_2080_Strix_OC/images/fannoise_idle.png

PALIT
https://tpucdn.com/reviews/Palit/GeForce_RTX_2080_Gaming_Pro_OC/images/fannoise_idle.png

darione77
22-09-2018, 22:15
Ciao nvidia, ringrazio per la 1080 che sta nel mio case, e ci vediamo in occasione della 3080...forse...

ziocan
25-09-2018, 12:34
La mia 980 tiene ancora botta.. aspettero la serie 30

ilario3
26-09-2018, 14:11
Se ben ricordo la serie 9x0 quando il carico era basso faceva 0db perchè le ventole restavano ferme..

qui sembra che sia la serie 10x0 e la serei 20x0 non abbiano questa funzionalità ed in Iddle facciano cmq girare le ventole (40db).

Io ho la 1070 Zotac ed in Idle le ventole sono ferme, dipende dal Vendor e su alcune schede è cosi, forse alcune Palit o Gainward, e infatti costavano meno,oltre ad avere le frequenze più basse rispetto ad Asus,Zotac MSI ecc.

TigerTank
26-09-2018, 18:12
Io ho la 1070 Zotac ed in Idle le ventole sono ferme, dipende dal Vendor e su alcune schede è cosi, forse alcune Palit o Gainward, e infatti costavano meno,oltre ad avere le frequenze più basse rispetto ad Asus,Zotac MSI ecc.

Idem le mie evga 1070, ho impostato le ventole ferme fino ai 45°C.

Akula990
08-10-2018, 13:35
Spettabile HWupgrade,
una RTX 2080 Zotac AMP Edition o simili sta a circa 843€ ed una Evga GTX 1080 TI FTW3 o simili a circa 850€.

Ci fate questa comparativa, voi che potete, ci fareste tanto felici.
Possibilmente prima che non si trovi + la 1080Ti e il prezzo della 2080 decolli senza alternative...
Sentiti ringraziamenti.

TigerTank
08-10-2018, 13:50
Porta pazienza che secondo me una bella comparativa completa sarà 2070 vs 1080TI vs 2080 :)