View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
Beseitfia
19-08-2020, 13:57
Comunque ragazzi stavo riflettendo sui possibili prezzi di queste nuove vga, e su quale prendere, credo che per me, il passaggio ad una rtx 3080 sia quello piu' sensato per avere un bel boost senza spendere una fortuna e perderci troppo al passaggio in un non lontano futuro di cambio di quest'ultima.. La gtx 1080 ti all'epoca la pagai sugli 850€ mi pare, e ad oggi, vedendo che tiene quasi il passo ad una rtx 2080 (ovviamente non uguale ma insomma...) non puo' che farmi piacere visto che il prezzo alla fine e' quello anche per la 2080, (del ray tracing non mi importa) .. Se la rtx 3080 dovesse realmente andare piu' di una rtx 2080 ti anche solo del 10% e a €1000, avessi nel case la 2080ti, mi roderebbe non poco, con le TI che vengono vendute a piu di 1300€ a oggi...
Se poi la rtx 3070 dovesse eguagliarla peggio mi sento, quindi forse tutti sti soldi per le top, sarebbero sprecati imho (poi se uno vuole il top e subito non lo sono ovvio) e ad un ipotetico 700/800€ come prezzo, prenderei invece quest ultima
Speriamo che la x80 la piazzino a 849/899$ max a quel punto potrebbe essere davvero un asso pigliatutto andando poco meno...e ciao ciao alla TI da millemila euro.
Attenderei RDNA2 sul campo, magari nei pressi come prestazioni con 16gb vram e 100€ di meno.. :)
Immaginate se l’Rt non sarà implementato in tutti i prossimi giochi e sarà definitivamente abbandonato :D
potrebbe, al prossimo giro..
Mai, ma negli ultimi 5-6 anni le cose sono peggiorate.
ma anche migliorate tecnologicamente... ;)
TigerTank
19-08-2020, 14:24
Fermo restando che nemmeno io mi sognerei mai di chiedere un prestito per una vga, penso che il rapporto costo durata a cui ti riferisci tu sia un po' fuorviante.
Durata per chi? Esiste la durata di un componente per uno che cambia schede ogni volta che colorano diversamente la scatola e la durata per chi acquista una scheda cambiandola solo quando davvero i giochi iniziano a non essere più eseguibili decentemente.
Detto questo, chi ha comprato una 2070, 2080 o 2080 Ti in realtà, potrebbe saltare questa generazione e campare felice fino alla prossima. Non mi risulta esistano ad oggi titoli non giocabili con queste schede. In questo caso, l'investimento fatto è decisamente più diluito nel tempo e quel rapporto a cui ti riferisci cambia parecchio, diventando quasi favorevole.
notavo proprio oggi che la 2080 FE che io ho, compirà il 9 settembre 2 anni esatti, a volerlo potrei tenermela almeno un altro annetto buono.
Chi vuole cambiare per avere sempre nel case l'ultimo grido di qualsiasi cosa si sa, è condannato a perderci molti soldi e senza nemmeno apprezzare salti prestazionali davvero consistenti (anche il 20 / 30 % tra una generazione e la successiva non cambia molto la vita tra il giocare un titolo in maniera indecente prima, ad una risoluzione xyz con certi dettagli, e dopo).
Sì ma siamo realistici, io ovviamente ho scritto quel post considerando la maggior parte delle persone che frequenta thread come questo.
Ovviamente esistono anche persone come quelle che hai scritto tu, che si "accontentano", che valutano con maggior logica e senza farsi prendere dalla scimmia o che strategicamente restano un passo indietro ma facendo buoni affari sull'usato...ma sono appunto altra categoria :D
Io intendo proprio quelli che finora hanno sempre cambiato vga ad ogni generazione per necessità prestazionali rincorrendo anche di volta in volta tutti gli ultimi titoli di interesse o per pura passione informatica(alias scimmia).
Ma chiaro che l'andazzo dei costi ipotizzati in molti sta un pò frenando tale passione, anche a dispetto delle presunte migliorìe prestazionali in RT.
Quindi facile che molti si accontenteranno di un modello inferiore rispetto al solito mentre il discorso "chi ha già X può anche tirare dritto" lasciamolo perdere che tanto nel 90% dei casi poi non sussiste. A maggior ragione con l'evoluzione delle prestazioni RT o se eventualmente il DLSS rispondesse meglio con le nuove rispetto alle vecchie. :)
redbaron
19-08-2020, 14:44
Sì ma siamo realistici, io ovviamente ho scritto quel post considerando la maggior parte delle persone che frequenta thread come questo.
Ovviamente esistono anche persone come quelle che hai scritto tu, che si "accontentano", che valutano con maggior logica e senza farsi prendere dalla scimmia o che strategicamente restano un passo indietro ma facendo buoni affari sull'usato...ma sono appunto altra categoria :D
Io intendo proprio quelli che finora hanno sempre cambiato vga ad ogni generazione per necessità prestazionali rincorrendo anche di volta in volta tutti gli ultimi titoli di interesse o per pura passione informatica(alias scimmia).
Ma chiaro che l'andazzo dei costi ipotizzati in molti sta un pò frenando tale passione, anche a dispetto delle presunte migliorìe prestazionali in RT.
Quindi facile che molti si accontenteranno di un modello inferiore rispetto al solito mentre il discorso "chi ha già X può anche tirare dritto" lasciamolo perdere che tanto nel 90% dei casi poi non sussiste. A maggior ragione con l'evoluzione delle prestazioni RT o se eventualmente il DLSS rispondesse meglio con le nuove rispetto alle vecchie. :)
Ottimo riassunto direi ;) :fagiano:
Andrò controcorrente o sarò troppo cauto ma io vedo Ampere le schede giuste per un 1080p/1440p con Raytracing al max, il 4k nativo è ancora troppo pesante da gestire per 60fps rock solid senza compromessi (è l'errore che stanno facendo con le nuove scatolette, pushare una risoluzione assurda e mostrare una grafica giisto poco migliore della precedente al punto che sembrano dei nuovi refresh e non una nuova generazione), se ne riparla con hopper. Inoltre chi investe in top di gamma ha sempre un ciclo di vita di una GPU di due generazioni che al ritmo odierno sono 4 anni, chi vuole invece stare al passo di generazione in generazione lo fa per scimmia. Turing si è resa appetibile ai possessori di Pascal solo per la novità del Raytracing ma lato raster chi aveva una 1080ti poteva tranquillamente saltare Turing
TigerTank
19-08-2020, 14:46
Ottimo riassunto direi ;) :fagiano:
Figurati, ovviamente è solo la mia opinione.
Ma io a parte l'uscita delle nuove vga con relativi dati effettivi tra prestazioni, specifiche e prezzi vari, aspetto eventi come l'uscita di giochi come appunto Cyberpunk e il relativo marasma di tabelle di comparazione delle prestazioni in ray tracing per esaltare le nuove(vendite incluse nonostante i prezzi) e asfaltare le attuali :sofico:
Poi chiaro che tutto dipende anche dalle disponibilità economiche degli acquirenti(inteso anche come "quanto arriveresti a spendere per data categoria di oggetto") e lì ognuno ragiona e si pone i propri limiti.
Andrò controcorrente o sarò troppo cauto ma io vedo Ampere le schede giuste per un 1080p/1440p con Raytracing al max, il 4k nativo è ancora troppo pesante da gestire per 60fps rock solid senza compromessi (è l'errore che stanno facendo con le nuove scatolette, pushare una risoluzione assurda e mostrare una grafica giisto poco migliore della precedente al punto che sembrano dei nuovi refresh e non una nuova generazione), se ne riparla con hopper. Inoltre chi investe in top di gamma ha sempre un ciclo di vita di una GPU di due generazioni che al ritmo odierno sono 4 anni, chi vuole invece stare al passo di generazione in generazione lo fa per scimmia. Turing si è resa appetibile ai possessori di Pascal solo per la novità del Raytracing ma lato raster chi aveva una 1080ti poteva tranquillamente saltare Turing
Io invece direi che almeno per i due modelli superiori il target dovrebbe essere il 4K+RT+DLSS.
Devono pur permettere che qualcosa giri decentemente sui nuovi e costosi monitor da gaming 4K(o meglio UHD), soprattutto se il ray tracing continuasse a non essere usufruibile tramite nvlink.
Thunder-74
19-08-2020, 14:50
thunder non ti arrabbiare, ma tutte sono di passaggio (https://www.hwupgrade.it/forum/showpost.php?p=46092601&postcount=12933) :D
No chi si arrabbia:)
Vero tutte sono di passaggio... intendevo dire che con le future vga cambierà il modo di concepirle se tutte saranno basate su MCM. Non vorrei che questo possa lasciar indietro in modo prematuro le schede di “vecchia” scuola. Un po’ come è stato con kepler con Maxwell/Pascal ecc, dove le performances sono andate a picco. Quindi spendere molto per la top Ampere, ho timore sia poco saggio per chi intende tenerla a lungo. Chi cambia ogni anno, va bene
mikael84
19-08-2020, 14:54
non era arrivato a tanto, sarebbe stato troppo anche per lui...ma aveva preso per buono il 95gigaray/s e quindi anche dimezzandolo aveva ipotizzato che la xbox superasse la 3090 :sofico:
Beh con 500 RT core, non è che la superi...la stracci.:p
Mamma mia che mostro 360 gigarays :sofico: :sofico: chi é costui??:D
2000 RT core = 3600 TF a 1800, contro 25tf dichiarati di microsoft.:asd:
Diciamo che cambiare una 2070/2080/2080ti con Ampere vale sopratutto se si vuole cambiare res passando alla 4k, sopratutto se si possiede qualcosa sotto la 2080ti. Oppure se si punta al RT, ma in questo caso sarebbe saggio attendere le prossime uscite per valutare qualità e quantità di tali titoli. In conclusione ... Turing va ancora alla grande se si deve giocare a 1440p e 4K con qualche compromesso, tutto in raster.... il resto sarebbe pura scimmia che alberga in ognuno di noi... io attendo per vari motivi la fine dell anno, ma ad oggi punterei sulla 3080 perché vedo Ampere di passaggio... comunque vedremo prezzi e prestazioni per eventuali valutazioni di acquisto e sopratutto nuovi titoli in uscita. Certo è che se aspettate tanto CP2077 in RT, incominciate a mostrare il fianco per l espianto del rene....
Inviato dal mio iPad utilizzando Tapatalk
Si, con MCM ci potrebbe essere un salto ben più netto, considerando, e si spera, che nvidia adotti un PP serio.
Tuttavia, ad oggi per RT e DLSS, rispetto alla 2080 liscia, sarà sicuramente tanta roba.
Per la tua risoluzione, tanta roba.
amon.akira
19-08-2020, 14:55
No chi si arrabbia:)
Vero tutte sono di passaggio... intendevo dire che con le future vga cambierà il modo di concepirle se tutte saranno basate su MCM. Non vorrei che questo possa lasciar indietro in modo prematuro le schede di “vecchia” scuola. Un po’ come è stato con kepler con Maxwell/Pascal ecc, dove le performances sono andate a picco. Quindi spendere molto per la top Ampere, ho timore sia poco saggio per chi intende tenerla a lungo. Chi cambia ogni anno, va bene
la scelta saggia sarebbe sempre il u/qhd e la 3070 :D
Thunder-74
19-08-2020, 15:01
la scelta saggia sarebbe sempre il u/qhd e la 3070 :D
Si, però quando cambi vuoi vedere un salto di prestazioni sufficiente a giustificare la scimmia :D non so se la 3070 in raster, possa offrirlo per chi ha una 2080.
Chi invece magari era rimasto con una 1070 o 1080, assolutamente si.
mikael84
19-08-2020, 15:07
No chi si arrabbia:)
Vero tutte sono di passaggio... intendevo dire che con le future vga cambierà il modo di concepirle se tutte saranno basate su MCM. Non vorrei che questo possa lasciar indietro in modo prematuro le schede di “vecchia” scuola. Un po’ come è stato con kepler con Maxwell/Pascal ecc, dove le performances sono andate a picco. Quindi spendere molto per la top Ampere, ho timore sia poco saggio per chi intende tenerla a lungo. Chi cambia ogni anno, va bene
Thunder, bisogna vedere se si stravolgerà l'architettura. Uno dei punti cruciali di nvidia sono i bus, e questi verranno bypassati.
Le prestazioni raster, con Ampere, sono basse perchè non c'è stato un salto nodo praticamente.
JHH, si è fatto i conti, ed ha lasciato parte di IPC che doveva mettere già su turing. come la l1 dati.
Ad nvidia, ora come ora, conta, passare il monolitico, e pompare tensor, nvlink ed altro, che tanto, anche con poco clock, puoi ottenere dei ratio impressionanti.:)
maxmix65
19-08-2020, 15:10
TOH, proprio il prezzo che avevo previsto io :D :D :D
Mi dispiace ma sei arrivato molto tardi i prezzi almeno della 3090 li ho presi in pieno il 1 agosto 1399$ vai a vedere..
Per la 3080 ho previsto 1199$ nel caso andasse un 20% piu' della 2080ti
Poi da come ho letto in questi ultimi giorni si prospetta 799$ o poco piu' se fosse cosi e avesse le performance +10-20% sulla 2080ti sarebbe BBG
Best Buy Galattico
Infatti nel caso fosse confermato prezzo basso e quelle performance ho rinominato la scheda Rtx3080 BBG :cool:
Vedi un po' se qualche partner mi ruba la sigla hahhaha
e datemi due 3090 a gratisss
Mi dispiace ma sei arrivato molto tardi i prezzi almeno della 3090 li ho presi in pieno il 1 agosto 1399$ vai a vedere..
Per la 3080 ho previsto 1199$ nel caso andasse un 20% piu' della 2080ti
Poi da come ho letto in questi ultimi giorni si prospetta 799$ o poco piu' se fosse cosi e avesse le performance +10-20% sulla 2080ti sarebbe BBG
Best Buy Galattico
Infatti nel caso fosse confermato prezzo basso e quelle performance ho rinominato la scheda Rtx3080 BBG :cool:
Vedi un po' se qualche partner mi ruba la sigla hahhaha
e datemi due 3090 a gratisssinfatti la penso come te x chi ha la 2080ti come mè se la 3080 costasse piu di 1000 euro x un 20% in piu non conviene se invece il prezzo sta sulle 850 si:)
mikael84
19-08-2020, 15:23
Mi dispiace ma sei arrivato molto tardi i prezzi almeno della 3090 li ho presi in pieno il 1 agosto 1399$ vai a vedere..
Per la 3080 ho previsto 1199$ nel caso andasse un 20% piu' della 2080ti
Poi da come ho letto in questi ultimi giorni si prospetta 799$ o poco piu' se fosse cosi e avesse le performance +10-20% sulla 2080ti sarebbe BBG
Best Buy Galattico
Infatti nel caso fosse confermato prezzo basso e quelle performance ho rinominato la scheda Rtx3080 BBG :cool:
Vedi un po' se qualche partner mi ruba la sigla hahhaha
e datemi due 3090 a gratisss
Con i prezzi non mi sbilancio assolutamente, però, c'è un fattore da prendere in considerazione, ovvero, GA104 (3070s/ti), praticamente a livello tecnico, sostituisce TU104 (2080/s).
Questo sposterebbe la 3080 GA102, sopra e neppure poco.
fabietto27
19-08-2020, 15:25
Pure io la 2080ti me la tengo fino a quando si sanno le prestazioni esatte e poi decido se prendere la terza Strix di fila o cambiare brand.
Inviato dal mio OnePlus 7 Pro utilizzando Tapatalk
maxmix65
19-08-2020, 15:55
Con i prezzi non mi sbilancio assolutamente, però, c'è un fattore da prendere in considerazione, ovvero, GA104 (3070s/ti), praticamente a livello tecnico, sostituisce TU104 (2080/s).
Questo sposterebbe la 3080 GA102, sopra e neppure poco.
Sono d'accordo con te per quanto riguarda la parte tecnica. Per i prezzi se la 3080 costasse 799$ qundi 859-899€ da noi con performance + 20% sulla 2080TI sarebbe top acquisto..
La 3090 sarebbe solo di nicchia a quel prezzo che trasformato in euro sarebbe stratosferico
Per la 3070-3070ti non mi sbilancio ...
10 gg circa al lancio e nulla sul Pcb,alimentazione?
scorpion73
19-08-2020, 16:22
Per me i best buy galattici saranno due, se il prezzo di 799$ è confermato:
- la 3080 10GB (se ci sarà un 20GB costerà di più e secondo me non ne vale la pena)
- la 3070ti, che sarà ai livelli della 2080ti come raster ma con un RT enormemente migliore
Sempre che i prezzi siano quelli ovviamente, perché se è vero che la 3070 liscia prende la 2080ti come prestazioni raster e RT, allora la 3080 starà sopra e manco di poco, alto che un 20%...
Fra 12 giorni vediamo...
mikael84
19-08-2020, 16:38
Per me i best buy galattici saranno due, se il prezzo di 799$ è confermato:
- la 3080 10GB (se ci sarà un 20GB costerà di più e secondo me non ne vale la pena)
- la 3070ti, che sarà ai livelli della 2080ti come raster ma con un RT enormemente migliore
Sempre che i prezzi siano quelli ovviamente, perché se è vero che la 3070 liscia prende la 2080ti come prestazioni raster e RT, allora la 3080 starà sopra e manco di poco, alto che un 20%...
Fra 12 giorni vediamo...
Guarda, per semplificarti il tutto, in maniera molto semplice, cambiano le memorie rispetto alle Turing, ma i chip saranno mediamente simili.
La 3080, a livello di scheda di calcolo, è una 2080ti, la 3070, una 2080 liscia, e la 3070ti/super, una 2080 super.
La serie 3000, alloggia in un chip più semplice e snello, la 3080, in quello della 2080ti.
TigerTank
19-08-2020, 16:49
Guarda, per semplificarti il tutto, in maniera molto semplice, cambiano le memorie rispetto alle Turing, ma i chip saranno mediamente simili.
La 3080, a livello di scheda di calcolo, è una 2080ti, la 3070, una 2080 liscia, e la 3070ti/super, una 2080 super.
La serie 3000, alloggia in un chip più semplice e snello, la 3080, in quello della 2080ti.
Se fosse anche qualcosina in più sarebbe meglio. In ogni caso per me sarebbe scelta "obbligata". La sorella maggiore temo sarà troppo esosa, specialmente se alla cosa contribuisse anche un quantitativo di vram esagerato. E le inferiori non sarebbero un grande upgrade...parlando ovviamente di prestazioni raster.
Ma sinceramente non è che il ray tracing sia al centro della mia esistenza salvo che con la combinazione RT+DLSS si raggiungano prestazioni pari al giocare alla risoluzione nativa e senza rt :D
Comunque intanto sono curioso di vedere come siano realmente fatte le nuove Founders :)
Domanda banale: ma le founders quantitativamente in gnere sono valide? O conviene puntare direttamente a soluzioni dei vari marchi noti (asus, gigabyte, ecc.)? :)
mikael84
19-08-2020, 17:07
Se fosse anche qualcosina in più sarebbe meglio. In ogni caso per me sarebbe scelta "obbligata". La sorella maggiore temo sarà troppo esosa, specialmente se alla cosa contribuisse anche un quantitativo di vram esagerato. E le inferiori non sarebbero un grande upgrade...parlando ovviamente di prestazioni raster.
Ma sinceramente non è che il ray tracing sia al centro della mia esistenza salvo che con la combinazione RT+DLSS si raggiungano prestazioni pari al giocare alla risoluzione nativa e senza rt :D
Comunque intanto sono curioso di vedere come siano realmente fatte le nuove Founders :)
No tiger, non intendevo quello.:p La 3080, è uguale alla 2080ti praticamente, nello schema di calcolo, 4352cc vs 4352cc, e GPC uguali.
Così, come le 3070 vs 2080, ma ovviamente con Ampere vanno di più (20%).:)
Quindi per fare i confronti è più semplice.
Se la 2080ti sta alla 2080 liscia tot..., la 3080 starà alla 3070 tot prestazioni mediamente. Tenendo presente le memorie differenti.:)
Thunder-74
19-08-2020, 17:16
Thunder, bisogna vedere se si stravolgerà l'architettura. Uno dei punti cruciali di nvidia sono i bus, e questi verranno bypassati.
Le prestazioni raster, con Ampere, sono basse perchè non c'è stato un salto nodo praticamente.
JHH, si è fatto i conti, ed ha lasciato parte di IPC che doveva mettere già su turing. come la l1 dati.
Ad nvidia, ora come ora, conta, passare il monolitico, e pompare tensor, nvlink ed altro, che tanto, anche con poco clock, puoi ottenere dei ratio impressionanti.:)
Esatto , è quello che temo ... uno stravolgimento di architettura... non vorrei che ci possa essere un approccio nuovo che determina un taglio pesante con il passato, al punto da ritrovarsi con un salto pesate da ampere a hopper. Poi come dicevo , chi cambia ad ogni gen poco importa, chi vuole invece prendere il top per saltare qualche nuova famiglia, potrebbe pentirsi con ampere.
Inviato dal mio iPad utilizzando Tapatalk
Crysis90
19-08-2020, 17:38
queste console promettono bene, attacchi al tv e ciaone.
Ma per carità.
Promettono bene per l'utenza console, cioè per chi si accontenta.
Il gaming su PC è altra cosa, siamo su un altro pianeta.
TigerTank
19-08-2020, 17:38
No tiger, non intendevo quello.:p La 3080, è uguale alla 2080ti praticamente, nello schema di calcolo, 4352cc vs 4352cc, e GPC uguali.
Così, come le 3070 vs 2080, ma ovviamente con Ampere vanno di più (20%).:)
Quindi per fare i confronti è più semplice.
Se la 2080ti sta alla 2080 liscia tot..., la 3080 starà alla 3070 tot prestazioni mediamente. Tenendo presente le memorie differenti.:)
Ottimo, meglio così allora! Grazie Mike :cool:
Attendiamo e vediamo i riscontri pratici...augurandoci che con l'autunno le cose a livello di epidemìa non precipitino di nuovo(e già ora non è che vadano al meglio) e tra le tante cose su cui comporta conseguenze, non ci siano anche ripercussioni di mercato(disponibilità e prezzi).
Ma per carità.
Promettono bene per l'utenza console, cioè per chi si accontenta.
Il gaming su PC è altra cosa, siamo su un altro pianeta.
Ok,ma le nuove promettono 60 fps in 4k e non parlerei di accontentarsi.( forse una volta con 30 fps)
Le differenze grafiche si stanno sempre assottigliando di più e occorre il lanternino per accorgersene perchè la resa globale è comunque di alto livello.
Ok,ma le nuove promettono 60 fps in 4k e non parlerei di accontentarsi.( forse una volta con 30 fps)
Le differenze grafiche si stanno sempre assottigliando di più e occorre il lanternino per accorgersene perchè la resa globale è comunque di alto livello.
Si ma il punto focale è che se vuoi lo stesso dettaglio di una console basterà la 3050ti/3060 :sofico:
Forse solo qualche esclusiva mostrerà i muscoli ma prima che le console si inizino veramente a sfruttare passerà almeno 1-2 anni che in ambito pc è quasi un cambio di generazione di GPU, inoltre proprio per il discorso che hai impostato dove serve il "lanternino" per vedere i dettagli rende ancora più inutile pensare di spendere 1000+++ € per i chipponi.
amon.akira
19-08-2020, 18:08
esatto chi non ha i lanternini 3060 vivi felice e passa la paura, ma almeno puoi andare a 60 anche quando gli sviluppatori console decidono il blocco a 30
io purtroppo giro sempre con la lanterna :D
Si ma il punto focale è che se vuoi lo stesso dettaglio di una console basterà la 3050ti/3060 :sofico:
Non credo che per far girare i giochi sulle prossime consolle a 4K in 60fps impostino tutto su low...
C’è anche da tener conto dell’ottimizzazione dei giochi delle consolle mentre nella controparte Pc si ricorre a schede molto più potenti per colmare il porting riuscito male.
inoltre proprio per il discorso che hai impostato dove serve il "lanternino" per vedere i dettagli rende ancora più inutile pensare di spendere 1000+++ € per i chipponi.
Esatto,per me la moda dei benchmark appartiene al lontano passato; basta che riesca a tenere i 60 fps in 4K maxato Ultra senza ricorrere al Dlss.
Non stò chiedendo i 144 fps in 4K... :asd:
io purtroppo giro sempre con la lanterna :D
E usavi il Dlss in Metro con Rt al max :asd:
mikael84
19-08-2020, 18:33
Esatto , è quello che temo ... uno stravolgimento di architettura... non vorrei che ci possa essere un approccio nuovo che determina un taglio pesante con il passato, al punto da ritrovarsi con un salto pesate da ampere a hopper. Poi come dicevo , chi cambia ad ogni gen poco importa, chi vuole invece prendere il top per saltare qualche nuova famiglia, potrebbe pentirsi con ampere.
Inviato dal mio iPad utilizzando Tapatalk
La struttura cambierà per forza, avremmo i GPM (dove risiederanno le unità di calcolo), collegamenti vari, probabilmente cache intermedie etc.
Vari cambiamenti ci saranno. Avremmo una visione a 360°, quando presenteranno il chip HPC.
Con Intel che, forse riesce a debuttare l'anno prossimo, e le rese pessime del chip Ampere A100, potrebbe ripetersi un caso Volta, dove tale chip, è uscito esattamente dopo un anno.:)
Il mio consiglio, è di aspettare che anche AMD faccia la sua mossa, in modo da evitarsi super o riposizionamenti di prezzi.
Nel mentre, il discorso MCM, sarà più avanzato.
Questo ovviamente, vale solo se hai dubbi, altrimenti prendi quello che desideri.
Una 3080 cmq, per te, è tanta roba (50% raster e oltre in RT).;)
Ottimo, meglio così allora! Grazie Mike :cool:
Attendiamo e vediamo i riscontri pratici...augurandoci che con l'autunno le cose a livello di epidemìa non precipitino di nuovo(e già ora non è che vadano al meglio) e tra le tante cose su cui comporta conseguenze, non ci siano anche ripercussioni di mercato(disponibilità e prezzi).
Come detto a Thunder, meglio aspettare (se non si ha fretta) il quadro completo, tanto tra rese, e disponibilità, 2 mesetti non sono nulla.:)
esatto chi non ha i lanternini 3060 vivi felice e passa la paura, ma almeno puoi andare a 60 anche quando gli sviluppatori console decidono il blocco a 30
io purtroppo giro sempre con la lanterna :D
E mezzo schermo di dati di hwinfo, nel mio caso. Durante i boss, devo anche vedere la banda passante.:p
Cmq, è un discorso che non capirò mai, o il top, o la console. Come se le fasce medie non esistessero.
amon.akira
19-08-2020, 18:35
E usavi il Dlss in Metro con Rt al max :asd:
con la lanterna vedi pure gli fps sai :D
uso il meglio che posso usare per godermelo e il dlss a 4k era meglio del 1440p nativo, cmq l rt era su alto non ultra...con la 2080liscia non so forse l avrei skippato, ma per questo ho preso la 2080ti per avere quel quid in piu.
tu invece sei quello del assassin creed grafica non plus ultra? XD
basta che riesca a tenere i 60 fps in 4K maxato Ultra senza ricorrere al Dlss.
Non stò chiedendo i 144 fps in 4K... :asd:
mi cito dall altro topic sul dlss
https://www.hwupgrade.it/forum/showpost.php?p=46928033&postcount=62543
Cmq, è un discorso che non capirò mai, o il top, o la console. Come se le fasce medie non esistessero.
certo anzi molto meglio, perchè i 60 4k delle console sono sulla carta...i titoli a 30fiocherrano e la res dinamica li farà da padrone...i dettagli scelgono loro cosi come i filtri.
TigerTank
19-08-2020, 18:44
Come detto a Thunder, meglio aspettare (se non si ha fretta) il quadro completo, tanto tra rese, e disponibilità, 2 mesetti non sono nulla.:)
Giusto, che poi sarebbe la cosa da fare sempre, salvo qualche eccezione.
Tanto in quanto a gaming sono in una fase di "stanca" e sto rigiocando i 2 Star Wars Kotor....ovviamente moddati(specialmente il primo) in risoluzione, filmati upscalati e qualche quintale di pack di textures maggiorate :sofico:
mikael84
19-08-2020, 19:08
certo anzi molto meglio, perchè i 60 4k delle console sono sulla carta...i titoli a 30fiocherrano e la res dinamica li farà da padrone...i dettagli scelgono loro cosi come i filtri.
Esatto, inoltre la vera differenza, a parer mio, la farà il DLSS. Qua tutti parliamo di +20/+30, ma questo potrebbe stravolgere tutto.
I tensor new gen, sono 4 volte quelli turing in ratio. Magari li decurteranno a 2x, ma sarà sempre tanta roba. Significa che una 3060 avrebbe un ratio vicino a quello della 2080ti.
Questi rappresentano il grosso investimento di nvidia.
Giusto, che poi sarebbe la cosa da fare sempre, salvo qualche eccezione.
Tanto in quanto a gaming sono in una fase di "stanca" e sto rigiocando i 2 Star Wars Kotor....ovviamente moddati(specialmente il primo) in risoluzione, filmati upscalati e qualche quintale di pack di textures maggiorate :sofico:
Life is strange, fai un pò tu.:p
Thunder-74
19-08-2020, 19:08
Si sì per carità, veder uscire la super dopo due mesi farebbe incavolare . Non ho fretta anche se la mia 2080 con wb avrà ancor meno mercato ... a sfregio me la tengo per il physx o il multiGPU... ormai dimenticati .... :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
Kostanz77
19-08-2020, 19:16
Si sì per carità, veder uscire la super dopo due mesi farebbe incavolare . Non ho fretta anche se la mia 2080 con wb avrà ancor meno mercato ... a sfregio me la tengo per il physx o il multiGPU... ormai dimenticati .... :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
ma come funziona il discorso del multiGPU?
Due schede diverse nVidia possono cooperare?
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
mikael84
19-08-2020, 19:18
Si sì per carità, veder uscire la super dopo due mesi farebbe incavolare . Non ho fretta anche se la mia 2080 con wb avrà ancor meno mercato ... a sfregio me la tengo per il physx o il multiGPU... ormai dimenticati .... :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
E via di Mafia 2:p
ma come funziona il discorso del multiGPU?
Due schede diverse nVidia possono cooperare?
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
No solo stessa serie.
Thunder-74
19-08-2020, 19:23
ma come funziona il discorso del multiGPU?
Due schede diverse nVidia possono cooperare?
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
Si, vengono viste come due risorse distinte. Non si parla di SLi . Il problema è che il gioco in dx12 deve essere programmato in tal modo : Parti della scena del gioco sono a carico di una o dell altra gpu. nVidia non può fare nulla via drivers. Feci un hackintosh con 2 980ti e funzionavano come due risorse distinte. Solo che in alcuni programmi dava problemi con artefatti, ma che bestia che era. Altro che Mac Pro
Inviato dal mio iPhone X utilizzando Tapatalk
con la lanterna vedi pure gli fps sai :D.
Appunto che li vedo non ricorro al Dlss e Rt per ritrovarmi i 60 fps garantiti in 4K :D
uso il meglio che posso usare per godermelo e il dlss a 4k era meglio del 1440p nativo, cmq l rt era su alto non ultra...con la 2080liscia non so forse l avrei skippato, ma per questo ho preso la 2080ti per avere quel quid in piu.
.
Chi usa il lanternino non può utilizzare tecniche di upscaling per compensare le prestazioni :p
È naturale che tra 1440P e 4k Dlss le differenze ci sono : tra 1440P e 4K cambia il mondo...
tu invece sei quello del assassin creed grafica non plus ultra? XD
Tu quello che usa l’Rt con Tombraider gridando al miracolo?Xd
mi cito dall altro topic sul dlss
https://www.hwupgrade.it/forum/showpost.php?p=46928033&postcount=62543
Non funziona il link ;)
certo anzi molto meglio, perchè i 60 4k delle console sono sulla carta...i titoli a 30fiocherrano e la res dinamica li farà da padrone...i dettagli scelgono loro cosi come i filtri.
Non sarei così pessimista con “fioccheranno”.
Non sono pro-consolle ma “possibilista”.
Kostanz77
19-08-2020, 19:34
Si, vengono viste come due risorse distinte. Non si parla di SLi . Il problema è che il gioco in dx12 deve essere programmato in tal modo : Parti della scena del gioco sono a carico di una o dell altra gpu. nVidia non può fare nulla via drivers. Feci un hackintosh con 2 980ti e funzionavano come due risorse distinte. Solo che in alcuni programmi dava problemi con artefatti, ma che bestia che era. Altro che Mac Pro
Inviato dal mio iPhone X utilizzando Tapatalk
quindi se si accoppiasse una 1660 ed una 3080 si potrebbe fare?
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
MrBrillio
19-08-2020, 19:39
quindi se si accoppiasse una 1660 ed una 3080 si potrebbe fare?
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
Ma che vi mettete in testa di far ste accrocchiate che tanto 9 su 10 non servono a nulla...
Kostanz77
19-08-2020, 19:45
Ma che vi mettete in testa di far ste accrocchiate che tanto 9 su 10 non servono a nulla...
era giusto per capire......
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
amon.akira
19-08-2020, 19:49
Ci mancherebbe che non ci siano differenze tra 1440P e 4K Dlss : tra 1440P e 4K cambia il mondo...
Non sarei così pessimista con “fioccheranno”.
Non sono pro-consolle ma “possibilista”.
cambia il mondo perchè sul tuo 4k se metti 1080 o 1440 ed hai uno scaler di merda ma anche senza che sia di merda...ti sfuoca l immagine.
il paradosso....
da 3824x2151 ti brucia e poi le console tutto sommato vanno bene e non si nota quasi.
Tu quello che usa l’Rt con Tombraider gridando al miracolo?Xd
esatto :D
Non funziona il link ;)
niente hanno bannato l utente e quindi è saltato anche il mio post...dicevo in death stranding mi sono trovato nella situazione in cui potrei farlo girare a 4k nativo+taa (perchè senza taa c'è troppo aliasing) ma con il dlss2 nonostante l IQ sia leggermente inferiore in movimento non mi becco i difetti del taa, quindi paradossalmente mettendo i pro e contro sulla bilancia è meglio in 4k+dlss, e dicevo anche che avrei apprezzato in futuro una modalità tipo supersampling del dlss tipo 1.5x o 2.0x
detto questo ti lascio l ultima parola :ciapet:
Thunder-74
19-08-2020, 19:51
quindi se si accoppiasse una 1660 ed una 3080 si potrebbe fare?
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
Si è ti dirò di più , non importa la marca o il tipo di chip. Puoi farlo anche con una vga discreta e l integrata della cpu.
Due titoli che utilizzavano il mGPU erano, se non ricordo male, Rise of tomb rider e DeusEx . Comunque giusto per parlarne, perché mettere su un pc per tale scopo non conviene .
Edit: se ti interessa , qui spiega bene
https://www.tomshw.it/hardware/ashes-of-the-singularity-beta-directx-12-nvidia-vs-amd/multi-gpu-in-dettaglio/
Inviato dal mio iPhone X utilizzando Tapatalk
Crysis90
19-08-2020, 20:36
Ok,ma le nuove promettono 60 fps in 4k e non parlerei di accontentarsi.( forse una volta con 30 fps)
Promettono solo sulla carta, come dimostra Halo Infinite i 60 frames in 4K li ottengono grazie alla qualità grafica old-gen. :asd:
Inoltre, non è assolutamente confermato che il 4K dei titoli next-gen sia sempre nativo, come dimostra PS4 Pro in molti casi viene utilizzato l'upscaling con la tecnica del checkerboard rendering oppure la risoluzione viene "aggiustata" e diminuita dinamicamente in base alla pesantezza dello scenario da renderizzare, perchè altrimenti non ce la farebbero.
Potete dire quello che volete, ma paragonare i PC di fascia enthusiast con le console è come paragonare una Ferrari con una BMW Serie 1 o una Mercedes Classe A.
Sono entrambe soluzioni valide, ma la differenza c'è e si vede quando si parla del top del top. :O :read:
cambia il mondo perchè sul tuo 4k se metti 1080 o 1440 ed hai uno scaler di merda ma anche senza che sia di merda...ti sfuoca l immagine.
il paradosso....
Ma a prescindere dallo scaler del monitor,le differenze sono tangibili tra 1440P e 4K.
È inutile che ci giriamo attorno: il Dlss è un compromesso e le differenze,utilizzando il famoso lanternino :D,sono evidenti in alcuni scenari dei giochi rispetto al 4K nativo.
Che faccia un buon lavoro,a favore delle prestazioni,è innegabile ma non mi si dica che si usi il lanternino nei giochi mentre viene attivato il Dlss perchè è un po un controsenso.
niente hanno bannato l utente e quindi è saltato anche il mio post...dicevo in death stranding mi sono trovato nella situazione in cui potrei farlo girare a 4k nativo+taa (perchè senza taa c'è troppo aliasing) ma con il dlss2 nonostante l IQ sia leggermente inferiore in movimento non mi becco i difetti del taa, quindi paradossalmente mettendo i pro e contro sulla bilancia è meglio in 4k+dlss, e dicevo anche che avrei apprezzato in futuro una modalità tipo supersampling del dlss tipo 1.5x o 2.0x
Non dispongo di questo gioco ma avrei voluto provare.
Visto che Death Stranding non fa uso dell’Rt ma solo Dlss hai preferito attivare il
Dlss con 2080Ti piuttosto che 4K + Taa perchè questo filtro ti crea difetti?
È un po anomalo,sarà implementato male nel gioco?
detto questo ti lascio l ultima parola :ciapet:
Ho parlato fin troppo :D
TigerTank
19-08-2020, 20:49
Si sì per carità, veder uscire la super dopo due mesi farebbe incavolare . Non ho fretta anche se la mia 2080 con wb avrà ancor meno mercato ... a sfregio me la tengo per il physx o il multiGPU... ormai dimenticati .... :fagiano:
Ahahah bella Thunder, mi ricordi i tempi delle Radeon HD 5870 in cui si associava una schedina secondaria nvidia per il physx tramite tweak :sofico:
Potete dire quello che volete, ma paragonare i PC di fascia enthusiast con le console è come paragonare una Ferrari con una BMW Serie 1 o una Mercedes Classe A.
Sono entrambe soluzioni valide, ma la differenza c'è e si vede quando si parla del top del top. :O :read:Inconfutabile..
Inviato dal mio RNE-L21 utilizzando Tapatalk
...
Potete dire quello che volete, ma paragonare i PC di fascia enthusiast con le console è come paragonare una Ferrari con una BMW Serie 1 o una Mercedes Classe A.
Sono entrambe soluzioni valide, ma la differenza c'è e si vede quando si parla del top del top. :O :read:
...e poi mi gioco un TLOU2 su OLED 65” su una carretta di 7 anni fa e: O___O...
Sono più in hype per ps5 che rtx nuove in questo momento. L’ottimizzazione del ssd sui giochi First party Sony mi fa sbavare, cosa che vedremo chissà quando su pc...
Giovamas
19-08-2020, 21:23
Pure io la 2080ti me la tengo fino a quando si sanno le prestazioni esatte e poi decido se prendere la terza Strix di fila o cambiare brand.
Inviato dal mio OnePlus 7 Pro utilizzando Tapatalk
lo stesso vale per me. come dice Mike due mesetti non sono nulla. poi vediamo ma ho intenzione di cambiare brand pur essendomi trovato bene con la strix
Kostanz77
19-08-2020, 21:31
domani in partenza......https://uploads.tapatalk-cdn.com/20200819/3717df16a3dcd96a9d7a8335d730de43.jpghttps://uploads.tapatalk-cdn.com/20200819/d8a6ce1ea88e20d4af77532c25f9cba3.jpghttps://uploads.tapatalk-cdn.com/20200819/b11c7aeb07bb98cba0d114520c1fcc19.jpg
incoming Ampere😀
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
Promettono solo sulla carta,
Inoltre, non è assolutamente confermato che il 4K dei titoli next-gen sia sempre nativi
Non è stato nemmeno smentito visto che ancora non sono uscite....
Diamo un po il beneficio del dubbio almeno con la maggiorparte dei titoli.
come dimostra PS4 Pro in molti casi viene utilizzato l'upscaling con la tecnica del checkerboard rendering oppure la risoluzione viene "aggiustata" e diminuita dinamicamente in base alla pesantezza dello scenario da renderizzare, perchè altrimenti non ce la farebbero.
La Ps5 monta hardware di gran lunga superiore rispetto a quello della Ps4 Pro e perchè dovrebbe upscalare in 4K?
Al massimo scenderà di dettaglio o framerate con i titoli ostici.
Potete dire quello che volete, ma paragonare i PC di fascia enthusiast con le console è come paragonare una Ferrari con una BMW Serie 1 o una Mercedes Classe A.
Sono entrambe soluzioni valide, ma la differenza c'è e si vede quando si parla del top del top. :O :read:
Hm....
Le differenze erano più evidenti in passato.
Non è come passare da 1080p al 4K...
P.S. Quanto costa il top del top Pc rispetto alla consolle?
Giovamas
19-08-2020, 21:44
domani in partenza......
incoming Ampere😀
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
lacrimuccia :D
MrBrillio
19-08-2020, 21:54
Incoming mica troppo... Chissà quando arriveranno 🤣
Io mai più giocare di anticipo, piuttosto ci rimetto qualche euro..
Kostanz77
19-08-2020, 22:03
Incoming mica troppo... Chissà quando arriveranno 🤣
Io mai più giocare di anticipo, piuttosto ci rimetto qualche euro..
speriamo fine settembre
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
magic carpet
19-08-2020, 22:08
Mi sa che a questo giro se si vuole prendere la top di gamma, bisogna considerare anche il cambio di ali.
Se davvero la 3090 richiede 3 connettori da 8 pin ci vorrà almeno un 800 watt e sinceramente non mi va di sbattermi per cambiare anche alimentatore.
Una bella 3080 e Microsoft Flight Simulator vola...😁
Iceman69
19-08-2020, 22:47
speriamo fine settembre
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
Se fanno come la precedente generazione facciamo anche novembre, se poi le prime sono fallate … meglio non pensarci.
Kostanz77
19-08-2020, 22:53
Se fanno come la precedente generazione facciamo anche novembre, se poi le prime sono fallate
meglio non pensarci.
non smontarmi così zio can....😂😅
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
DJurassic
19-08-2020, 22:59
...e poi mi gioco un TLOU2 su OLED 65” su una carretta di 7 anni fa e: O___O...
Sono più in hype per ps5 che rtx nuove in questo momento. L’ottimizzazione del ssd sui giochi First party Sony mi fa sbavare, cosa che vedremo chissà quando su pc...
E riesci a scriverlo rimanendo serio? Complimenti. :asd: Piuttosto la domanda su cosa diavolo ci faccia qui un sonaro resta visto che non sei manco interessato all'argomento trattato. Poi c'è lo dirai con calma quando ti passa la sbornia.
mikael84
19-08-2020, 23:17
Sono d'accordo con te per quanto riguarda la parte tecnica. Per i prezzi se la 3080 costasse 799$ qundi 859-899€ da noi con performance + 20% sulla 2080TI sarebbe top acquisto..
La 3090 sarebbe solo di nicchia a quel prezzo che trasformato in euro sarebbe stratosferico
Per la 3070-3070ti non mi sbilancio ...
Cmq Max, secondo Chiphell, la 3090 (ex ti), dovrebbe costare 1399$ per i chip più economici e 1499$ FE.
Questo fa pensare anche a chip non A in stile Turing.
Le premium costeranno un botto.
Insomma +400$ per chip "economici":rolleyes: rispetto la 2080ti.
La 3080 allora prenderà il posto della 2080ti (con probabile cartello di Lisa).
GA104, come sospettavo dall'inizio, sostituirà quasi sicuramente TU104.
Io sono sempre stato tifoso di Sony se così si può dire, mi ha dato belle soddisfazioni sin dalla prima ps, a partire però dalla 4 mi sono completamente trasferito su PC dove non c'è partita visto che quando è uscita la 4 il gaming su PC si stava evolvendo sempre di più con tante conversioni, emulatori e giochi multi, per arrivare alla situazione di oggi dove oramai quei 4 giochi in croce che fa Sony rimangono esclusiva console (e non mi compro una console per 4 giochi), ma con la ps5 hanno veramente esagerato in peggio, la 4 già era un catorcio, ma alla presentazione rimasi colpito dalla grafica e fui davvero contento di ciò che di li a poco mi sarei potuto godere su pc, con la 5 invece un vero cesso, l'unica speranza è l'unreal engine 5, quella è la vera next gen che mi aspettavo, sbavo all'idea di scenari senza normal maps ma infarciti di miliardi di poligoni a dare dettaglio agli ambienti 3d, mettiamoci pure il raytracing e in tempo per hopper col Raytracing a massima potenza, avremo ambienti finalmente super realistici. Ampere mi fa scimmia, per me la next gen vera è solo quando escono le nuove gpu, però le vedo schede solo per chi viene da Pascal o fascia media, essendo le scatolette dei cessi, e la nuova politica del crossgen inoltrato non vedo proprio il punto di stare a spendere soldi per un upgrade venendo da una 2080 liquidata e giocando a 1080p
Kostanz77
19-08-2020, 23:42
lacrimuccia :D
un po' si.....:cry:
fireradeon
20-08-2020, 00:23
Questa volta hanno pure il coraggio di tirare su i prezzi a 1500/1600 e tutto perché non c'è l'ombra della concorrenza.
Se esistesse una VGA di AMD con la potenza anche solo del 10% in meno della 3090 a 300/400 euro in meno, la 3090 non costerebbe così tanto.
P.s. Ogni tanto salta fuori il discorso console/PC, ma al di la della grafica c'è anche il gioco che va valutato (spesso si sottovalutano i contenuti e si guarda solo l'effetto particellare in più o in meno) e su console ci sono dei capolavori che il PC se li sogna, già bastano God of War, The Last of us 2, Zelda BOTW (per citarne 3). Se uno ama i videogiochi non guarda su cosa girano ma guarda il gioco in se.
AceGranger
20-08-2020, 00:44
Questa volta hanno pure il coraggio di tirare su i prezzi a 1500/1600 e tutto perché non c'è l'ombra della concorrenza.
Se esistesse una VGA di AMD con la potenza anche solo del 10% in meno della 3090 a 300/400 euro in meno, la 3090 non costerebbe così tanto.
costerebbe comunque cosi perchè la 3090 avra 24GB e in nVlink 48GB, cosa che oggi è possibile solo con un esborso minimo di 5200 euro.
fraussantin
20-08-2020, 00:57
P.s. Ogni tanto salta fuori il discorso console/PC, ma al di la della grafica c'è anche il gioco che va valutato (spesso si sottovalutano i contenuti e si guarda solo l'effetto particellare in più o in meno) e su console ci sono dei capolavori che il PC se li sogna, già bastano God of War, The Last of us 2, Zelda BOTW (per citarne 3). Se uno ama i videogiochi non guarda su cosa girano ma guarda il gioco in se.
Indubbiamente le console hanno le loro esclusive , motivo sufficente percui non andrebbero comprate ( sinceramente spingere un prodotto impedendo che certi giochi arrivino altrove non é una cosa che amo supportare ) , ma va detto che su PC o in un modo o nell'altro ne stanno arrivando.
Come si é detto piú volte , rdr2, dark souls, death stranding , Horizon, le 3 avventure grafiche Sony , persona 4 ( e 5), forse bloodborne sono arrivate o arriveranno su pc,
Altre come Zelda bayonetta 2 sono arrivate per emulazione , ma paradossalmente girano meglio su PC che sulla misera switch..
Poi ci sono altre esclusive come tlou di cui si salva solo la trama e la si può vedere benissimo su YouTube.
Certo qualcosa manca sempre , ma personalmente non comprerei mai un dispositivo solo per 3,4 giochi e perché non li vogliono portare altrove
costerebbe comunque cosi perchè la 3090 avra 24GB e in nVlink 48GB, cosa che oggi è possibile solo con un esborso minimo di 5200 euro.
Ma i programmi di lavoro riescono a usare le gaming come usano le quadro ? O hanno driver diversi?
Chiedo é! solo per curiosità.
Questa volta hanno pure il coraggio di tirare su i prezzi a 1500/1600 e tutto perché non c'è l'ombra della concorrenza.
Se esistesse una VGA di AMD con la potenza anche solo del 10% in meno della 3090 a 300/400 euro in meno, la 3090 non costerebbe così tanto.
P.s. Ogni tanto salta fuori il discorso console/PC, ma al di la della grafica c'è anche il gioco che va valutato (spesso si sottovalutano i contenuti e si guarda solo l'effetto particellare in più o in meno) e su console ci sono dei capolavori che il PC se li sogna, già bastano God of War, The Last of us 2, Zelda BOTW (per citarne 3). Se uno ama i videogiochi non guarda su cosa girano ma guarda il gioco in se.
Ti stai dimenticando una cosa fondamentale sony è uscita con Ps now quindi se voglio giocare ad un esclusiva singol player pago un mese (9,90€) mi finisco i titoli che mi interessano e fine.
Sicuramente non compro una Ps per giocare a 3/5 titoli in crore oltre a questo per me l'unico veramente super di quella lista sono i vari god of war
Inviato dal mio ELE-L29 utilizzando Tapatalk
scorpion73
20-08-2020, 05:36
costerebbe comunque cosi perchè la 3090 avra 24GB e in nVlink 48GB, cosa che oggi è possibile solo con un esborso minimo di 5200 euro.
L'unica possibilità di spendere meno è se fanno una 3090 con 12GB
Kostanz77
20-08-2020, 05:41
L'unica possibilità di spendere meno è se fanno una 3090 con 12GB
quoto.....
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
redbaron
20-08-2020, 06:58
https://videocardz.com/newz/nvidia-geforce-rtx-3090-3080-pg133a-board-gets-rra-certification
Ti stai dimenticando una cosa fondamentale sony è uscita con Ps now quindi se voglio giocare ad un esclusiva singol player pago un mese (9,90€) mi finisco i titoli che mi interessano e fine.
Sicuramente non compro una Ps per giocare a 3/5 titoli in crore oltre a questo per me l'unico veramente super di quella lista sono i vari god of war
Inviato dal mio ELE-L29 utilizzando Tapatalk
...a 720p....anche no
fireradeon
20-08-2020, 07:14
Indubbiamente le console hanno le loro esclusive , motivo sufficente percui non andrebbero comprate ( sinceramente spingere un prodotto impedendo che certi giochi arrivino altrove non é una cosa che amo supportare ) , ma va detto che su PC o in un modo o nell'altro ne stanno arrivando.
Come si é detto piú volte , rdr2, dark souls, death stranding , Horizon, le 3 avventure grafiche Sony , persona 4 ( e 5), forse bloodborne sono arrivate o arriveranno su pc,
Altre come Zelda bayonetta 2 sono arrivate per emulazione , ma paradossalmente girano meglio su PC che sulla misera switch..
Poi ci sono altre esclusive come tlou di cui si salva solo la trama e la si può vedere benissimo su YouTube.
Certo qualcosa manca sempre , ma personalmente non comprerei mai un dispositivo solo per 3,4 giochi e perché non li vogliono portare altrove....
Mamma mia.... dire che di TLOU si salva solo la trama e la puoi vedere su youtube è di una tristezza.... ma perchè per te un gioco principalmente su cosa deve contare? La GRAFICA o la STORIA?
Se scegli la prima ho già capito come ragioni e il discorso finisce qui, poi non giocare un titolo e vederlo su youtube se non hai tempo, perchè lavori+famiglia+etc. ci può stare, ma vederlo perchè non te lo puoi giocare fa calare la lacrimuccia, scusami. ;)
Inoltre ci sono diverse esclusive PS4 che nella tua lista mancano e che su PC non arriveranno mai, tra cui Spiderman e Uncharted solo per citarne 2.
Ti stai dimenticando una cosa fondamentale sony è uscita con Ps now quindi se voglio giocare ad un esclusiva singol player pago un mese (9,90€) mi finisco i titoli che mi interessano e fine.
Sicuramente non compro una Ps per giocare a 3/5 titoli in crore oltre a questo per me l'unico veramente super di quella lista sono i vari god of war
Inviato dal mio ELE-L29 utilizzando Tapatalk
Se parliamo di gusti è una cosa, quindi a te le esclusive non piacciono e giustamente per te non ha senso prendere la PS4, ma dire che puoi giocarle in cloud su PS NOW a 720P senza HDR ma che soluzione è?
Se per te nel 2020 giocare a 720p su un TV 4K o monitor 1440p è una cosa godibile, allora che ci fai in questo thread? Comprati la VGA più scarsa che trovi e gioca a 720p senza dettagli etc. :rolleyes:
fraussantin
20-08-2020, 07:32
Mamma mia.... dire che di TLOU si salva solo la trama e la puoi vedere su youtube è di una tristezza.... ma perchè per te un gioco principalmente su cosa deve contare? La GRAFICA o la STORIA?
Se scegli la prima ho già capito come ragioni e il discorso finisce qui, poi non giocare un titolo e vederlo su youtube se non hai tempo, perchè lavori+famiglia+etc. ci può stare, ma vederlo perchè non te lo puoi giocare fa calare la lacrimuccia, scusami. ;)
Inoltre ci sono diverse esclusive PS4 che nella tua lista mancano e che su PC non arriveranno mai, tra cui Spiderman e Uncharted solo per citarne 2.
Su spiderman non mi pronuncio perché non ritengo corretto criticare un gioco senza averlo giocato
Su gli Uncharted e di tlou , avendoli giocato su PS3 ti posso confermare che hanno un gameplay di merda. ( PS3 comprata eoni fa per rendere smart una vecchia TV e usata anche per quei 5 giochi )
Cosa cerco in un gioco ? Il divertimento . Cosa che ne Uncharted ( tra l'altro il 3 non l'ho manco finito dalle palle che mi aveva fatto)ne tlou mi hanno dato.
Rimanendo sulle esclusive Sony , Horizon ha un bel gameplay, dinamico e vario.
PS che poi la storia di tlou é si bella , ma puzzava di vecchio e rivisto già al lancio.
\OT
fireradeon
20-08-2020, 08:06
Su spiderman non mi pronuncio perché non ritengo corretto criticare un gioco senza averlo giocato
Su gli Uncharted e di tlou , avendoli giocato su PS3 ti posso confermare che hanno un gameplay di merda. ( PS3 comprata eoni fa per rendere smart una vecchia TV e usata anche per quei 5 giochi )
Cosa cerco in un gioco ? Il divertimento . Cosa che ne Uncharted ( tra l'altro il 3 non l'ho manco finito dalle palle che mi aveva fatto)ne tlou mi hanno dato.
Rimanendo sulle esclusive Sony , Horizon ha un bel gameplay, dinamico e vario.
PS che poi la storia di tlou é si bella , ma puzzava di vecchio e rivisto già al lancio.
\OT
A me piaccino come gampeplay, quindi siamo sempre lì sono gusti e se posso dirla tutta TLOU2 è uno dei giochi più belli di tutti i tempi secondo me, in particolare per la storia e per come è raccontata, hanno fatto un capolavoro.
fireradeon
20-08-2020, 08:06
Pagine dove si parla di console, esclusive e balle varie, torniamo IT per favore.
https://videocardz.com/newz/nvidia-geforce-rtx-3090-3080-pg133a-board-gets-rra-certification
hai ragione. chiudo
Crysis90
20-08-2020, 08:29
...e poi mi gioco un TLOU2 su OLED 65” su una carretta di 7 anni fa e: O___O...
Che gira lockato a 30 FPS e non gira neanche in 4K perchè la carretta di 7 anni fa non ce la fa. :asd:
Io invece con una 2080 Ti mi sparo RDR2 (quasi) tutto maxato su Ultra in 4K nativo sul mio 48", con framerate medio 40/50 FPS e ciaoneeee. :read:
La Ps5 monta hardware di gran lunga superiore rispetto a quello della Ps4 Pro e perchè dovrebbe upscalare in 4K?
Al massimo scenderà di dettaglio o framerate con i titoli ostici.
Faranno upscaling perchè comunque il livello di dettaglio verrà pompato, almeno con i titoli first-party.
Pertanto è normale che si riproponga la stessa situazione di PS4 Pro, con TLOS2 che ha un livello di dettaglio superiore a quasi tutti i titoli PS4 in commercio ma deve sacrificare la risoluzione (non gira in 4K) e il framerate (che è lockato a 30 FPS).
P.S. Quanto costa il top del top Pc rispetto alla consolle?
Costa la stessa differenza che c'è tra comprare una BMW Serie 1 ed una Ferrari, ma la differenza poi la senti quando schiacci il pedale dell'acceleratore. :O :read:
La Ferrari ti garantisce il top delle performances, con la BMW Serie 1 invece scendi nettamente ad un livello inferiore.
E' talmente semplice da capire che ancora nel 2020 non riesco a capacitarmi come ci sia ancora gente che mette console e PC di fascia enthusiast sullo stesso livello. :boh:
Buongiorno, vorrei delle informazioni al riguardo delle nuove schede se fosse possibile, la 3090 è un dual gpu? E un l’altra cosa la 3070 in full hd quanti fps arriva ?
Io invece con una 2080 Ti mi sparo RDR2 (quasi) tutto maxato su Ultra in 4K nativo sul mio 48", con framerate medio 40/50 FPS e ciaoneeee. :read:
Vabbè ma vuoi vincere facile :D
Faranno upscaling perchè comunque il livello di dettaglio verrà pompato, almeno con i titoli first-party.
Effettivamente loro lo scrivono sulla carta il 4K a 60 fps ma all'atto pratico è ben diverso.
Lo vedremo successivamente e ne discuteremo in sede separata visto che siamo andati Ot.
E' talmente semplice da capire che ancora nel 2020 non riesco a capacitarmi come ci sia ancora gente che mette console e PC di fascia enthusiast sullo stesso livello. :boh:
Mai messi sullo stesso livello.
Riflettevo sul fatto che le differenze sono meno marcate rispetto ad un tempo.
Per fare un esempio,i video su youtube nel confronto tra Pc e consolle dimostrano che alcuni particolari e dettagli in più sono visibili con il fermo immagine (il famoso lanternino di cui parlavo) ma il quadro grafico generale è ad alti livelli su entrambe le piattaforme e le differenze non saltano subito al'occhio ...
Ti parlo da NON possessore delle consolle che acquisterà sempre e solo materiale Pc,quindi lungi dal voler scatenare diatribe Pc Vs Consolle.
Diciamo che un minimo di imparzialità negli interventi non guasterebbe...
ninja750
20-08-2020, 08:58
La 3080 allora prenderà il posto della 2080ti (con probabile cartello di Lisa).
Questa volta hanno pure il coraggio di tirare su i prezzi a 1500/1600 e tutto perché non c'è l'ombra della concorrenza.
Se esistesse una VGA di AMD con la potenza anche solo del 10% in meno della 3090 a 300/400 euro in meno, la 3090 non costerebbe così tanto.
sempre colpa di AMD :bsod:
L'unica possibilità di spendere meno è se fanno una 3090 con 12GB
poi vi lamentate che nel 2020 non si può stare con soli 12gb perchè flight simulator con le mod ne prende 11
Mi sa che a questo giro se si vuole prendere la top di gamma, bisogna considerare anche il cambio di ali.
Se davvero la 3090 richiede 3 connettori da 8 pin ci vorrà almeno un 800 watt e sinceramente non mi va di sbattermi per cambiare anche alimentatore.
Una bella 3080 e Microsoft Flight Simulator vola...😁
a me sembra assurda questa (inutile) corsa alla prestazione massima quando si sa già che AMD non avrà un prodotto competitivo in quella fascia, fare un chip da millemila watt in un'epoca in cui si cerca di ottimizzare il più possibile watt/prestazioni è un controsenso degno delle insulse dual chip anni 2000
Buongiorno, vorrei delle informazioni al riguardo delle nuove schede se fosse possibile, la 3090 è un dual gpu? E un l’altra cosa la 3070 in full hd quanti fps arriva ?
Ciao.
la 3090 non sarà una Dual Gpu.
Ad ogni modo ci sarà la presentazione della nuova serie di schede video Nvidia il 1° Settembre e ne sappiamo ancora poco.
ninja750
20-08-2020, 09:00
la 3070 in full hd quanti fps arriva ?
si.
magic carpet
20-08-2020, 09:01
Se uno ama i videogiochi non guarda su cosa girano ma guarda il gioco in se.
Questa è la verità, punto e basta.
Poi si possono avere preferenze per una casa o l'altra, ma io per amore dei videogiochi ho dovuto digerire pure la fine della mia amata 3dfx per mano di Nvidia quando ero pampino, ma ora mica sono scemo che prendo solo AMD...😁
Contano solo i giochi, le passioni che trasmettono e le storie che ci fanno vivere.
a me sembra assurda questa (inutile) corsa alla prestazione massima quando si sa già che AMD non avrà un prodotto competitivo in quella fascia, fare un chip da millemila watt in un'epoca in cui si cerca di ottimizzare il più possibile watt/prestazioni è un controsenso degno delle insulse dual chip anni 2000
In realtà le ultime Dual GPU sono state la Titan Z con due chip GK110 full e la R9 295x2, entrambe uscite nel 2014...
Al tempo valeva la pena perchè in game c'era un discreto supporto al cross e sli, oggi il supporto è molto lento e praticamente morente in ambito gaming quindi che si pensi a chip singoli più spinti è più che lecito, visto che nel caso di sli e cross probabilmente i consumi erano maggiori e le performance scalavano peggio.
Crysis90
20-08-2020, 10:05
Riflettevo sul fatto che le differenze sono meno marcate rispetto ad un tempo.
In realtà, se prendessero campo i monitor/TV 8K, ci sarebbe ancora un solco netto tra i 2 settori.
Con i primi design MCM della prossima generazione di GPU, l'8K potrebbe diventare giocabile. :)
Sabbath80
20-08-2020, 10:10
E un l’altra cosa la 3070 in full hd quanti fps arriva ?
https://thumbs.gfycat.com/FoolishCheerfulAfricanclawedfrog-size_restricted.gif
Buongiorno, vorrei delle informazioni al riguardo delle nuove schede se fosse possibile, la 3090 è un dual gpu? E un l’altra cosa la 3070 in full hd quanti fps arriva ?
La 3090 è un chip incerto non si capisce bene come si posiziona, ma è sempre un chip singolo e non credo che nel 2020 abbia più senso fare dual gpu, considerando il supporto software sta andando a scemare.
Per le performance della 3070, in raster dovrebbe andare come una 2080ti, in RT non si sa ma lo stacco dovrebbe essere molto elevato.
Inutile dire che schede di questo tipo in FHD sono sprecatissime...
Predator_1982
20-08-2020, 10:25
Ciao.
la 3090 non sarà una Dual Gpu.
Ad ogni modo ci sarà la presentazione della nuova serie di schede video Nvidia il 1° Settembre e ne sappiamo ancora poco.
si rompino i salvadanai :D :D
Poi ci sono altre esclusive come tlou di cui si salva solo la trama
Scusami tanto ma questa è una puttanata MEGAGALATTICA, li hai mai giocati? Sopratutto il secondo? Non credo altrimenti non ti sarebbe MAI uscita una frase così assurdamente falsa e ignorante. Madonna mia, che tristezza.
Non voglio fare il moralizzatore di turno ma please rimaniamo on topic. Altrimenti si creano pagine su pagine su titoli per console, console war e cosi via...
Comunque se il pcb è stato certificato e tutto possibile riescano ancora a tenere tutto segreto? Un leakino sul pcb ci starebbe ormai
Inviato dal mio iPad utilizzando Tapatalk
https://thumbs.gfycat.com/FoolishCheerfulAfricanclawedfrog-size_restricted.gif
:D
Andy1111
20-08-2020, 11:06
La 3090 è un chip incerto non si capisce bene come si posiziona, ma è sempre un chip singolo e non credo che nel 2020 abbia più senso fare dual gpu, considerando il supporto software sta andando a scemare.
Per le performance della 3070, in raster dovrebbe andare come una 2080ti, in RT non si sa ma lo stacco dovrebbe essere molto elevato.
Inutile dire che schede di questo tipo in FHD sono sprecatissime...
Ma veramente pensate che una 3070 possa andare in raster come una 2080 TI ?
una 2070 ha 2304 SU
una 2070 super ha 2560 SU
una 2080 ha 2944 SU
una 2080 super ha 3072 SU
una 2080 TI ha 4352 SU
https://wccftech.com/nvidia-geforce-rtx-3070-ti-rtx-3070-ampere-gaming-gpu-specs-rumor/
i rumor qua dicono che :
3070 TI ha 3072 SU con GDDR6X
3070 ha 2944 SU con GDDR6
quindi se riesce a superare in raster la 2080 super è già tanto secondo me poi magari hanno fatto un mega miracolo e raggiunge e supera la 2080 TI , in caso sarò contento per voi sperando che non costi un mezzo rene o più ....
Se parliamo di gusti è una cosa, quindi a te le esclusive non piacciono e giustamente per te non ha senso prendere la PS4, ma dire che puoi giocarle in cloud su PS NOW a 720P senza HDR ma che soluzione è?
Se per te nel 2020 giocare a 720p su un TV 4K o monitor 1440p è una cosa godibile, allora che ci fai in questo thread? Comprati la VGA più scarsa che trovi e gioca a 720p senza dettagli etc. :rolleyes:
Potrò ben comprare quello che mi pare? Se devo spendere 300€ di ps4 + 50€ a gioco per giocare a 3/5 esclusive anche no grazie.
Io Ps now sono riuscito a provarlo su mio pc principale con un monitor full HD 144hz ad una distanza di circa due metri e ti posso assicurare che è più che godibile e se viene usato per recuperare qualche esclusiva PS4 può avere il suo perché, considerando anche il costo di 9.90€.
Ovviamente non lo userei come metodo principale per il Gaming ma questo mi sembrava abbastanza scontato... Ma evidentemente non lo era...
Inviato dal mio ELE-L29 utilizzando Tapatalk
Predator_1982
20-08-2020, 11:09
Ma veramente pensate che una 3070 possa andare in raster come una 2080 TI ?
una 2070 ha 2304 SU
una 2070 super ha 2560 SU
una 2080 ha 2944 SU
una 2080 super ha 3072 SU
una 2080 TI ha 4352 SU
https://wccftech.com/nvidia-geforce-rtx-3070-ti-rtx-3070-ampere-gaming-gpu-specs-rumor/
i rumor qua dicono che :
3070 TI ha 3072 SU con GDDR6X
3070 ha 2944 SU con GDDR6
quindi se riesce a superare in raster la 2080 super è già tanto secondo me poi magari hanno fatto un mega miracolo e raggiunge e supera la 2080 TI , in caso sarò contento per voi sperando che non costi un mezzo rene o più ....
il 99% delle cose che adesso si scrivono sono supposizioni...supposizioni su prezzi, su prestazioni, su segmenti di mercato ecc.
La verità la sapremo tra non molti giorni. In ogni caso non credo siano perfettamente comparabili le 2 architetture, per cui non baserei i ragionamenti sui numeretti delle unità.
OrazioOC
20-08-2020, 11:09
Ma veramente pensate che una 3070 possa andare in raster come una 2080 TI ?
una 2070 ha 2304 SU
una 2070 super ha 2560 SU
una 2080 ha 2944 SU
una 2080 super ha 3072 SU
una 2080 TI ha 4352 SU
https://wccftech.com/nvidia-geforce-rtx-3070-ti-rtx-3070-ampere-gaming-gpu-specs-rumor/
i rumor qua dicono che :
3070 TI ha 3072 SU con GDDR6X
3070 ha 2944 SU con GDDR6
quindi se riesce a superare in raster la 2080 super è già tanto secondo me poi magari hanno fatto un mega miracolo e raggiunge e supera la 2080 TI , in caso sarò contento per voi sperando che non costi un mezzo rene o più ....
Una 1070 ha 1920 cc, eppure se la giocava senza problemi con i 2816 della 980 ti.
Qui di mezzo c'è un pp differente, tra la 2080 super e la ti ci passa un 20% circa, non è nulla di incolmabile con un salto di pp.
Ma veramente pensate che una 3070 possa andare in raster come una 2080 TI ?
una 2070 ha 2304 SU
una 2070 super ha 2560 SU
una 2080 ha 2944 SU
una 2080 super ha 3072 SU
una 2080 TI ha 4352 SU
https://wccftech.com/nvidia-geforce-rtx-3070-ti-rtx-3070-ampere-gaming-gpu-specs-rumor/
i rumor qua dicono che :
3070 TI ha 3072 SU con GDDR6X
3070 ha 2944 SU con GDDR6
quindi se riesce a superare in raster la 2080 super è già tanto secondo me poi magari hanno fatto un mega miracolo e raggiunge e supera la 2080 TI , in caso sarò contento per voi sperando che non costi un mezzo rene o più ....Se rispettano le vecchie tabelle postate tempo fa una 3070 liscia in raster è sotto la 2080ti di circa un 5% la 3070ti dovrebbe stare sopra di un 5/10%
Inviato dal mio ELE-L29 utilizzando Tapatalk
oZonoRobotics
20-08-2020, 11:30
Inutile dire che schede di questo tipo in FHD sono sprecatissime...
pensa che io la prendo si per giocare a 3440x1440 ma soprattutto a 1080p@240hz visto che su giochi come warzone (impostati tutto al minimo) con una 1080ti fa dai 100/120 ai 200 fps se guardi il cielo :P
redbaron
20-08-2020, 11:32
Di solito quando scattano i preorder sul sito nvidia?
pensa che io la prendo si per giocare a 3440x1440 ma soprattutto a 1080p@240hz visto che su giochi come warzone (impostati tutto al minimo) con una 1080ti fa dai 100/120 ai 200 fps se guardi il cielo :PAnche io prenderei la 3070 per giocare a 1080p 240hz
Inviato dal mio ELE-L29 utilizzando Tapatalk
Predator_1982
20-08-2020, 11:34
Di solito quando scattano i preorder sul sito nvidia?
quando presi la 2080 Fe dal loro sito, la scheda risultò ordinabile qualche giorno dopo la presentazione ufficiale. Secondo me a settembre, programmeranno i video di presentazione in stile Ampere A100 sul sito e contestualmente apriranno i pre-order dei vari modelli, che poi evaderanno cronologicamente.
ninja750
20-08-2020, 11:53
Anche io prenderei la 3070 per giocare a 1080p 240hz
240 la vedo dura
io punto ai soliti 144 :D
240 la vedo dura
io punto ai soliti 144 :DBhe se imposti tutto la minimo/medio sul multiplayer già con una 2070s su BF5 tutto al minimo viaggio sui 160/200fps.
Inviato dal mio ELE-L29 utilizzando Tapatalk
OrazioOC
20-08-2020, 12:03
Non sono paragoni da fare, avevi 700mhz in piú di clock con la 1070, una boostava a 1850 l'altra a 1150-1200, a stock la 1070 era sopra, poi in oc la 980ti recuperava, a 2100 e 1500 se la giocavano ad armi pari.
A sto giro i clock sono quelli visti con turing, poco piú, non clocki con questa baracca di pp, tutto lavoro di IPC.
Per avere quel salto le devi far boostare a 3ghz e oltre,(al netto dell'ipc) ed é veramente utopia/fantascienza..
Non è detto, la 3080 l'hanno spottata con 2.1 ghz di boost, la 2080 arriva sugli 1.85 di boost secondo nvidia.
Non sarà come avere una turing a parità di cc.
redbaron
20-08-2020, 12:27
quando presi la 2080 Fe dal loro sito, la scheda risultò ordinabile qualche giorno dopo la presentazione ufficiale. Secondo me a settembre, programmeranno i video di presentazione in stile Ampere A100 sul sito e contestualmente apriranno i pre-order dei vari modelli, che poi evaderanno cronologicamente.
Immagino che quest’anno la presentazione non sia live, controlleró lo shop in contemporanea :doh:
Con turing fu immediato, appena svelate all'evento potevi giá ordinarle.
Finirono subito, tempo 30 minuti max.
Ho la carta pronta, a scatola chiusa al d1 come feci con la 2080ti, semi top o top che sia.. sono un amante del rischio LOL
Ecco questa era la risposta che temevo, quindi immagino lo shop vada down tipo apple per poi ritornare online con le nuove schede.
Ho guardato il sito, ho notato che per lo shop non vale l’utenza nvidia che giá ho...:cry: Devo crearne uno per velocizzare il processo:stordita:
slide1965
20-08-2020, 12:28
Anche io prenderei la 3070 per giocare a 1080p 240hz
Inviato dal mio ELE-L29 utilizzando Tapatalk
pensa che io la prendo si per giocare a 3440x1440 ma soprattutto a 1080p@240hz visto che su giochi come warzone (impostati tutto al minimo) con una 1080ti fa dai 100/120 ai 200 fps se guardi il cielo :P
da possessore di 2 monitor (uno 160hz e l’altro 240hz) e da giocatore competitivo in fps, ti garantisco che da 144hz a 240 hz in game non ti cambia una fico secco , ne a livello di reattività ne a livello di fluidità ne a livello di input lag....o meglio , numericamente qualcosa cambia ma stiamo parlando di lana caprina, aria fritta.
Parliamo di differenze difficilmente percepibili persino da uno strumento è ovviamente impalpabili a livello umano, l’unica cosa che può cambiare è la
convinzione mentale di andare più forte ma qui entriamo in altri ambiti.
Te lo dico non solo avendo in casa uno dei 240hz con input lag più basso che c’è sul mercato e facendolo girare a 240 fps , ma anche dopo aver cercato info su ciò che dicono in merito diversi pro che di mestiere giocano agli fps (lasciamo stare ciò che devono mostrare perché sponsorizzati, parlo di pareri reali dietro le quinte su ciò che realmente serve e ciò che è superfluo).
Premesso che uno abbia periferiche di qualità con poco lag e un monitor con fq minima di refresh di 144/165hz, l’incidenza che avrebbe sulle performance il passare ad un 240hz sarebbe nell’ordine dello 0.000000001%, laddove il restante 9999% che andrà a determinare l’esito di una kill fatta o subita è a carico dalla skill del giocatore , per skill intendo capacità di reazione , posizionamento , copertura , mira e riflessi.
Premesso che uno possegga questa skill, un miglioramento marginale ma perlomeno constatabile e traducibile in un aiuto a incrementare (lievemente) le performance grazie alla riduzione del lag , lo si ha se si riescono a fare dai 400 fps in su indipendentemente dalla fq del pannello (144 o 240 che sia ), ma cosa impossibile su cod anche se giri in fullhd con una 2080ti.
È molto più importante per la skill avere un pannello con poco ghosting e di dimensioni ridotte che nei movimenti veloci lasci chiarezza nell’immagine piuttosto che millemila hz, il rapporto tra i 2 fattori (hz e ghosting) non necessariamente va a braccetto.
Fine ot
mikael84
20-08-2020, 12:37
sempre colpa di AMD :bsod:
Perchè quoti me?
Ho detto semplicemente che, se JHH spara 1499% per una FE, è probabile che lui creda che RDNA2 andrà quanto una 3080, e sicuramente li Lisa gli farà il cartello.
Non voglio pensare che AMD entri nel mercato enthusiast con GPU da 1500 euro.;)
Ma veramente pensate che una 3070 possa andare in raster come una 2080 TI ?
una 2070 ha 2304 SU
una 2070 super ha 2560 SU
una 2080 ha 2944 SU
una 2080 super ha 3072 SU
una 2080 TI ha 4352 SU
https://wccftech.com/nvidia-geforce-rtx-3070-ti-rtx-3070-ampere-gaming-gpu-specs-rumor/
i rumor qua dicono che :
3070 TI ha 3072 SU con GDDR6X
3070 ha 2944 SU con GDDR6
quindi se riesce a superare in raster la 2080 super è già tanto secondo me poi magari hanno fatto un mega miracolo e raggiunge e supera la 2080 TI , in caso sarò contento per voi sperando che non costi un mezzo rene o più ....
La 3080 è una 2080ti con più ram e meno rop's, ma dovrebbe andare il 20% in più.
Questo lo ricavi da IPC e magari clock base leggermente più alti.
Considera che il lavoro l1 dati che turing doveva portare da volta, è stato rimandato, mentre la l2 raddoppierà.
Su review, le medie 1440p sono di + 21/22%, a cui devi già partire, mettendo ram superiori e magari clock di base, un pelo superiori. Dopo bisognerà vedere l'impatto dell'IPC.
Chi se la giocherà meglio, sarà la 3070ti (chip full), che parte da soli -15% e ram ben maggiori.
Non è detto, la 3080 l'hanno spottata con 2.1 ghz di boost, la 2080 arriva sugli 1.85 di boost secondo nvidia.
Non sarà come avere una turing a parità di cc.
Mi pare di aver letto che via bios, schiantano a 2100, come le samsung 14nm LPP, schiantavano a 1900. :)
La 3090 è un chip incerto non si capisce bene come si posiziona, ma è sempre un chip singolo e non credo che nel 2020 abbia più senso fare dual gpu, considerando il supporto software sta andando a scemare.
Per le performance della 3070, in raster dovrebbe andare come una 2080ti, in RT non si sa ma lo stacco dovrebbe essere molto elevato.
Inutile dire che schede di questo tipo in FHD sono sprecatissime...
Ma che tipo di processore amd va abbinato ?
Arriva ai 144hz nel caso in fhd?
per aver sia fps che qualità che formato consigliate invece di un fhd ?
Comunque Grazie per le risposte
Kingdemon
20-08-2020, 12:52
Potresti pensare ad un pannello 1440p @144 Hz ottimo compromesso qualità/fps.
Con una ipotetica 3070 sarebbe perfetto.
Andy1111
20-08-2020, 12:53
La 3080 è una 2080ti con più ram e meno rop's, ma dovrebbe andare il 20% in più.
Questo lo ricavi da IPC e magari clock base leggermente più alti.
Considera che il lavoro l1 dati che turing doveva portare da volta, è stato rimandato, mentre la l2 raddoppierà.
Su review, le medie 1440p sono di + 21/22%, a cui devi già partire, mettendo ram superiori e magari clock di base, un pelo superiori. Dopo bisognerà vedere l'impatto dell'IPC.
Chi se la giocherà meglio, sarà la 3070ti (chip full), che parte da soli -15% e ram ben maggiori.
Mi pare di aver letto che via bios, schiantano a 2100, come le samsung 14nm LPP, schiantavano a 1900. :)
Per la 3080 dovresti considerare le review in 4k secondo me sempre parlando di raster.
La 3070 TI se c'è veramente sarà un chip full col costo di una 2080 super minimo.
Ma che una 3070 che è già uno scarto e sembra userà le GDDR6 non le X arrivi a raggiungere la 2080 TI e superarla non ci credo proprio, poi magari sbaglio , il clock se sarà un 10% in più è già tantissimo. Anzi 10% sballa alla grande diciamo 5%
da possessore di 2 monitor (uno 160hz e l’altro 240hz) e da giocatore competitivo in fps, ti garantisco che da 144hz a 240 hz in game non ti cambia una fico secco , ne a livello di reattività ne a livello di fluidità ne a livello di input lag....o meglio , numericamente qualcosa cambia ma stiamo parlando di lana caprina, aria fritta.
Parliamo di differenze difficilmente percepibili persino da uno strumento è ovviamente impalpabili a livello umano, l’unica cosa che può cambiare è la
convinzione mentale di andare più forte ma qui entriamo in altri ambiti.
Te lo dico non solo avendo in casa uno dei 240hz con input lag più basso che c’è sul mercato e facendolo girare a 240 fps , ma anche dopo aver cercato info su ciò che dicono in merito diversi pro che di mestiere giocano agli fps (lasciamo stare ciò che devono mostrare perché sponsorizzati, parlo di pareri reali dietro le quinte su ciò che realmente serve e ciò che è superfluo).
Premesso che uno abbia periferiche di qualità con poco lag e un monitor con fq minima di refresh di 144/165hz, l’incidenza che avrebbe sulle performance il passare ad un 240hz sarebbe nell’ordine dello 0.000000001%, laddove il restante 9999% che andrà a determinare l’esito di una kill fatta o subita è a carico dalla skill del giocatore , per skill intendo capacità di reazione , posizionamento , copertura , mira e riflessi.
Premesso che uno possegga questa skill, un miglioramento marginale ma perlomeno constatabile e traducibile in un aiuto a incrementare (lievemente) le performance grazie alla riduzione del lag , lo si ha se si riescono a fare dai 400 fps in su indipendentemente dalla fq del pannello (144 o 240 che sia ), ma cosa impossibile su cod anche se giri in fullhd con una 2080ti.
È molto più importante per la skill avere un pannello con poco ghosting e di dimensioni ridotte che nei movimenti veloci lasci chiarezza nell’immagine piuttosto che millemila hz, il rapporto tra i 2 fattori (hz e ghosting) non necessariamente va a braccetto.
Fine ot
Quindi per il competitive che monitor consiglieresti? un fhd a 340hz con tutte le features che hai detto prima o puntare su un 2k 144hz o 4k?
Inoltre hai detto che è meglio avere un monitor di dimensioni ridotte, ma gia un 24" sarebbe troppo poco..
fraussantin
20-08-2020, 12:59
Ma cosa intendete con 3070ti chip full ? Am106?
Non era un supercut del 104?
Ale55andr0
20-08-2020, 13:01
Una 1070 ha 1920 cc, eppure se la giocava senza problemi con i 2816 della 980 ti.
con uno strafottio di clock in più
Una domanda: ma quanto costa il lanternino? :D
Ale55andr0
20-08-2020, 13:05
Ma che tipo di processore amd va abbinato ?
Arriva ai 144hz nel caso in fhd?
per aver sia fps che qualità che formato consigliate invece di un fhd ?
Comunque Grazie per le risposte
con un 3700x ci arrivi tranquillo, poi dipende dai giochi
Per avere fps e "qualità", se intesa come risoluzione superiore al 1080p, non è il processore il problema ma la scheda video....in ogni caso 144hz (frame) in 4k te li puoi scordare anche con una 3090 turbo nos elaborata mi sa...
slide1965
20-08-2020, 13:07
Quindi per il competitive che monitor consiglieresti? un fhd a 340hz con tutte le features che hai detto prima o puntare su un 2k 144hz o 4k?
Inoltre hai detto che è meglio avere un monitor di dimensioni ridotte, ma gia un 24" sarebbe troppo poco..
340hz non ti servono a nulla.
Il miglior monitor che puoi prendere per il competitivo è in assoluto il benq XL2546s , ma è fuori produzione , a settembre esce il modello nuovo.
Non te lo consiglio perché è 240hz (il predecessore a 144hz aveva le stesse performance in game) ma perché questo non ha praticamente blur.
24/25 pollici sono le dimensioni ideali per il competitivo, sia perché ti permettono una visione completa senza muovere gli occhi, sia perché hanno un pixel pitch accettabile che rende il full hd meno penoso
Ma veramente pensate che una 3070 possa andare in raster come una 2080 TI ?
una 2070 ha 2304 SU
una 2070 super ha 2560 SU
una 2080 ha 2944 SU
una 2080 super ha 3072 SU
una 2080 TI ha 4352 SU
https://wccftech.com/nvidia-geforce-rtx-3070-ti-rtx-3070-ampere-gaming-gpu-specs-rumor/
i rumor qua dicono che :
3070 TI ha 3072 SU con GDDR6X
3070 ha 2944 SU con GDDR6
quindi se riesce a superare in raster la 2080 super è già tanto secondo me poi magari hanno fatto un mega miracolo e raggiunge e supera la 2080 TI , in caso sarò contento per voi sperando che non costi un mezzo rene o più ....
Se andasse come una 2080s tanto valeva prendere turing e farlo a 8nm, consumava meno e forse si recuperava comunque qualcosa in frequenza...
Queste nuove schede avranno un incremento dell'IPC dato sopratutto dalla rivisitazione della cache L1 e L2, dai rumors trapelati fino ad ora siamo nell'intorno del 15-20%, abbinate a memorie più veloci e se siamo fortunati un minimo di clock maggiori...
Senza contare che è un chip nettamente più snello, 4 GPC totali da 6TPC con meno latenza e più gestibile rispetto a chip più muscle, come quello della 2080ti con una struttura a 6 GPC.
Se non andrà come una 2080ti sarà poco sotto... Altrimenti non avrebbe senso...
con un 3700x ci arrivi tranquillo, poi dipende dai giochi
Per avere fps e "qualità", se intesa come risoluzione superiore al 1080p, non è il processore il problema ma la scheda video....in ogni caso 144hz (frame) in 4k te li puoi scordare anche con una 3090 turbo nos elaborata mi sa...
no vabbè io preferisco più fps ed aver una risoluzione comunque decente ma anche i1080p “, poi non so se su cod Mw e nei prossimi li fa Spero, Bhe comunque credevo che ci voleva un processore potente per un tipo di scheda così... nel coso quale consiglieresti ?
Iceman69
20-08-2020, 13:27
Se andasse come una 2080s tanto valeva prendere turing e farlo a 8nm, consumava meno e forse si recuperava comunque qualcosa in frequenza...
Queste nuove schede avranno un incremento dell'IPC dato sopratutto dalla rivisitazione della cache L1 e L2, dai rumors trapelati fino ad ora siamo nell'intorno del 15-20%, abbinate a memorie più veloci e se siamo fortunati un minimo di clock maggiori...
Senza contare che è un chip nettamente più snello, 4 GPC totali da 6TPC con meno latenza e più gestibile rispetto a chip più muscle, come quello della 2080ti con una struttura a 6 GPC.
Se non andrà come una 2080ti sarà poco sotto... Altrimenti non avrebbe senso...
Diciamo che la 3070ti si posizionerà come prestazioni vicino alla 2080s, quindi poco sotto la 2080ti, ma nulla che non ci fosse già ...
Secondo me la 3080 ad andar bene sarà una 2080ti +10% come prestazioni (non parlo di RT, quello lo lascio a chi lo apprezza, io mi sono solo sentito preso in giro con la 2080ti).
Nvidia ha sempre gestito con il misurino le prestazioni, non ha mai regalato niente a nessuno. Poi se AMD sarà competitiva la musica potrebbe cambiare, usciranno le S con prestazioni superiori e prezzi adeguati.
Senza concorrenza Nvidia darà il solito contentino del 20/30% in più di prestazioni rispetto alla serie precedente con prezzi allineati, spero di essere smentito (ovviamente anche a me farebbe piacere una 3080 che va il 30% più della attuale TI).
da possessore di 2 monitor (uno 160hz e l’altro 240hz) e da giocatore competitivo in fps, ti garantisco che da 144hz a 240 hz in game non ti cambia una fico secco , ne a livello di reattività ne a livello di fluidità ne a livello di input lag....o meglio , numericamente qualcosa cambia ma stiamo parlando di lana caprina, aria fritta.
Parliamo di differenze difficilmente percepibili persino da uno strumento è ovviamente impalpabili a livello umano, l’unica cosa che può cambiare è la
convinzione mentale di andare più forte ma qui entriamo in altri ambiti.
Te lo dico non solo avendo in casa uno dei 240hz con input lag più basso che c’è sul mercato e facendolo girare a 240 fps , ma anche dopo aver cercato info su ciò che dicono in merito diversi pro che di mestiere giocano agli fps (lasciamo stare ciò che devono mostrare perché sponsorizzati, parlo di pareri reali dietro le quinte su ciò che realmente serve e ciò che è superfluo).
Premesso che uno abbia periferiche di qualità con poco lag e un monitor con fq minima di refresh di 144/165hz, l’incidenza che avrebbe sulle performance il passare ad un 240hz sarebbe nell’ordine dello 0.000000001%, laddove il restante 9999% che andrà a determinare l’esito di una kill fatta o subita è a carico dalla skill del giocatore , per skill intendo capacità di reazione , posizionamento , copertura , mira e riflessi.
Premesso che uno possegga questa skill, un miglioramento marginale ma perlomeno constatabile e traducibile in un aiuto a incrementare (lievemente) le performance grazie alla riduzione del lag , lo si ha se si riescono a fare dai 400 fps in su indipendentemente dalla fq del pannello (144 o 240 che sia ), ma cosa impossibile su cod anche se giri in fullhd con una 2080ti.
È molto più importante per la skill avere un pannello con poco ghosting e di dimensioni ridotte che nei movimenti veloci lasci chiarezza nell’immagine piuttosto che millemila hz, il rapporto tra i 2 fattori (hz e ghosting) non necessariamente va a braccetto.
Fine otGuarda io devo ancora provare un 240hz visto che per ora sono pienamente soddisfatto dei 144hz+g-sync.
Sicuramente verso natale proverò un monitor 240hz poi valuterò se fare il passaggio o meno.
Cmq grazie per le dritte 👍
Inviato dal mio ELE-L29 utilizzando Tapatalk
maxmix65
20-08-2020, 13:32
Cominceró a ridere parecchio se 3080 andrà forte quanto il leak del timespy postato da maxmix65 ai tempi, allora si che andranno a cannone, io ci spero ancora, anche se in cuor mio la vedo a +20% da 2080ti (purtroppo)
Da come ho letto la founder avra' 10gb mentre i partner potranno farla anche con 20gb....
Vediamo alla presentazione che dicono
Diciamo che la 3070ti si posizionerà come prestazioni vicino alla 2080s, quindi poco sotto la 2080ti, ma nulla che non ci fosse già ...
Secondo me la 3080 ad andar bene sarà una 2080ti +10% come prestazioni (non parlo di RT, quello lo lascio a chi lo apprezza, io mi sono solo sentito preso in giro con la 2080ti).
Nvidia ha sempre gestito con il misurino le prestazioni, non ha mai regalato niente a nessuno. Poi se AMD sarà competitiva la musica potrebbe cambiare, usciranno le S con prestazioni superiori e prezzi adeguati.
Senza concorrenza Nvidia darà il solito contentino del 20/30% in più di prestazioni rispetto alla serie precedente con prezzi allineati, spero di essere smentito (ovviamente anche a me farebbe piacere una 3080 che va il 30% più della attuale TI).Secondo me una 3070ti non può avere prestazioni simili ad una 2080s altrimenti la 3070 va leggermente di più di una classica 2080 e non avrebbe molto senso.
Inviato dal mio ELE-L29 utilizzando Tapatalk
Quindi per il competitive che monitor consiglieresti? un fhd a 340hz con tutte le features che hai detto prima o puntare su un 2k 144hz o 4k?
Inoltre hai detto che è meglio avere un monitor di dimensioni ridotte, ma gia un 24" sarebbe troppo poco..Guarda io gioco competitivo in BF5 su un full HD 144hz e riesco ad ottenere ottimi risultati.
Per il discorso dimensioni e risoluzione dipende tutto dalla distanza di gioco dal monitor, io per esempio gioco a meno di un metro dal monitor e prenderne uno più grande di 24pollici sarei costretto ad allenarmi dal monitor.
Inviato dal mio ELE-L29 utilizzando Tapatalk
ninja750
20-08-2020, 13:43
Perchè quoti me?
Ho detto semplicemente che, se JHH spara 1499% per una FE, è probabile che lui creda che RDNA2 andrà quanto una 3080, e sicuramente li Lisa gli farà il cartello.
il problema è che usciranno prima le verdi quindi o ha delle talpe ben informate oppure prezzerà le sue schede come meglio crede a prescindere da quello che faranno i rossi e al massimo farà un piccolo ribasso all'uscita di navi2 oppure ancora un ritocco "super" alla lineup come quello fatto all'uscita di navi1 facendo mangiare le mani chi ha comprato le non-s al day1 tra l'altro con i problemi che purtroppo abbiamo visto
purtroppo per noi tutte e due le società stanno lucrando tantissimo, una perchè vende chippetti al prezzo di chip, l'altra perchè vende chipponi a prezzi di gioielleria.. tutte e due credo abbiano un grosso margine per ritoccare gli street price qualora il competitor dovesse presentare qualcosa messo meglio come prezzo/perf.
con un 3700x ci arrivi tranquillo, poi dipende dai giochi
Per avere fps e "qualità", se intesa come risoluzione superiore al 1080p, non è il processore il problema ma la scheda video....in ogni caso 144hz (frame) in 4k te li puoi scordare anche con una 3090 turbo nos elaborata mi sa...
Edit sbagliato sessione
Diciamo che la 3070ti si posizionerà come prestazioni vicino alla 2080s, quindi poco sotto la 2080ti, ma nulla che non ci fosse già ...
Secondo me la 3080 ad andar bene sarà una 2080ti +10% come prestazioni (non parlo di RT, quello lo lascio a chi lo apprezza, io mi sono solo sentito preso in giro con la 2080ti).
Nvidia ha sempre gestito con il misurino le prestazioni, non ha mai regalato niente a nessuno. Poi se AMD sarà competitiva la musica potrebbe cambiare, usciranno le S con prestazioni superiori e prezzi adeguati.
Senza concorrenza Nvidia darà il solito contentino del 20/30% in più di prestazioni rispetto alla serie precedente con prezzi allineati, spero di essere smentito (ovviamente anche a me farebbe piacere una 3080 che va il 30% più della attuale TI).
La 2080ti è un chip molto muscle e difficile da gestire, per di più su 12nm trovo difficile far di meglio, Turing sarebbe stato opportuno farlo con pp più avanzati.
Con Ampere la 3070 è un chip decisamente più snello e non si porta dietro una miriade di collegamenti vuoti e quant'altro, ed è più semplice sfruttare a pieno tutte le risorse, non è una novità che le risorse HW non scalino in modo perfettamente lineare con l'incremento delle unità, infatti è lecito supporre che gli 8nm andranno decisamente stretti ai chipponi e proporli a 7nm avrebbe fatto un notevole balzo in avanti se però AMD non avesse già saturato tutta la produzione.
Già se si osserva la 2080s ci si rende conto come il chip abbia rapporti completamente sballati con una struttura a 6GPC e un collegamento a 256bit, non è un caso che a questo giro nvidia abbia ritenuto più opportuno ricavare la x80 direttamente da GA102, il che lascia però presumere che le stesse rese non siano tutto questo che e personalmente mi ricorda molto il periodo di Kepler prima di essere completamente soppiantato da Maxwell.
ninja750
20-08-2020, 13:54
problemi di surriscaldamento memorie con i primi sample dei partner:
https://www.igorslab.de/en/nvidia-ampere-shows-his-hot-sides-and-self-the-board-partners-are-still-in-the-dark/
secondo me si rinvierà di un mesetto ALMENO
Thunder-74
20-08-2020, 14:01
Da come ho letto la founder avra' 10gb mentre i partner potranno farla anche con 20gb....
Vediamo alla presentazione che dicono
Meglio aspettare qualche mese e sicuramente Amd
Inviato dal mio iPad utilizzando Tapatalk
È sempre curioso leggere questi thread soprattutto in prossimità dell'uscita delle nuove VGA....
"Costretti" "purtroppo" "ladri" "cartello"e via dicendo.... Guardate che solo le vaccinazioni sono obbligatorie, non siete purtroppo costretti a comprare niente da chi reputate ladro.... E poi " sta volta non mi fregano" diventa ciclico.
Patetici, magari son proprio quelli che poi i vaccini non li fanno :sofico:
scorpion73
20-08-2020, 14:14
Meglio aspettare qualche mese e sicuramente Amd
Inviato dal mio iPad utilizzando Tapatalk
Ricominciano come con Turing?
Giovamas
20-08-2020, 14:15
È sempre curioso leggere questi thread soprattutto in prossimità dell'uscita delle nuove VGA....
"Costretti" "purtroppo" "ladri" "cartello"e via dicendo.... Guardate che solo le vaccinazioni sono obbligatorie, non siete purtroppo costretti a comprare niente da chi reputate ladro.... E poi " sta volta non mi fregano" diventa ciclico.
Bravo :) io l'ho pensato e tu l'hai scritto. nessuno è obbligato.
comunque si pare che ci siano problemi di gioventù. speriamo non gravi come con Turing (io ho già dato in tal senso). secondo me si rinvia come dice l'utente ninja. vediamo che dicono
thunderforce83
20-08-2020, 14:25
non so quanto sia attendibile ma diversi rumor dicono che hanno iniziato i test da un po' ed un problema che stanno trovando riguarda le memorie gddr6x che a quanto pare scaldano parecchio...vedremo
Thunder-74
20-08-2020, 14:31
Ricominciano come con Turing?
Bé Turing ha avuto un avvio che è stato un calvario. Io aspetterò , sia per vedere le possibili contromosse al lancio dei prodotti AMD, sia perché se è vero che queste nuove ddr scaldano troppo, non voglio trovarmi a fare RMA.
Purtroppo i veri beta tester sono gli utenti
Inviato dal mio iPhone X utilizzando Tapatalk
maxmix65
20-08-2020, 14:32
non so quanto sia attendibile ma diversi rumor dicono che hanno iniziato i test da un po' ed un problema che stanno trovando riguarda le memorie gddr6x che a quanto pare scaldano parecchio...vedremo
Anche perche' in teoria avra' un pcb per i puffi... metti il tutto su un pcb decente si rientra nella norma
mikael84
20-08-2020, 14:39
Per la 3080 dovresti considerare le review in 4k secondo me sempre parlando di raster.
La 3070 TI se c'è veramente sarà un chip full col costo di una 2080 super minimo.
Ma che una 3070 che è già uno scarto e sembra userà le GDDR6 non le X arrivi a raggiungere la 2080 TI e superarla non ci credo proprio, poi magari sbaglio , il clock se sarà un 10% in più è già tantissimo. Anzi 10% sballa alla grande diciamo 5%
Si, ma la 3080 non centra nulla con GA104, è lo stesso chip della 2080ti con BW ed IPC, da vedere il clock.
https://i.postimg.cc/ZqWQpx8D/TU102.png
Parti già da una base di oltre + 1500 sulla BW
E' come se la 2080ti avesse ram sopra i 17gb/s contro i 14.
La l1 aumentata permetterà di avere una BW l1 più elevata e massiccia.
Pensa che zen2 ed haswell hanno fatto i miracoli li.
La 3070 sarà uno scarto, con soli 128cc in meno della full e meno ratio BW.
Ma cosa intendete con 3070ti chip full ? Am106?
Non era un supercut del 104?
No GA104 full.
Probabilmente su quesot chip, ci sarà la versione full (3070ti/super), cut, 3070 e 3060 super, mega cut.
La 3060 sarà GA106.
Cominceró a ridere parecchio se 3080 andrà forte quanto il leak del timespy postato da maxmix65 ai tempi, allora si che andranno a cannone, io ci spero ancora, anche se in cuor mio la vedo a +20% da 2080ti (purtroppo)
Vorrebbe dire che samsung o nvidia hanno fatto i miracoli.
Se non spari tanto clock, devi sperare in IPC pazzeschi, tanto da vero cambio micro architetturale.
Da come ho letto la founder avra' 10gb mentre i partner potranno farla anche con 20gb....
Vediamo alla presentazione che dicono
Possibile che ci siano custom con doppia densità. Quello i partner possono farlo tranquillamente.
Secondo me una 3070ti non può avere prestazioni simili ad una 2080s altrimenti la 3070 va leggermente di più di una classica 2080 e non avrebbe molto senso.
Inviato dal mio ELE-L29 utilizzando Tapatalk
e le avesse, si parlerebbe di rebrand
il problema è che usciranno prima le verdi quindi o ha delle talpe ben informate oppure prezzerà le sue schede come meglio crede a prescindere da quello che faranno i rossi e al massimo farà un piccolo ribasso all'uscita di navi2 oppure ancora un ritocco "super" alla lineup come quello fatto all'uscita di navi1 facendo mangiare le mani chi ha comprato le non-s al day1 tra l'altro con i problemi che purtroppo abbiamo visto
JHH secondo te prezza la 3090 FE a 1499$, ad un mese dall'uscita di AMD?
Gli annunci di AMD, gli ha fatti JHH stesso, prima ha fatto uscire super e mille varianti di 1660, poi con calma sono uscite le AMD.
Quando ha saputo delle 290 è andato in panico, perchè lo sapeva.;)
Se poi AMD, tira fuori un super chip, non è JHH a rimanere fregato, ma chi compra al D1, sapendo che il competitor, prima o poi si fara vivo.
ninja750
20-08-2020, 14:39
il dissipatore da 150$ non basta :O d'altra parte dissipare tutti quei watt, lo abbiamo detto pagine addietro, non sarà facile
a meno di fregarsene e fare andare la vga "in throttling" un po come le soluzioni intel.. un minuto di super boost per far girare il benchmark al massimo wattaggio e avere i numeroni poi un gran ridimensionamento dopo il minuto
fosse vero a sto punto o rinviano tutto oppure potrebbero fare uscire prima le versioni con memorie normali dalla 3070 in giu, ma viste le ultime presentazioni dove fanno uscire prima la top per ingolosire il pubblico, più probabile la prima soluzione.. magari vediamo prima navi a ottobre :asd:
oppure refreshano le attuali in "super ti" come tappabuchi :O :O
mattxx88
20-08-2020, 14:43
problemi di surriscaldamento memorie con i primi sample dei partner:
https://www.igorslab.de/en/nvidia-ampere-shows-his-hot-sides-and-self-the-board-partners-are-still-in-the-dark/
secondo me si rinvierà di un mesetto ALMENO
ma il pcb è "rettangolare" classico allora vedendo quella termica
fraussantin
20-08-2020, 14:46
problemi di surriscaldamento memorie con i primi sample dei partner:
https://www.igorslab.de/en/nvidia-ampere-shows-his-hot-sides-and-self-the-board-partners-are-still-in-the-dark/
secondo me si rinvierà di un mesetto ALMENO
saranno le ddr6x ... non penso che le 6 scaldino tanto , a meno che non le abbiano cloccate assurdamente
mikael84
20-08-2020, 14:47
problemi di surriscaldamento memorie con i primi sample dei partner:
https://www.igorslab.de/en/nvidia-ampere-shows-his-hot-sides-and-self-the-board-partners-are-still-in-the-dark/
secondo me si rinvierà di un mesetto ALMENO
la 2080TI, registra circa 50 watt su quei miseri 11gb, certo che quelle memorie saranno caldissime.:p
saranno le ddr6x ... non penso che le 6 scaldino tanto , a meno che non le abbiano cloccate assurdamente
Quelle memorie sono fatte apposta per abbassare il clock con PAM4.
Le gddr6 a quanto pare hanno fallito (per andare oltre serviva tesnione).
Vogliono emulare le HBM in ratio.
Chiaro che a livello di logica, e magari di tensione finale saranno complesse.
ninja750
20-08-2020, 14:48
JHH secondo te prezza la 3090 FE a 1499$, ad un mese dall'uscita di AMD?
Gli annunci di AMD, gli ha fatti JHH stesso, prima ha fatto uscire super e mille varianti di 1660, poi con calma sono uscite le AMD.
Quando ha saputo delle 290 è andato in panico, perchè lo sapeva.;)
Se poi AMD, tira fuori un super chip, non è JHH a rimanere fregato, ma chi compra al D1, sapendo che il competitor, prima o poi si fara vivo.
lui non rimarrà mai fregato :D l'azienda sta andando fortissimo da anni ed è in notevole vantaggio tecnologico e può perciò fare marginalità enormi perchè tanto prezza come vuoi, vende lo stesso
quella 3090FE è talmente un prodotto a sè stante che lo può piazzare anche a 1999€ tanto chi vuole la top è ormai abituato a sborsare sempre di più ed è certo che AMD non arriverà fino a li nemmeno questa volta
i crucci credo li abbia solo nelle fasce di mezzo dove invece la competitività pare ci sarà, potrà al solito tenersi quei 100$ sopra amd ma non tanto di più se pure loro avranno il RT che era l'unico plus con turing.. e col senno di poi possiamo tranquillamente affermare che se lo sono bruciato visto i pochi titoli presentati e in che (mal) modo implementati
oZonoRobotics
20-08-2020, 14:50
da possessore di 2 monitor (uno 160hz e l’altro 240hz)...
allora sono veramente fortunato a essere l'unico a vedere la differenza tra 144 e 240! sono sarcastico, la differenza c'è, basta giocare per una settimana parecchie ore al giorno a 240hz (su un gioco dove li fai facili e fissi) e poi torni a 144... vedi subito che quando muovi il mouse (parlo di sparatutto in soggettiva) non è più come prima... se poi parliamo di tutti gli altri generi, son d'accordo sul fatto che non cambi niente...
mikael84
20-08-2020, 14:55
lui non rimarrà mai fregato :D l'azienda sta andando fortissimo da anni ed è in notevole vantaggio tecnologico e può perciò fare marginalità enormi perchè tanto prezza come vuoi, vende lo stesso
quella 3090FE è talmente un prodotto a sè stante che lo può piazzare anche a 1999€ tanto chi vuole la top è ormai abituato a sborsare sempre di più ed è certo che AMD non arriverà fino a li nemmeno questa volta
i crucci credo li abbia solo nelle fasce di mezzo dove invece la competitività pare ci sarà, potrà al solito tenersi quei 100$ sopra amd ma non tanto di più se pure loro avranno il RT che era l'unico plus con turing.. e col senno di poi possiamo tranquillamente affermare che se lo sono bruciato visto i pochi titoli presentati e in che (mal) modo implementati
Non rimarrà mai fregato, perchè le vende ai pro.
24gb in nvlink diventano 48gb. Una quadro con 48gb costa 10000$, e non a tutit i pro servono quei driver.
La fascia alta di nvidia, punta principalmente ai pro, poi a chi le vende, le vende, si sarà fatto i conti, non è stupido.:p
redbaron
20-08-2020, 15:05
Con questi possibili problemi di surriscaldamento, la scheda poteva passare la certificazione RRA ? Chiedo.
arkantos91
20-08-2020, 15:15
allora sono veramente fortunato a essere l'unico a vedere la differenza tra 144 e 240! sono sarcastico, la differenza c'è, basta giocare per una settimana parecchie ore al giorno a 240hz (su un gioco dove li fai facili e fissi) e poi torni a 144... vedi subito che quando muovi il mouse (parlo di sparatutto in soggettiva) non è più come prima... se poi parliamo di tutti gli altri generi, son d'accordo sul fatto che non cambi niente...
La differenza c'è ma parliamo di diminishing returns wrt cost sempre maggiori superati i 144 Hz... a meno che ovviamente non parliamo di pro players, ma dubito sia il caso di noi umili utenti del foro :D
Il salto maggiore è sicuramente 60 -> 144, tant'è che una volta fatta l'abitudine i 60 Hz diventano scattosi al limite del vomito... poi quando ho acceso la PS4 con Bloodborne che va a 30 fps non credevo ai miei occhi :D
ultimate trip
20-08-2020, 15:17
Essendo pcb particolari (per le FE) terranno il segreto piú a lungo possibile, a sto giro dissi e pcb non saranno convenzionali come al solito.
Intanto credo proprio di riprendermi una FE, questa sembra ancor piú bella delle precedenti, molto minimal come design, le custom saranno le solite rumenate (esteticamente parlando) con dissi a 4 slot e gabbie anti squalo, robe inguardabili su casi finestrati.
ma founder e custom in passato erano confrontabili a livello di qualità? o la founder è cmq di livello inferiore solo che è subito disponibile?
ninja750
20-08-2020, 15:24
Il salto maggiore è sicuramente 60 -> 144, tant'è che una volta fatta l'abitudine i 60 Hz diventano scattosi al limite del vomito... poi quando ho acceso la PS4 con Bloodborne che va a 30 fps non credevo ai miei occhi :D
secondo me ancora più di 60->144 il salto maggiore è passare alla frequenza variabile
Crysis90
20-08-2020, 15:29
Con questi possibili problemi di surriscaldamento, la scheda poteva passare la certificazione RRA ? Chiedo.
Direi di si:
https://wccftech.com/nvidia-rtx-3090-founders-edition-board-passes-rra-certification/
Intanto abbiamo la prima vera conferma che esiste effettivamente un nuovo modello, quello X090.
Adesso bisogna solo capire se sostituisce la TITAN o la Ti.
thunderforce83
20-08-2020, 15:33
Anche perche' in teoria avra' un pcb per i puffi... metti il tutto su un pcb decente si rientra nella norma
eh, chi l'avrebbe mai detto per delle memorie overclockate a +19g...
tutto questo per ostinarsi a non mettere i 512bit.
sarà veramente dura raffreddare ste gpu, sia per die che per ram.
https://hardzone.es/noticias/tarjetas-graficas/nvidia-ampere-problemas-temperatura-gddr6x/
non so quanto sia attendibile..credo che siamo nella fase che praticamente cominceranno ad uscire rumor di tutti i tipi...
comunque credo che oltre ad essere supercostose a sto giro saranno superhot queste nuove...se andavano di 7nm non esistevano sti problemi ma evidentemente se hanno deciso cosi' non c'era bisogno oppure hanno visto guadagni/disponibilita' fonderie...questa volta secondo me il raffreddamento a liquido con un radiatore muscle fara' veramente la differenza tra 2100mhz pochi secondi a 2100mhz fissi a manetta:D
arkantos91
20-08-2020, 15:44
secondo me ancora più di 60->144 il salto maggiore è passare alla frequenza variabile
Da possessore di monitor G-Sync non posso che ovviamente sottoscrivere
Con turing le founders sono dei bei pezzi, io ho tenuto 2 anni una 2080ti, perfetta, rivenduta ora a 900 euro.
Mazza, ho notato che lo hai scritto n volte nel giro di un numero troppo ristretto di pagine. Abbiamo capito che hai spennato per bene un povero polletto :D
Sai se si vuole acquistare pure la mia di 2080TI?
Scherzi a parte, come dice il meme opportunamente adeguato all'occasione nel mio caso: I don't always buy a flagship GPU, but when I do, it's both the most expensive and the most devalued one when the new gpus will come out"
slide1965
20-08-2020, 15:45
allora sono veramente fortunato a essere l'unico a vedere la differenza tra 144 e 240! sono sarcastico, la differenza c'è, basta giocare per una settimana parecchie ore al giorno a 240hz (su un gioco dove li fai facili e fissi) e poi torni a 144...
Ho giocato parecchie ore sul 240hz, credimi , quello che tu pensi di ottenere di diverso non c’è , è una tua suggestione e ti capisco perfettamente perché prima di fare dei confronti approfonditi anche io la pensavo come te .
Come dicevo , anzi , io non sono nessuno , come dicono la gran parte dei top player che seguo ( parliamo dei giocatori più forti al mondo non di pizza e fichi) , un ottimo player con un ottima attrezzatura non ha guadagni percettibili dal passare da 144/160 a 240hz, l’unico guadagno è la convinzione mentale di avere più hz, percepisci qualcosa di diverso ma nella pratica, quindi in game , se sei scarso resti scarso , se sei forte resti forte , le performance restano pressoché identiche e rimangono tali perché la skill è fatta da innumerevoli fattori , in una sfida in multi player i fattori che incidono sul ritardo, le periferiche e le connessioni , sono infinitesimamente più grandi del chicco di sabbia di beneficio che hai dal passare da 144 a 240hz.
Oltre ad una certa soglia di input lag non si scende , perlomeno con le tecnologie attuali , per cui , ridotto per quanto possibile al massimo l’input lag, avendo un pannello con tempo di risposta e blur quanto più ridotti possibile , da lì in poi la differenza la fa il manico , non se fai 144, 160, 200 o 250 hz.
In sostanza la differenza è talmente minima a livello di prestazioni assolute che soltanto un robot potrebbe apprezzare le differenze , se trovo ti giro in privato il link di un test dove 4 tra i giocatori più forti al mondo hanno fatto una prova in cieco tra 144vs240, alcuni di loro hanno raggiunto tempi di reazione più veloci sul 144, :read: Shroud, player molto forte, era uno di questi , tanto che nell’intervista successiva disse molto chiaramente che non sarebbe in grado di descrivere differenze tra i 2 pannelli.
Ora ,io non sono Shroud, ma ho una skill abbastanza alta, ho giocato ore e ore e gioco tuttora sia con benq xl2546s e con predator xb3, 2 tra i pannelli a 240hz più prestazionali , la mia forza , la mia abilità , le mie kill , sono esattamente le stesse che ho sul 160hz e questo perché finché facciamo le prove nel desktop muovendo le finestre per vedere quanta scia lasciano tutti i santi aiutano , anche io noto differenze in quel contesto tra 160hz e 240hz, ma quando entri in game e giochi , i fattori che determinano le performance sono decine , la tua skill non la farà certo il fare 80hz in più al secondo , vai sereno.
Adesso mi fermo perché siamo ot, se sei interessato proseguiamo in un thread apposito dove posso metterti i link di alcune dirette dove diversi top player affermano molto serenamente che la differenza di prestazioni che ottengono tra il giocare a 144 e 240 è praticamente indistinguibile, stiamo parlando dei player più forti sul pianeta.... ora se tu ottieni differenze sulla skill ti faccio i complimenti .
mattxx88
20-08-2020, 15:47
avete rotto la minchi@co sti HZ
redbaron
20-08-2020, 15:47
Direi di si:
https://wccftech.com/nvidia-rtx-3090-founders-edition-board-passes-rra-certification/
Intanto abbiamo la prima vera conferma che esiste effettivamente un nuovo modello, quello X090.
Adesso bisogna solo capire se sostituisce la TITAN o la Ti.
Si la notizia della certificazione l’avevo messa io stamattina , la mia era una domanda un po’ provocatoria. La certificazione é per una FE, magari i problemi di surriscaldamento sono piú per le custom
scorpion73
20-08-2020, 15:59
Boh, se è la memoria a scaldare, la puoi mettere sul PCB che ti pare che scalda lo stesso. Non penso che i PCB delle custom siano raffreddati peggio delle FE, anzi....
ultimate trip
20-08-2020, 16:16
Si la notizia della certificazione l’avevo messa io stamattina , la mia era una domanda un po’ provocatoria. La certificazione é per una FE, magari i problemi di surriscaldamento sono piú per le custom
Boh, se è la memoria a scaldare, la puoi mettere sul PCB che ti pare che scalda lo stesso. Non penso che i PCB delle custom siano raffreddati peggio delle FE, anzi....
magari sono solo le custom dove raddoppiano la memoria
Quanto può valere usata una rtx 2080ti? Conviene prenderla usata ora?
slide1965
20-08-2020, 16:38
avete rotto la minchi@co sti HZ
Sorry ....hai ragione :banned:
mikael84
20-08-2020, 16:56
Boh, se è la memoria a scaldare, la puoi mettere sul PCB che ti pare che scalda lo stesso. Non penso che i PCB delle custom siano raffreddati peggio delle FE, anzi....
Quello che trovo veramente insolito, è che si parli di design a conchiglia, ovvero con le ram su entrambi i lati a 8 bit.
Questo si faceva, con le vecchie ram, in quanto non esisteva la doppia densità o con la quadro rtx 8000 per 48gb.
Sarà bello vedere il consumo di questi moduli, quando le gddr6 della 2080ti raggiungevano valori prossimi ai 50watt x11gb.
TigerTank
20-08-2020, 16:57
Patetici, magari son proprio quelli che poi i vaccini non li fanno :sofico:
Bravo :) io l'ho pensato e tu l'hai scritto. nessuno è obbligato.
comunque si pare che ci siano problemi di gioventù. speriamo non gravi come con Turing (io ho già dato in tal senso). secondo me si rinvia come dice l'utente ninja. vediamo che dicono
Ma infatti il problema non sussiste. Nvidia vuole un rene per la 3090/3080Ti? Si scala eventualmente di fascia...come fatto con la 2080 spendendo quasi la metà rispetto alle 2080Ti custom disponibili allora :D
Semmai il peggio è chi si prende 1500€ di vga e poi la vende in anticipo(quindi riducendo ulteriormente il tempo di sfruttamento effettivo), senza sapere quando effettivamente usciranno le nuove...per la paura si smenarci troppo sul valore di vendita/recupero.
O imho chi si fionda in preorder sulle prime ammiraglie disponibili, addirittura comprandone pure due...per poi far parte dell'"uragano" di proteste che si scatenano in caso di problemi sui primi lotti (come successo con le Turing).
Di sicuro la vicenda delle prime Turing che esplodevano a me hanno insegnato a prestare maggior cautela e ad andare solo a colpo sicuro :D
Crescita negli ultimi anni dei prezzi Nvidia a parita` di segmento di chip:
https://i.redd.it/bh6ol7jz54i51.jpg
oZonoRobotics
20-08-2020, 17:14
Ho giocato parecchie ore sul 240hz,
ok siamo ot e chiudo dicendo che l'occhio umano non funziona per fps (digitali) ma in modo "analogico", pure io non sono nessuno, gioco for fun, quando mi guardo in giro su un fps veloce e ho più fps vedo più nitido e in modo "continuo"... fine ot
Ton90maz
20-08-2020, 17:16
Ma veramente pensate che una 3070 possa andare in raster come una 2080 TI ?
una 2070 ha 2304 SU
una 2070 super ha 2560 SU
una 2080 ha 2944 SU
una 2080 super ha 3072 SU
una 2080 TI ha 4352 SU
https://wccftech.com/nvidia-geforce-rtx-3070-ti-rtx-3070-ampere-gaming-gpu-specs-rumor/
i rumor qua dicono che :
3070 TI ha 3072 SU con GDDR6X
3070 ha 2944 SU con GDDR6
quindi se riesce a superare in raster la 2080 super è già tanto secondo me poi magari hanno fatto un mega miracolo e raggiunge e supera la 2080 TI , in caso sarò contento per voi sperando che non costi un mezzo rene o più ....Può anche essere, ma la cosa che fa ridere è che da una parte con meno di 3000 cinesini e un clock, secondo i rumor, non entisiasmante si prende o supera la 2080 Ti easy, dall'altra parte, con 5120 cinesini, l'interfaccia a 32 canali e il processo produttivo migliorato, c'è il dubbio che superi di poco una 2080 Ti, e partendo da due architetture allineate per "ipc".
È sempre curioso leggere questi thread soprattutto in prossimità dell'uscita delle nuove VGA....
"Costretti" "purtroppo" "ladri" "cartello"e via dicendo.... Guardate che solo le vaccinazioni sono obbligatorie, non siete purtroppo costretti a comprare niente da chi reputate ladro.... E poi " sta volta non mi fregano" diventa ciclico.
Cosa bisogna dire? Just buy it e difendere i prezzolati che le pubbliciz... pardon, che le recensiranno senza dire nulla? Ci manca solo che manco qui ci si lamenti.
fabietto27
20-08-2020, 17:49
Di sicuro la vicenda delle prime Turing che esplodevano a me hanno insegnato a prestare maggior cautela e ad andare solo a colpo sicuro :D
Amen fratello!
Inviato dal mio OnePlus 7 Pro utilizzando Tapatalk
Che gira lockato a 30 FPS e non gira neanche in 4K perchè la carretta di 7 anni fa non ce la fa. :asd:
Io invece con una 2080 Ti mi sparo RDR2 (quasi) tutto maxato su Ultra in 4K nativo sul mio 48", con framerate medio 40/50 FPS e ciaoneeee. :read:
A dire il vero ho una RTX 2080ti FE dal day one e mi son sparato tutto il possibile compreso RDR2, ciaone di cosa? o_O?
In ogni caso, sono ancora convinto che il 1440p sarà lo sweet spot per PC ancora per un bel po’. Sono molto più invasato (giustamente) di resa cromatica e fedeltà di riproduzione (dove serve) che di mera risoluzione che di per se cambia veramente nulla in relazione alla distanza di visione. Ringrazio il 4K più che per la risoluzione per i vari HDR, dolby Vision, per il passaggio di spazio colore da rec709 a rec2020... Etc etc. per il momento il 4K su pc serve a succhiare risorse e basta.
E riesci a scriverlo rimanendo serio? Complimenti. :asd: Piuttosto la domanda su cosa diavolo ci faccia qui un sonaro resta visto che non sei manco interessato all'argomento trattato. Poi c'è lo dirai con calma quando ti passa la sbornia.
Uh? Sonaro??? Al massimo sono un somaro XD... che tra PC con RTX2080ti, Xbox One X, Switch, ps4 e chi più ne ha più ne metta proprio sonaro no XD
Come tutti qui dentro (almeno credo) sono invasato di tecnologia. Preso RTX 2080ti al dayone (ordinata appena finita la conferenza) perché reputo il ray tracing (se pur con i suoi limiti per ora) in tempo reale qualcosa di sbalorditivo!
Però poi appunto, vedo mostri del calibro di TLOU2 e “suco” da matti nel sapere che quel tipo di ottimizzazione non si vedrà mai su PC e le nostre belle schedozze saranno sempre sotto sfruttate purtroppo. Tutto qui, non volevo offendere nessuno! ;)
In ogni caso son curioso di vedere quanto avanti andranno le 3xxx anche se probabilmente andrò di 4xxx. Il prurito RT me lo son già tolto ;)
fafathebest
20-08-2020, 18:54
Di norma al dayone assieme alle schede Founders Edition viene anche regalato qualche gioco in bundle oppure no? Chiedo perché è più di un decennio che non compro una scheda nuova ma vado di usato sicuro.
Ricordo con la Radeon 9600XT regalarono Half Life 2 e dovetti installare Steam per poterlo giocare... 16 anni fa :cry:
redbaron
20-08-2020, 19:08
Di norma al dayone assieme alle schede Founders Edition viene anche regalato qualche gioco in bundle oppure no? Chiedo perché è più di un decennio che non compro una scheda nuova ma vado di usato sicuro.
Ricordo con la Radeon 9600XT regalarono Half Life 2 e dovetti installare Steam per poterlo giocare... 16 anni fa :cry:
Al day one non ho mai visto giochi regalati in bundle
OrazioOC
20-08-2020, 19:16
Al day one non ho mai visto giochi regalati in bundle
BF5 o Anthem erano in bundle con le rtx 2000 al lancio se non sbaglio, a sto giro è possibile che ci sia cb2077.
redbaron
20-08-2020, 19:47
BF5 o Anthem erano in bundle con le rtx 2000 al lancio se non sbaglio, a sto giro è possibile che ci sia cb2077.
La promozione la ricordo, ma al day one?
BF5 o Anthem erano in bundle con le rtx 2000 al lancio se non sbaglio, a sto giro è possibile che ci sia cb2077.
Al lancio lancio no, dopo poco però si... tanto che feci richiesta a nvidia visto che sembrava quasi una presa in giro agli early adopters e mi risposero così: :nono: :nono: :nono:
Crysis90
20-08-2020, 20:16
https://wccftech.com/nvidia-ceo-second-half-of-2020-will-be-gamings-most-amazing-season-ever/
JHH è bello carico.
E' pronto a succhiare via una bella montagna di soldi dai vostri portafogli. :asd: :asd: :read:
ma founder e custom in passato erano confrontabili a livello di qualità? o la founder è cmq di livello inferiore solo che è subito disponibile?
Da quello che so io le FE hanno materiali migliori, specie nei capacitatori, che sono si meno di una custom in genere, ma di qualità nettamente superiore. Poi ovvio ci sono anche alcune custom fantastiche.
Detto ciò volevo sapere se le 3xxx il primo Settembre verranno presentate o saranno già in commercio 🤨 Questo è l’anno di cambiare e la SV è la persona cosa
redbaron
20-08-2020, 21:04
Tu invece la 2080ti l'hai presa 30 mila lire? :D
Lui gioca con le console ;)
Giovamas
20-08-2020, 21:08
https://wccftech.com/nvidia-ceo-second-half-of-2020-will-be-gamings-most-amazing-season-ever/
JHH è bello carico.
E' pronto a succhiare via una bella montagna di soldi dai vostri portafogli. :asd: :asd: :read:
però nessun cenno ad ampere;)
redbaron
20-08-2020, 21:14
però nessun cenno ad ampere;)
Prima della presentazione ampere non esiste.
Ale55andr0
20-08-2020, 22:00
Sono molto più invasato (giustamente) di resa cromatica e fedeltà di riproduzione (dove serve) che di mera risoluzione
e allora che ci fai con una nvidia nel case?
..scherzo scherzo, non ammazzatemi :asd:
mikael84
20-08-2020, 23:24
Può anche essere, ma la cosa che fa ridere è che da una parte con meno di 3000 cinesini e un clock, secondo i rumor, non entisiasmante si prende o supera la 2080 Ti easy, dall'altra parte,
Sarà da 10 pagine che ne parlo.:p
Con un 7nm+ a 505mm2, vai a circa 21,5mtransistor (cache permettendo), ben sopra il valore di una Titan RTX (18,6mt).
Con lo sweet spot, che passa da 1700 a 1825 (7% esatto), hai pure la possibilità di clockare in più, pur essendo avanti quasi un nodo.
Se una Titan RTX da 4608cc a 2/2,1ghz e 864 gb/s, va vicino al 20% di una 2080ti stock, è lecito aspettarsi ancora di più da AMD.
Ok in pro non c'è storia, in RT, bisogna vedere sul campo, ma potenzialmente, potrebbe fare molto bene, sopratutto se a prezzi decenti, considerando che in pro, non serve.
e allora che ci fai con una nvidia nel case?
..scherzo scherzo, non ammazzatemi :asd:
Evita, che qua fai una guerra.;)
Già mi hai dato del fanboy.:p
Andy1111
21-08-2020, 00:07
Con lo sweet spot, che passa da 1700 a 1825 (7% esatto), hai pure la
forse mi sfugge qualcosa ma 1700 da dove l'hai preso?
mikael84
21-08-2020, 01:06
forse mi sfugge qualcosa ma 1700 da dove l'hai preso?
E' il valore circa il volt della 5700 liscia.
Sui 7nm è un valore ottimale (clock per tensione).;)
e allora che ci fai con una nvidia nel case?
..scherzo scherzo, non ammazzatemi :asd:
Infatti ho aggiunto il disclaimer “quando serve” : P
Su PC gaming preferisco avere l’esperienza più fluida possibile, non a caso reputo il g-sync uno dei “big step” (in ogni caso il mio monitor è calibrato con sonda) ;)
Il mio era un discorso per far capire che del 4K, come risoluzione in se, me ne frega relativamente... nonostante abbia due TV 65” 4K OLED e LED ;)
Ho risolto tutti i problemi con una rtx 2080ti a 750€, penso che non me ne pentirò per qualita\prezzo in 2k, con il monitor a 144hz, penso che per 2 annetti dormirò sonni tranquilli
Ho risolto tutti i problemi con una rtx 2080ti a 750, penso che non me ne pentirò per qualita\prezzo in 2k, con il monitor a 144hz, penso che per 2 annetti dormirò sonni tranquilliA quel prezzo secondo me è decisamente valido.
Inviato dal mio ELE-L29 utilizzando Tapatalk
Giovamas
21-08-2020, 07:20
Prima della presentazione ampere non esiste.
hai ragione:)
ninja750
21-08-2020, 07:47
https://wccftech.com/nvidia-ceo-second-half-of-2020-will-be-gamings-most-amazing-season-ever/
JHH è bello carico.
E' pronto a succhiare via una bella montagna di soldi dai vostri portafogli. :asd: :asd: :read:
ho chiuso l'articolo arrivato a "...the combination of amazing games like Fortnite and Minecraft" :doh:
OrazioOC
21-08-2020, 08:23
LOL ormai sto sitarello é arrivato alla frutta, cosa non si fa per tirare a campare:
https://www.techspot.com/review/2084-amd-or-intel-for-gaming-benchmarking/
Non è colpa loro, lui le review le fa anche bene ma gli manca il materiale, visto i produttori sono mesi(alcuni anni ma non faccio nomi :) ) che non buttano fuori qualcosa di veramente nuovo da testare, soprattutto sulle gpu.
Andy1111
21-08-2020, 08:29
E' il valore circa il volt della 5700 liscia.
Sui 7nm è un valore ottimale (clock per tensione).;)
ok lo pensavo ma volevo la conferma, perchè la liscia ? la 5700 XT da quello che ho visto 1V lo raggiunge tra i 1850/1900
https://www.reddit.com/r/Amd/comments/chl2tb/question_for_5700_xt_owners_who_undervolt/
Crysis90
21-08-2020, 09:14
ho chiuso l'articolo arrivato a "...the combination of amazing games like Fortnite and Minecraft" :doh:
:asd: :asd:
Tu invece la 2080ti l'hai presa 30 mila lire? :D
Usato a 850 euro, di gran lunga MOLTO più economica di una 3090 che al lancio costerà 1600 euro. :O
Se ti va di culo.
Lui gioca con le console ;)
Non diciamo ca**ate, per cortesia.
Kostanz77
21-08-2020, 09:18
intanto nell attesa e per tamponare mi son preso una EVGA 1060 Super che poi più avanti userò per un PC ITX.....
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
TigerTank
21-08-2020, 10:12
https://wccftech.com/nvidia-ceo-second-half-of-2020-will-be-gamings-most-amazing-season-ever/
JHH è bello carico.
E' pronto a succhiare via una bella montagna di soldi dai vostri portafogli. :asd: :asd: :read:
Mi sa che a questo giro si fa una serra intera di ficus presidenziali, un intero set di poltrone in pelle umana e il mega acquario con i dipendenti nvidia più devoti :sofico:
Ho risolto tutti i problemi con una rtx 2080ti a 750€, penso che non me ne pentirò per qualita\prezzo in 2k, con il monitor a 144hz, penso che per 2 annetti dormirò sonni tranquilli
Bell'affare, complimenti :cool:
scorpion73
21-08-2020, 10:15
Io sto tamponando con la mia vecchia TitanX Pascal con dissipatore EVGA Hybrid.
Una VGA che più che tamponare potrei usare tranquillamente ancora per diverso tempo... e che non venderò mai perché non penso che nel mercato dell'usato si potrebbe vendere per il giusto valore che ha...
Una volta finita la "tamponatura" verrà usata su un altro PC a casa dei miei...
Thunder-74
21-08-2020, 10:24
Io sto tamponando con la mia vecchia TitanX Pascal con dissipatore EVGA Hybrid.
Una VGA che più che tamponare potrei usare tranquillamente ancora per diverso tempo... e che non venderò mai perché non penso che nel mercato dell'usato si potrebbe vendere per il giusto valore che ha...
Una volta finita la "tamponatura" verrà usata su un altro PC a casa dei miei...
Capisco benissimo e fai bene. A volte meglio tenersi certi prodotti che svenderli. Probabilmente io mi terrò la 2080 per un futuro progetto di secondo pc full liquid compatto, visto che attenderò prima di valutare l acquisto di Ampere e a quel punto la 2080 varrebbe poco più di un ferma carte. Poi la mia sarebbe più difficile da vendere essendo un modello con WB.
Inviato dal mio iPad utilizzando Tapatalk
TigerTank
21-08-2020, 10:31
Capisco benissimo e fai bene. A volte meglio tenersi certi prodotti che svenderli. Probabilmente io mi terrò la 2080 per un futuro progetto di secondo pc full liquid compatto, visto che attenderò prima di valutare l acquisto di Ampere e a quel punto la 2080 varrebbe poco più di un ferma carte. Poi la mia sarebbe più difficile da vendere essendo un modello con WB.
Ci ricaveresti anche un super HTPC...che di sicuro a livello di gestione contenuti multimediali, browser e quant'altro sarebbe sicuramente 100 volte meglio dei software "Smart" integrati nelle tv :D
Comunque anch'io, avendo ancora da parte 16GB di ram, vari harddisk, varie tastiere e mouse, l'alimentatore Corsair AX860(che dava problemi solo sotto carico elevato) e il monitor XB270HU, ho più volte accarezzato quell'idea :D
Si vedrà.
Certo per questioni di sistema mi piacerebbe provare una Strix....ma temo che non saranno molto economiche. Anzi...se i prezzi di base saranno già pompati, come custom di lusso saranno di sicuro ulteriormente overpriced.
terranux
21-08-2020, 10:34
LOL ormai sto sitarello é arrivato alla frutta, cosa non si fa per tirare a campare:
https://www.techspot.com/review/2084-amd-or-intel-for-gaming-benchmarking/
sono tutti alla frutta se è per codesto. non ti rendi conto del tracollo negli ultimi anni.
OrazioOC
21-08-2020, 10:34
intanto nell attesa e per tamponare mi son preso una EVGA 1060 Super che poi più avanti userò per un PC ITX.....
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
Io ho una 1660 liscia della gigabyte un po' tirata di overclock(+600 mhz sulle memorie e 150 sul core), è una buona scheda in full hd, non avrebbe neanche problemi con gli esports con monitor 144 hz.
La fascia media attuale va' veramente bene, paghi quei 50 euro in più di una 580 o 1650 super, ma hai una gpu superiore in tutto a 360 °c, consumi bassi, quantità di vram ideale, nvec per lo streaming(non da sottovalutare) e performance praticamente da 1070 reference.
TigerTank
21-08-2020, 10:38
Io ho una 1660 liscia della gigabyte un po' tirata di overclock(+600 mhz sulle memorie e 150 sul core), è una buona scheda in full hd, non avrebbe neanche problemi con gli esports con monitor 144 hz.
La fascia media attuale va' veramente bene, paghi quei 50 euro in più di una 580 o 1650 super, ma hai una gpu superiore in tutto a 360 °c, consumi bassi, quantità di vram ideale, nvec per lo streaming(non da sottovalutare) e performance praticamente da 1070 reference.
Se non hai fame assoluta di 4K(specialmente se da gaming) ma resti in QHD o addirittura in FUllHD, riesci a giocare bene anche senza svenarti in vga con i modelli di punta :)
Secondo me con le ampère la fascia media sarà vincente, con prestazioni raster diventate ottime per la QHD e soprattutto se da un lato fossero migliorate parecchio le prestazioni rt e dall'altro funzionasse a meraviglia la combinazione rt+dlss evoluto.
Kostanz77
21-08-2020, 10:42
Io ho una 1660 liscia della gigabyte un po' tirata di overclock(+600 mhz sulle memorie e 150 sul core), è una buona scheda in full hd, non avrebbe neanche problemi con gli esports con monitor 144 hz.
La fascia media attuale va' veramente bene, paghi quei 50 euro in più di una 580 o 1650 super, ma hai una gpu superiore in tutto a 360 °c, consumi bassi, quantità di vram ideale, nvec per lo streaming(non da sottovalutare) e performance praticamente da 1070 reference.
guarda, la Super dovrebbe gestire dignitosamente anche ris 2560x1440p...poi ho preso una EVGA che è un gioiellino
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
scorpion73
21-08-2020, 10:42
Certo per questioni di sistema mi piacerebbe provare una Strix....ma temo che non saranno molto economiche. Anzi...se i prezzi di base saranno già pompati, come custom di lusso saranno di sicuro ulteriormente overpriced.
Per quanto mi riguarda dai prossimi giri solo EVGA o founders...
Non perché la Strix non mi sia piaciuta, era fantastica, temperature eccezionali e un design del PCB che, almeno a me, sembrava progettato molto bene.
Ed un aspetto estetico da bomba.
Però ragazzi, quando vai a rivenderla è veramente dura.
Le EVGA hanno il plus della garanzia diretta che ti rende facile qualsiasi trattativa, le Nvidia sono garantite dalla casa madre 3 anni...
Le Asus finiti i due anni col venditore sono un calvario...
OrazioOC
21-08-2020, 10:43
Se non hai fame assoluta di 4K(specialmente se da gaming) ma resti in QHD o addirittura in FUllHD, riesci a giocare bene anche senza svenarti in vga con i modelli di punta :)
Secondo me con le ampère la fascia media sarà vincente, con prestazioni raster diventate ottime per la QHD e soprattutto se da un lato fossero migliorate parecchio le prestazioni rt e dall'altro funzionasse a meraviglia la combinazione rt+dlss evoluto.
Contavo di cambiarla con una ampere di fascia medio/alta a sto giro, ma credo che la 3070 sarà una gpu da considerarsi high end a tutti gli effetti, quindi si aspetta una eventuale 3060 super o 3060.
Sta volta voglio una scheda che in raster si avvicini alla 2070/super, con consumi inferiori ai 150w, con un ray tracing che mi consenta di godermi dei titoli in single player.
Kostanz77
21-08-2020, 10:44
Per quanto mi riguarda dai prossimi giri solo EVGA o founders...
Non perché la Strix non mi sia piaciuta, era fantastica, temperature eccezionali e un design del PCB che, almeno a me, sembrava progettato molto bene.
Ed un aspetto estetico da bomba.
Però ragazzi, quando vai a rivenderla è veramente dura.
Le EVGA hanno il plus della garanzia diretta che ti rende facile qualsiasi trattativa, le Nvidia sono garantite dalla casa madre 3 anni...
Le Asus finiti i due anni col produttore sono un calvario...
vero, quello ed il prolungamento della garanzia mi hanno aiutato tanto a vendere
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
OrazioOC
21-08-2020, 10:45
guarda, la Super dovrebbe gestire dignitosamente anche ris 2560x1440p...poi ho preso una EVGA che è un gioiellino
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
Di evga ho bei ricordi, ho avuto una gtx 750 ti che cloccava da panico, una scheda piccola e snella ma che ti faceva giocare a tutto senza problemi.
Evga è un brand che le schede le sà fare ;).
AceGranger
21-08-2020, 10:46
LOL ormai sto sitarello é arrivato alla frutta, cosa non si fa per tirare a campare:
https://www.techspot.com/review/2084-amd-or-intel-for-gaming-benchmarking/
mi sfugge cosa avrebbe fatto di male :what:
alla fine ha testato e confermato che il PCI-EX 4.0 per le GPU è totalmente inutile e che il 3950X è la CPU TOP nel caso di richieste computazionali elevate
Kostanz77
21-08-2020, 10:50
Di evga ho bei ricordi, ho avuto una gtx 750 ti che cloccava da panico, una scheda piccola e snella ma che ti faceva giocare a tutto senza problemi.
Evga è un brand che le schede le sà fare ;).
assolutamente e l ho apprezzato con la 2080TI XC ULTRA, sarei tentato da prendere ancora un EVGA 3080-3090.....ma chissà quanto le tireranno fuori e poi sarei curioso si provare una FE presa direttamente da nVidia
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
TigerTank
21-08-2020, 10:54
Per quanto mi riguarda dai prossimi giri solo EVGA o founders...
Non perché la Strix non mi sia piaciuta, era fantastica, temperature eccezionali e un design del PCB che, almeno a me, sembrava progettato molto bene.
Ed un aspetto estetico da bomba.
Però ragazzi, quando vai a rivenderla è veramente dura.
Le EVGA hanno il plus della garanzia diretta che ti rende facile qualsiasi trattativa, le Nvidia sono garantite dalla casa madre 3 anni...
Le Asus finiti i due anni col venditore sono un calvario...
Sì in effetti hai ragione, pure io ho fatto diverse generazioni con evga.
Contavo di cambiarla con una ampere di fascia medio/alta a sto giro, ma credo che la 3070 sarà una gpu da considerarsi high end a tutti gli effetti, quindi si aspetta una eventuale 3060 super o 3060.
Sta volta voglio una scheda che in raster si avvicini alla 2070/super, con consumi inferiori ai 150w, con un ray tracing che mi consenta di godermi dei titoli in single player.
Non ti resta che attendere i riscontri pratici delle recensioni serie :)
ninja750
21-08-2020, 10:54
Sta volta voglio una scheda che in raster si avvicini alla 2070/super, con consumi inferiori ai 150w
la vedo dura
OrazioOC
21-08-2020, 11:06
la vedo dura
Ampere =/= Turing. :cool:
mikael84
21-08-2020, 12:17
ok lo pensavo ma volevo la conferma, perchè la liscia ? la 5700 XT da quello che ho visto 1V lo raggiunge tra i 1850/1900
https://www.reddit.com/r/Amd/comments/chl2tb/question_for_5700_xt_owners_who_undervolt/
Non devi guardare il downvolt, ma il rapporto rese/tensione ottimale.
Altrimenti pure la mia su una base di 1,05v supera i 2100, su base di 1815 (valore ottenuto tramite lo sweet spot dei transistor).:)
Io ho una 1660 liscia della gigabyte un po' tirata di overclock(+600 mhz sulle memorie e 150 sul core), è una buona scheda in full hd, non avrebbe neanche problemi con gli esports con monitor 144 hz.
La fascia media attuale va' veramente bene, paghi quei 50 euro in più di una 580 o 1650 super, ma hai una gpu superiore in tutto a 360 °c, consumi bassi, quantità di vram ideale, nvec per lo streaming(non da sottovalutare) e performance praticamente da 1070 reference.
Una 1660 in full hd, mediamente, equivale ad una 5600xt di AMD in 1440p o una 2080ti n 4k.
Dipende sempre dall'utilizzo.
Con una 3060 sei apposto.
Venduto la mia adorata 2080ti.. adesso tocca aspettare queste 3000,
Mi confermate che ci saranno 3080ti e 3090? Ipotetici prezzi? Che connettori avranno?
Andando fuori ot:
La differenza tra 240hz e 144hz, c’è e come.
Ovviamente devi avere un occhio allenato,
Io ho due monitor un 2k 144hz e un fhd 240hz, e gioco tantissimo ad unreal tournament 2004, gioco dove fai 250fps con uno sputo, non per vantarmi ma gioco ad alti livelli , essendo diventato un gioco di nicchia, la community è ridottissima, ho giocato con e contro i migliori del mondo (gente che ha vinto il WCG e varie coppe europee) , ovviamente niente a che vedere con il progaming dei giochi odierni, essere pro ad ut2004 conta come vincere il torneo di briscola del paese ormai.
Peccato, fosse un gioco famoso farei lo streamer a tempo pieno Lol.
E vi posso assicurare che il vantaggio nel passare ai 240hz in un gioco del genere c’è e come,
Esempio avevo difficolta con alcune armi come il flak cannon (una specie di fucile a pompa, un arma da scontro ravvicinato) da quando ho il 240hz è diventata la mia arma preferita.. in generale tutte le mie statistiche sono aumentate, ci prendo molto di piu.
Ripeto serve veramente un occhio allenato... non centra l’effetto placebo.
mikael84
21-08-2020, 12:46
Che non sanno piú cosa dire e fare, ecco cosa! sono li ad aspettare che esca hardware nuovo giusto per fare due click.
Fanno articoli e review su cose talmente ovvie, che non portano a nulla, lui e tech Jesus sono i piú faciloni e qualunquisti sulla faccia della terra.
Ormai review serie non se ne trovano piú, ma solo finti appassionati senza nessuna capacitá e conoscenza tecnica, quei due posso definirli come due semplici utenti da forum, ne piú ne meno, ormai é spazzatura.
Forse é rimasto solo anandtech.
Devi adattarti alla massa, sarà un caso che siti veramente tecnici, sono tutti falliti.
Anandtech, fa copia e incolla del PDF che gli mandano le ditte, pre review, 2 settimane prima.:p
Corsini qua su HWU, di review di qualità ne ha fatte tante, è piuttosto competente, ma moltiplicarsi il lavoro, per l'utenza media che ti guarda le performance totali e i consumi...
ninja750
21-08-2020, 13:18
Forse é rimasto solo anandtech.
gamersnexus.
Kingdemon
21-08-2020, 13:30
Per quanto mi riguarda dai prossimi giri solo EVGA o founders...
Non perché la Strix non mi sia piaciuta, era fantastica, temperature eccezionali e un design del PCB che, almeno a me, sembrava progettato molto bene.
Ed un aspetto estetico da bomba.
Però ragazzi, quando vai a rivenderla è veramente dura.
Le EVGA hanno il plus della garanzia diretta che ti rende facile qualsiasi trattativa, le Nvidia sono garantite dalla casa madre 3 anni...
Le Asus finiti i due anni col venditore sono un calvario...
Anche Asus ha garanzia diretta di 3 anni :read:
L'hanno scorso quando ho venduto la 1080ti strix mi ero informato con l'assistenza e mi avevano confermato la validità anche per il secondo acquirente, funziona tramite prova d'acquisto o seriale.
Altri produttori come la Pny che ho adesso hanno 3 anni, non so però per quali sia valida la portabilità.
Ho avuto un pò di tutto la strix è stata la migliore come qualità, dissipazione ed estetica. Subito dietro evga.
fabietto27
21-08-2020, 13:52
Anche Asus ha garanzia diretta di 3 anni :read:
Non tutte....solo le serie ROG come appunto la Strix.
Inviato dal mio OnePlus 7 Pro utilizzando Tapatalk
Kingdemon
21-08-2020, 13:56
Non tutte....solo le serie ROG come appunto la Strix.
Inviato dal mio OnePlus 7 Pro utilizzando Tapatalk
E' vero giusta precisazione ;)
scorpion73
21-08-2020, 14:01
Anche Asus ha garanzia diretta di 3 anni :read:
L'hanno scorso quando ho venduto la 1080ti strix mi ero informato con l'assistenza e mi avevano confermato la validità anche per il secondo acquirente, funziona tramite prova d'acquisto o seriale.
Altri produttori come la Pny che ho adesso hanno 3 anni, non so però per quali sia valida la portabilità.
Ho avuto un pò di tutto la strix è stata la migliore come qualità, dissipazione ed estetica. Subito dietro evga.
Si lo so, infatti il problema non era l'assenza di garanzia, il problema è che la garanzia con Asus è un casino, ti mandano la scheda in Asia e aspetti due eternità per riprenderla.
Non è che non ci sia, è che rispetto ad EVGA stanno indietro anni luce.
Non so se la garanzia EVGA è valida anche per il secondo acquirente ma quello è il problema minore...
fraussantin
21-08-2020, 14:08
ti mandano la scheda in Asia e aspetti due eternità per riprenderla.
...
:eek:
Èèè?
Ma Che Sono matti?
Ma che non lo pagano nulla il trasporto?
Leopardo da Vinci
21-08-2020, 14:16
che bello ricevere notifiche per vagonate di post OT, daje :D
Si lo so, infatti il problema non era l'assenza di garanzia, il problema è che la garanzia con Asus è un casino, ti mandano la scheda in Asia e aspetti due eternità per riprenderla.
Non è che non ci sia, è che rispetto ad EVGA stanno indietro anni luce.
Non so se la garanzia EVGA è valida anche per il secondo acquirente ma quello è il problema minore...
Ma almeno l’Asus fa Rma diretta rispetto a tutte le altre case che devi passare per il negozio e sarebbe un grosso problema per il secondo acquirente ( praticamente non sarebbe valida la garanzia :rolleyes:).
Evga mi sembra che fornisca una garanzia diversa al secondo a quirente,mi pare di tipo base,ma francamente non so in cosa differisca da quella “completa”
Kingdemon
21-08-2020, 14:36
Si lo so, infatti il problema non era l'assenza di garanzia, il problema è che la garanzia con Asus è un casino, ti mandano la scheda in Asia e aspetti due eternità per riprenderla.
Non è che non ci sia, è che rispetto ad EVGA stanno indietro anni luce.
Non so se la garanzia EVGA è valida anche per il secondo acquirente ma quello è il problema minore...
Ah cavolo questo non lo sapevo :eek:
Kostanz77
21-08-2020, 14:36
Si lo so, infatti il problema non era l'assenza di garanzia, il problema è che la garanzia con Asus è un casino, ti mandano la scheda in Asia e aspetti due eternità per riprenderla.
Non è che non ci sia, è che rispetto ad EVGA stanno indietro anni luce.
Non so se la garanzia EVGA è valida anche per il secondo acquirente ma quello è il problema minore...
edit
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
scorpion73
21-08-2020, 14:46
Ah cavolo questo non lo sapevo :eek:
Almeno io questo sapevo, poi se qualcuno mi smentisce sono il primo ad essere stracontento.
TigerTank
21-08-2020, 14:52
Si lo so, infatti il problema non era l'assenza di garanzia, il problema è che la garanzia con Asus è un casino, ti mandano la scheda in Asia e aspetti due eternità per riprenderla.
Non è che non ci sia, è che rispetto ad EVGA stanno indietro anni luce.
Non so se la garanzia EVGA è valida anche per il secondo acquirente ma quello è il problema minore...
Sì, si trasferisce al secondo acquirente, salvo estensioni. Quelle valgono solo per il primo.
Giovamas
21-08-2020, 15:09
Sì, si trasferisce al secondo acquirente, salvo estensioni. Quelle valgono solo per il primo.
è così confermo. comunque penso proprio di tornare in MSi con la prossima.. giusto per cambiare. tanto si equivalgono la differenza la farà la dissipazione
Crysis90
21-08-2020, 15:21
gamersnexus.
Secondo me molto validi restano anche Guru3D e TechpowerUp.
Sicuramente non scendono troppo sui particolari, ma se devo guardarmi ogni volta 30 minuti di videorecensione di Steve che si fa i pipponi mentali, mi do una pistolata alla tempia e faccio prima. :asd:
davide76mx
21-08-2020, 15:45
Sulla garanzia asus vi sbagliate. Ho avuto a che fare con loro e mi hanno rispedito tutto in due giorni. Sono affidabili e molto seri.
Inviato dal mio SM-G960F utilizzando Tapatalk
Concordo riguardo la garanzia asus, ottima! Ho venduto ad un tizio una asus 2080ti dual a cui avevo cambiato la pasta termica rompendo il sigillo, il tizio si lamentava cmq delle temperature e l'ha mandata in rma tramite prova dei acquisto e non sono l'hanno accettata ma ripresa indietro e ridato l'intera somma spesa inizialmente con cui ha potuto acquistare una vga nuova di zecca.
Crysis90
21-08-2020, 16:37
Pare che quindi la 3080 Ti venga sostituita dalla 3090.
Del modello 3080 Ti non ne parla praticamente nessuno.
amon.akira
21-08-2020, 16:54
Pare che quindi la 3080 Ti venga sostituita dalla 3090.
Del modello 3080 Ti non ne parla praticamente nessuno.
se il prezzo tra 3080 10gb e 3090 24gb sarà molto distante, probabile che tra tot mesi ci sarà il cut d intermezzo del ga102 con il suffisso 3080Ti o 3080Super con 11gb/22gb
OrazioOC
21-08-2020, 16:56
se il prezzo tra 3080 10gb e 3090 24gb sarà molto distante, probabile che tra tot mesi ci sarà il cut d intermezzo del ga102 con il suffisso 3080Ti o 3080Super con 20gb/22gb
Super magari come refresh, ma penso che se la 3080 sia con ga102 invece di ga104, allora Jensen già sà quanto andrà big navi, e abbia già previsto una gpu rivale.
amon.akira
21-08-2020, 17:02
Super magari come refresh, ma penso che se la 3080 sia con ga102 invece di ga104, allora Jensen già sà quanto andrà big navi, e abbia già previsto una gpu rivale.
che la 3080 sia il supercut del ga102 penso sia assodato :P
OrazioOC
21-08-2020, 17:05
che la 3080 sia il supercut del ga102 penso sia assodato :P
Si ma, la scelta non è casuale, se non ci fosse stato nulla di simile sul mercato l'avremmo vista con ga104 come la 3070.
Jensen non è uno sprovveduto.
amon.akira
21-08-2020, 17:08
Penso che il cut di big navi andrá quanto 3080, il chip full vada poco piú, quindi c'é spazio per una ipotetica 3080ti 352bit/11gb, questo in raster.
Se big navi full andrá quanto 3080, si terrá la carta per i refresh stile super.
Insomma, non si stará fermo IMHO.
La 3080 al d1 potrebbe essere la mossa vincente, cosí come l'incul@ta del secolo.
se ti fanno il refresh, te lo fanno dopo 1anno e li già sei a -1anno da hopper quindi secondo me conviene sempre dayone ora
thunderforce83
21-08-2020, 17:13
preparate i portafogli ragazzi!:D ci sono delle belle nuove...ecco il punto della situazione piu' attendibile:p :sofico:
https://www.icrewplay.com/rtx-3000-tutto-quello-che-ce-da-sapere/
se questo nuovo algoritmo di compressione fosse reale in pratica per chi cambia la scheda ogni 2anni la versione da 20gb e' complelamente inutile...visto che con un +40% sarebbe come avere ben 14GB...
Si ma, la scelta non è casuale, se non ci fosse stato nulla di simile sul mercato l'avremmo vista con ga104 come la 3070.
Jensen non è uno sprovveduto.
Il problema non credo sia AMD o almeno non direttamente, il problema è che Nvidia è rimasta all'asciutto dovendosi adattare agli 8nm, e su questo pp le strozzature ci sono...
Ho la sensazione che tutto sia ruotato sulle rese di GA102 non eccelse, inoltre non potendo contare su clock elevati anche lo scaling del chippone credo non sia cosi eccezionale rispetto ai chip minori da GA104 in giù, e tra l'altro portandosi dietro tantissima roba, e ciò non significa che lo stacco sia risicato da TU102, anzi...
Ma spiegherebbe perchè la 3080 sia ottenuta direttamente da GA102 riciclando i chip fallati anzichè stamparla a parte, in stile 2080s, anche se quest'ultima pure non mancava di ambiguità dati i 6GPC e i 256bit di collegamento...
Per me, GA102 in tutte le sue varianti è dedicato prettamente ai pro e ha ben poco di gpu gaming.
mikael84
21-08-2020, 18:10
Si ma, la scelta non è casuale, se non ci fosse stato nulla di simile sul mercato l'avremmo vista con ga104 come la 3070.
Jensen non è uno sprovveduto.
La 3080 sarebbe dovuta essere il chip con 3840cc (GPC x TPC) e cercare di collegare almeno 1 dei due canali vuoti, non collegati con il progetto TU104, per questioni di die.
Ho la sensazione che tutto sia ruotato sulle rese di GA102 non eccelse, inoltre non potendo contare su clock elevati anche lo scaling del chippone credo non sia cosi eccezionale rispetto ai chip minori da GA104 in giù, e tra l'altro portandosi dietro tantissima roba, e ciò non significa che lo stacco sia risicato da TU102, anzi...
Oltre a samsung, il chip sarà molto denso di cache, almeno 12mb l2.
Da quello che ho calcolato, ci sarà almeno il 7% di roba extra (compresa la l2, nvlink maggiorato e probabile 2x fp).
OrazioOC
21-08-2020, 18:12
Penso che il cut di big navi andrá quanto 3080, il chip full vada poco piú, quindi c'é spazio per una ipotetica 3080ti 352bit/11gb, questo in raster.
Se big navi full andrá quanto 3080, si terrá la carta per i refresh stile super.
Insomma, non si stará fermo IMHO, ma stiamo parlando di una forbice di performance ristretta, tra 3090 e 3080 ci passerá meno del 15% in qhd e meno del 20% in 4k, quindi parliamo di schede divise da un 7-10%.
Per questo penso che 3080ti la tenga per un eventuale refresh, facendo uscire di scena 3080 dal mercato, magari boostando anche 3090, visto che una 3080ti sarebbe molto vicina..
La 3080 al d1 potrebbe essere la mossa vincente, cosí come l'incul@ta del secolo.
Avete troppa fiducia in sta b.navi, rischiate di rimanerci male come con le vega, sarebbe ottimo battere la 2080 ti, che ad oggi ci costa 1200 euro.
La 3080 non è ga102 per una questione di rese, è troppo cuttata per esserlo, è quasi un chip da buttar via per quanto è tagliato male, è innaturale un taglio del genere, è proprio sbagliato per quello che GA102 potrebbe fare sulla carta.
Dico che un chip del genere è proprio voluto, perchè GA104 non bastava per contrastare big navi.
amon.akira
21-08-2020, 18:22
Avete troppa fiducia in sta b.navi, rischiate di rimanerci male come con le vega, sarebbe ottimo battere la 2080 ti, che ad oggi ci costa 1200 euro.
La 3080 non è ga102 per una questione di rese, è troppo cuttata per esserlo, è quasi un chip da buttar via per quanto è tagliato male, è innaturale un taglio del genere, è proprio sbagliato per quello che GA102 potrebbe fare sulla carta.
Dico che un chip del genere è proprio voluto, perchè GA104 non bastava per contrastare big navi.
dici ga103? non so può essere ma i rumors oggi come oggi alla fine si rivelano sempre veritieri, la 3090 come new entry all inizio sembrava improbabile e ora è quasi certa, le 21gbps erano impossibili e so uscite, lo slot 12pin anche quello alla fine ci sarà penso e il cerchio è chiuso :D
fraussantin
21-08-2020, 18:24
Avete troppa fiducia in sta b.navi, rischiate di rimanerci male come con le vega, sarebbe ottimo battere la 2080 ti, che ad oggi ci costa 1200 euro.
La 3080 non è ga102 per una questione di rese, è troppo cuttata per esserlo, è quasi un chip da buttar via per quanto è tagliato male, è innaturale un taglio del genere, è proprio sbagliato per quello che GA102 potrebbe fare sulla carta.
Dico che un chip del genere è proprio voluto, perchè GA104 non bastava per contrastare big navi.
Boh navi sarebbe dovuta arrivare 1 anno fa avrebbe veramente spiazzato Nvidia.
Cmq spero che qualcosa di buono esca
mikael84
21-08-2020, 18:28
Avete troppa fiducia in sta b.navi, rischiate di rimanerci male come con le vega, sarebbe ottimo battere la 2080 ti, che ad oggi ci costa 1200 euro.
Con Vega molti ci rimasero male tranne me e un altro utente (altri l'avevano cmq intuito).
Se fai un 2x di polaris a numeri in tutti gli stadi moltiplicatori, ti ritroverai circa il 2x di nvidia (ovvero la 1080 che è un 2x della 1060 salvo la BW).
Con un 505mm2 (quello che viene sbandierato), arrivi a livelli di transistor ben più alti di TU102.
Certo, poi bisognerà vedere lo scaling, ma 505mm2 su quel PP è molto vicino a quello di GA102 full.
Poi c'è anche chi parla di 427mm2, ma non so se sia il chip compute o viceversa.
JHH però ha sempre il vantaggio pro, ed anche il RT giocherà la sua parte.:)
slide1965
21-08-2020, 18:35
Venduto la mia adorata 2080ti.. adesso tocca aspettare queste 3000,
Mi confermate che ci saranno 3080ti e 3090? Ipotetici prezzi? Che connettori avranno?
Andando fuori ot:
La differenza tra 240hz e 144hz, c’è e come.
Ovviamente devi avere un occhio allenato,
Io ho due monitor un 2k 144hz e un fhd 240hz, e gioco tantissimo ad unreal tournament 2004, gioco dove fai 250fps con uno sputo, non per vantarmi ma gioco ad alti livelli , essendo diventato un gioco di nicchia, la community è ridottissima, ho giocato con e contro i migliori del mondo (gente che ha vinto il WCG e varie coppe europee) , ovviamente niente a che vedere con il progaming dei giochi odierni, essere pro ad ut2004 conta come vincere il torneo di briscola del paese ormai.
Peccato, fosse un gioco famoso farei lo streamer a tempo pieno Lol.
E vi posso assicurare che il vantaggio nel passare ai 240hz in un gioco del genere c’è e come,
Esempio avevo difficolta con alcune armi come il flak cannon (una specie di fucile a pompa, un arma da scontro ravvicinato) da quando ho il 240hz è diventata la mia arma preferita.. in generale tutte le mie statistiche sono aumentate, ci prendo molto di piu.
Ripeto serve veramente un occhio allenato... non centra l’effetto placebo.
Sono costretto a rispondere , scusate l’ot.
Il mio occhio è allenato credimi e ti confermo che se noti differenze così evidenti sicuramente il 144hz che hai non ha prestazioni eccellenti , diversamente le prestazioni sono pressoché identiche, vai sereno.
Se hai dubbi sul mio occhio ti posso mettere in contatto con qualche professionista che si alza la mattina e di mestiere gioca a fps, e ti dirà le stesse cose che ti dico io .
A parità di tempo di risposta e input lag e fps , parità che evidentemente tra i 2 pannelli che stai confrontando non c’è , le differenze sono impercettibili per chiunque , anche per Superman, stiamo parlando di aria fritta.
L’ideale sarebbe anche che tu facessi un confronto a pari risoluzione in modo da avere gli stessi fps in entrambi i panelli , dopo esserti assicurati però che il tuo 240 e il tuo 144 abbiamo alla massima frequenza il medesimo input lag e tempo di risposta , diversamente il test vale come il 2 di picche con sotto bastoni.
Quando fate i confronti prima di dare giudizi analizzate le prestazioni dei pannelli che confrontate perché diversamente si rischia di tirare conclusioni errate .
Discorso diverso invece per gli fps , più ne fai meglio è indipendentemente dagli hz , ma se ti metto davanti 2 pannelli con prestazioni identiche , uno a 144 e uno a 240 e giriamo in game a 300 fps se ti accorgi della differenza mi taglio una gamba.
Ti anticipo dicendoti che questo test è già stato fatto è si trova da qualche parte il filmato intero su YouTube , nessun pro è riuscito ad indovinare in prova in cieco qual’era il 240hz, direi che questo dovrebbe bastare per farsi un idea di come stanno le cose.
Al momento ho due schermi 240hz in casa per cui non c è l’ho con i 240hz se è questo che stai pensando .
Fine ot (non replicherò più in questo thread in relazione a questo argomento , se siete interessati ad approfondire apriamo un thread dedicato).
Chiedo scusa
Slide non basta essere bravi a un giochino per avere percezioni sensoriali migliori degli altri, questo vale sia per te che per i pro, se per te i 240 non fanno differenza non vuol dire che sia una legge dell'Universo.
Ricorda che c'e' gente che non vede grossa differenza fra 60 e 120.
Che poi il gap percepito sia fisicamente minore rispetto che il salto standard da 60 a 144 non ci piove.
Inutile continuarla a menare che e' un discorso pure OT (io gioco a 1440p @144 perche' lo trovo il miglior compromesso/resa ma la differenza eccome se si nota).
Edit: Aggiungo completamente invece d'accordo sull'avere un "edge" nel giocare a 240 vs 144, assolutamente zero a meno di essere alieni.
slide1965
21-08-2020, 18:55
Edit
slide1965
21-08-2020, 18:58
Edit: Aggiungo completamente invece d'accordo sull'avere un "edge" nel giocare a 240 vs 144, assolutamente zero a meno di essere alieni.
Appunto ,ma è esattamente questo il punto cardine , il resto conta zero.
Appunto ,ma è esattamente questo il punto cardine , il resto conta zero.
Per te che non noti la differenza visiva magari si' (come per me lo sarebbe di scendere a compromessi di risoluzione e tipo pannello) :)
amon.akira
21-08-2020, 19:01
La 2080 timanco la deve vedere, sarebbe un fail clamoroso da far ridere ai polli, dai su, sta per forza sopra alla 2080ti, magari non sará un 2x rispetto a 5700xt, bisogna vedere il backend, fronte rop's /tmu, non é che raddoppi gli shaders e come per magia hai il doppio di performance..
Io me la aspetto rivaleggiare con 3080, + o -
E comunque le ampere faranno pietá comunque a prescindere schede da oltre 300/350w non andavano stampate su questo pp, purtroppo qualcun altra ha commissionata gli slot in fonderia quelli sono, non c'é posto per tutti.
Sono inguardabili proprio, chi le giustifica é solo un crociato.
Fine
dall ultimo leak c era il +20% 3080 vs 2080ti, quindi non la deve manco vedere ma fa + o - la 3080, in caso fosse - sarebbe +15% dalla 2080ti? tutto questo in raster :P
slide1965
21-08-2020, 19:08
Per te che non noti la differenza visiva magari si' (come per me lo sarebbe di scendere a compromessi di risoluzione e tipo pannello) :)
Ma chi la nota ,non solo la differenza , ma l’edge sulla skill?
Due utenti qui sul forum che giocano a livello amatoriale , stiamo scherzando?
Un player con rapporto K/D di 3 su 144 resterà a 3 anche su 240, non vedrà la Madonna con il passaggio tra i 2, idem per un player con K/D di 0.7.
È alquanto probabile , per non dire certo che ci sia un incremento della skill nel passaggio da 60 a 144 , dato che qui la differenza è lampante, da lì in poi è lana caprina e guarda che non sto badandomi esclusivamente sul mio giudizio da amatore , ma su quello dato da professionisti, ora capisco avere autostima e credere in se stessi , ma un minimo di peso diamolo a sti benedetti cristiani che passano la vita davanti a un videogioco , qualcosa ci capiranno , suvvia.
Chiudo qui , ognuno creda in ciò che vuole , l’importante è essere sodisfatti, se vogliamo scambiarci opinioni e punti di vista apriamo un thread dedicato all’argomento, io ci sono.
Peace
OrazioOC
21-08-2020, 19:15
La 2080 timanco la deve vedere, sarebbe un fail clamoroso da far ridere ai polli, dai su, sta per forza sopra alla 2080ti, magari non sará un 2x rispetto a 5700xt, bisogna vedere il backend, fronte rop's /tmu, non é che raddoppi gli shaders e come per magia hai il doppio di performance..
Io me la aspetto rivaleggiare con 3080, + o -
E comunque le ampere faranno pietá a prescindere schede da oltre 300/350w non andavano stampate su questo pp, purtroppo qualcun altra ha commissionata gli slot in fonderia quelli sono, non c'é posto per tutti.
Sono inguardabili proprio, chi le giustifica é solo un crociato.
Fine
Infilare nello slot pci una scheda che a stock ha tdp di 350w mi fa venire i brividi..
Guardate che una 2080 ti, in versione reference da 100, in versione custom da' 110, è una scheda che per performance in raster non verrà spazzata via come la 980 ti quando è arrivato pascal.
Io mi aspetto una 3070 che ha performance similari alla 2080 ti reference, ma già una 2080 ti custom potrebbe mettersela dietro, ovviamente in raster.
Già il fatto che si parla di una 3080 a +20% dalla 2080 ti reference, sarebbe quasi un +10% da una buona custom, è tutt'altro che superata una scheda con quelle performance nel 2021.
Non ti sto dicendo che hai fatto una cazzata nel venderla(perde e perderà sempre più valore, gli anni passano c'è poco da fare), ma non è una scheda "superata", nel vero senso della parola.
OrazioOC
21-08-2020, 19:23
Con Vega molti ci rimasero male tranne me e un altro utente (altri l'avevano cmq intuito).
Se fai un 2x di polaris a numeri in tutti gli stadi moltiplicatori, ti ritroverai circa il 2x di nvidia (ovvero la 1080 che è un 2x della 1060 salvo la BW).
Con un 505mm2 (quello che viene sbandierato), arrivi a livelli di transistor ben più alti di TU102.
Certo, poi bisognerà vedere lo scaling, ma 505mm2 su quel PP è molto vicino a quello di GA102 full.
Poi c'è anche chi parla di 427mm2, ma non so se sia il chip compute o viceversa.
JHH però ha sempre il vantaggio pro, ed anche il RT giocherà la sua parte.:)
Non puoi uscirtene nel tardo 2020 con una gpu sprovvista di unità rt pure, quei 505 mm^2 non sono tutti adibiti al raster, e lo sai meglio di me, è già tanto che sarà un 400 mm^2 di pure unità dedicate al raster.
Anche la 980ti metteva dietro la 1070, e inizialmente prendeva anche la 1080 a 1500mhz, tempo 1 anno, qualche release driver e nuovi engine e la situazione si è ribaltata...
La 2080ti è un chip molto muscle, ma proprio per via di ciò non è semplice da spingere in game, inoltre i miglioramenti previsti su Ampere sono su diversi fronti, e turing sicuramente si difenderà bene ma con i nuovi engine mostrerà anche i suoi limiti.
amon.akira
21-08-2020, 19:28
Guardate che una 2080 ti, in versione reference da 100, in versione custom da' 110, è una scheda che per performance in raster non verrà spazzata via come la 980 ti quando è arrivato pascal.
Io mi aspetto una 3070 che ha performance similari alla 2080 ti reference, ma già una 2080 ti custom potrebbe mettersela dietro, ovviamente in raster.
Già il fatto che si parla di una 3080 a +20% dalla 2080 ti reference, sarebbe quasi un +10% da una buona custom, è tutt'altro che superata una scheda con quelle performance nel 2021.
Non ti sto dicendo che hai fatto una cazzata nel venderla(perde e perderà sempre più valore, gli anni passano c'è poco da fare), ma non è una scheda "superata", nel vero senso della parola.
be dai custom to custom +20 lo mantieni...la differenza lo farà la parte rt cosa che secondo me bignavi non ha tenuto in considerazione, almeno non del tutto.
OrazioOC
21-08-2020, 19:29
Anche la 980ti metteva dietro la 1070, e inizialmente prendeva anche la 1080 a 1500mhz, tempo 1 anno, qualche release driver e nuovi engine e la situazione si è ribaltata...
La 2080ti è un chip molto muscle, ma proprio per via di ciò non è semplice da spingere in game, inoltre i miglioramenti previsti su Ampere sono su diversi fronti, e turing sicuramente si difenderà bene ma con i nuovi engine mostrerà anche i suoi limiti.
Ampere messa così è un Turing su un pp diverso e con un gpc in più.
Se verrà battuta la 2080 ti dalla 3070, sarà con il ray tracing attivo, ma in raster una buona 2080 ti ha tanto da dire.
OrazioOC
21-08-2020, 19:31
be dai custom to custom +20 lo mantieni...la differenza lo farà la parte rt cosa che secondo me bignavi non ha tenuto in considerazione, almeno non del tutto.
Mmmm, la 3070 come tdp si presenta più easy, solitamente i chip 102 reference tagliano di molto le frequenze di boost, mentre le 104 sono facili da spingere, e anche da custom rispetto alla reference guadagnano qualcosa in meno.
redbaron
21-08-2020, 19:34
preparate i portafogli ragazzi!:D ci sono delle belle nuove...ecco il punto della situazione piu' attendibile:p :sofico:
https://www.icrewplay.com/rtx-3000-tutto-quello-che-ce-da-sapere/
se questo nuovo algoritmo di compressione fosse reale in pratica per chi cambia la scheda ogni 2anni la versione da 20gb e' complelamente inutile...visto che con un +40% sarebbe come avere ben 14GB...
Non mi sembra dicano nulla di nuovo, un riassunto di notizie e foto giá viste.
mikael84
21-08-2020, 19:46
Non puoi uscirtene nel tardo 2020 con una gpu sprovvista di unità rt pure, quei 505 mm^2 non sono tutti adibiti al raster, e lo sai meglio di me, è già tanto che sarà un 400 mm^2 di pure unità dedicate al raster.
Ci sono anche li, vedi nel botolo (non è identico a nvidia....;)
Il vantaggio nodo è impressionante.
Un 505mm2 può essere molto potente con un tale PP. Se lo confrontiamo a pari nm con GA102, considerando i tensor, non è distante anzi.
Se poi scende a 427 è già diverso.;)
Ovviamente nel pro, non può competere, in RT non possiamo dirlo con certezza, ora come ora.
OrazioOC
21-08-2020, 19:58
Ci sono anche li, vedi nel botolo (non è identico a nvidia....;)
Il vantaggio nodo è impressionante.
Un 505mm2 può essere molto potente con un tale PP. Se lo confrontiamo a pari nm con GA102, considerando i tensor, non è distante anzi.
Se poi scende a 427 è già diverso.;)
Ovviamente nel pro, non può competere, in RT non possiamo dirlo con certezza, ora come ora.
Amd è da tanto che non fa due chip distinti, uno high end desktop e uno pro, quel chip non conterrà solo roba adibita alle performance pure in raster.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.