View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
thunderforce83
12-01-2020, 17:23
Teoricamente le presentazioni dovrebbero essere:
-Marzo (HPC)
-Giugno (computex) gaming
-Luglio (siggraph) gaming
Quindi per marzo è lecito aspettarsi la Tesla HPC ampere GA100, per giugno le gaming.
Tuttavia una volta presentata la Tesla, siamo a cavallo, in quanto si protranno stilare tante cose.:)
Riguardo le fasce gaming, potrebbe ripetersi quanto visto in passato, con la top 3080, e la 3080ti a seguire.
infatti non credo che nvidia fara' l errore di cacciare la 3080ti come ha fatto con l'attuale generazione, vista la difficolta' a produrre tutte queste linee e tutti i problemi avuti all'inizio nel trovare modelli di 2080ti disponibili. Comunque sono sicuro che sara' un bel salto...nvidia supera' per l'ennesima volta se stessa:)
mikael84
12-01-2020, 23:21
infatti non credo che nvidia fara' l errore di cacciare la 3080ti come ha fatto con l'attuale generazione, vista la difficolta' a produrre tutte queste linee e tutti i problemi avuti all'inizio nel trovare modelli di 2080ti disponibili. Comunque sono sicuro che sara' un bel salto...nvidia supera' per l'ennesima volta se stessa:)
Teoricamente i 7nm+ possono portare un picco del 35% sul clock. Ampere tra cc, clock, e riduzione area può fare chip molto potenti di base.
Bisogna vedere quanto di quel 30/35% si riuscirà a tirare su (significa boostare in base a 2400-2500).
Per dire il GA104 (3080) con 3840cc e 2ghz batterebbe sugli stadi moltiplicatori la 2080ti, immagina a clock ben superiori.:)
Riguardo la 3080ti, non so, ma non è da escludere qualche variante titan, sopratutto con la doppia densità, che significa letteralmente raddoppiare la ram per bus.
La 3080ti a pari bus avrebbe 22gb.:)
fraussantin
13-01-2020, 07:08
Teoricamente i 7nm+ possono portare un picco del 35% sul clock. Ampere tra cc, clock, e riduzione area può fare chip molto potenti di base.
Bisogna vedere quanto di quel 30/35% si riuscirà a tirare su (significa boostare in base a 2400-2500).
Per dire il GA104 (3080) con 3840cc e 2ghz batterebbe sugli stadi moltiplicatori la 2080ti, immagina a clock ben superiori.:)
Riguardo la 3080ti, non so, ma non è da escludere qualche variante titan, sopratutto con la doppia densità, che significa letteralmente raddoppiare la ram per bus.
La 3080ti a pari bus avrebbe 22gb.:)quindi sarebbe possibile ga 102 22 giga ga104 16 giga e ga106 11~12 giga?
TigerTank
13-01-2020, 08:36
infatti non credo che nvidia fara' l errore di cacciare la 3080ti come ha fatto con l'attuale generazione, vista la difficolta' a produrre tutte queste linee e tutti i problemi avuti all'inizio nel trovare modelli di 2080ti disponibili. Comunque sono sicuro che sara' un bel salto...nvidia supera' per l'ennesima volta se stessa:)
Non è un errore, ma semplice strategia di mercato piazzando una Ti subito in fascia di prezzo più alta sull'onda delle prestazioni necessarie e immediate per il ray tracing. Purtroppo è probabile che rifarà la stessa cosa, tanto nonostante costassero pure 1500-1600€ di 2080Ti ne hanno vendute tante...e pure senza presenza di molti giochi con il ray tracing(il primo fu quello ibrido di BF5). :D
Anzi a questo giro ci sarebbe pure più potenziale domanda per una Ti subito, considerata in fascia alta la presenza di schermi 4K da gaming, dove di prestazioni ne servono tante già senza ray tracing.
Ale55andr0
13-01-2020, 09:48
Riguardo la 3080ti, non so, ma non è da escludere qualche variante titan, sopratutto con la doppia densità, che significa letteralmente raddoppiare la ram per bus.
La 3080ti a pari bus avrebbe 22gb.:)
io spero che le nuove top avranno 16gb e quindi niente bus "al taglio"...di conseguenza in ambito pro immagino 32gb onboard :sofico:
AceGranger
13-01-2020, 10:34
Non è un errore, ma semplice strategia di mercato piazzando una Ti subito in fascia di prezzo più alta sull'onda delle prestazioni necessarie e immediate per il ray tracing. Purtroppo è probabile che rifarà la stessa cosa, tanto nonostante costassero pure 1500-1600€ di 2080Ti ne hanno vendute tante...e pure senza presenza di molti giochi con il ray tracing(il primo fu quello ibrido di BF5). :D
Anzi a questo giro ci sarebbe pure più potenziale domanda per una Ti subito, considerata in fascia alta la presenza di schermi 4K da gaming, dove di prestazioni ne servono tante già senza ray tracing.
le 2080Ti stanno andando via come il pane in campo grafico; l'nVlink e ora anche i driver parzialmente certificati hanno sicuramente dato un contributo a spostare in su la fascia della 2080Ti;
se poi la serie 30x0 arrivera veramente con la ram a doppia densita, non credo ci saranno speranze in prezzi piu bassi.
thunderforce83
13-01-2020, 10:38
Non è un errore, ma semplice strategia di mercato piazzando una Ti subito in fascia di prezzo più alta sull'onda delle prestazioni necessarie e immediate per il ray tracing. Purtroppo è probabile che rifarà la stessa cosa, tanto nonostante costassero pure 1500-1600€ di 2080Ti ne hanno vendute tante...e pure senza presenza di molti giochi con il ray tracing(il primo fu quello ibrido di BF5). :D
Anzi a questo giro ci sarebbe pure più potenziale domanda per una Ti subito, considerata in fascia alta la presenza di schermi 4K da gaming, dove di prestazioni ne servono tante già senza ray tracing.
io vedo piu' facile una titan sopra i 2000 euro lanciata dopo poco la 3070/80 e dopo in un secondo momento la 3080ti cosi' da spremere tutte le fasce a dovere...con turing nvidia inizialmente non ha avuto i risultati finanziari sperati,sopratutto dai chip piu' potenti,erano difficili da produrre e costosi per il tanto silicio, eppoi inizialmente ricorderai il terrorismo psicologico fatto da tanti che dichiaravano che la 2080ti moriva iniziando a fare lo space invaders...secondo me non fara' l errore fatto la scorsa generazione ed ottimizzera' al meglio tutte le fasce prezzo/prestazioni
mattxx88
13-01-2020, 10:42
per non parlare dei chip A/non A
Io farò come con turing, aspetto 3/4 mesetti prima di buttarmi, sperando cosi di avere una situazione più chiara possibile :mc:
TigerTank
13-01-2020, 11:00
Io mi sa che mi "accontenterò" di nuovo di una X80, che con il suo incremento rispetto alla 2080 attuale andrà benone su 3440x1440.
Se la storia della 2080Ti si ripeterà con la 3080Ti, imho il costo sarà esagerato rispetto alla vita, all'uso(solo gaming) e al fatto che siamo in fase di sviluppo graduale del ray tracing.
Mi sono imposto massimo 800€ di budget per una vga. :D
Magari poi in futuro il punto di arrivo sarà una serie 4000 + 4K da gaming.
mircocatta
13-01-2020, 11:36
Io mi sa che mi "accontenterò" di nuovo di una X80, che con il suo incremento rispetto alla 2080 attuale andrà benone su 3440x1440.
Se la storia della 2080Ti si ripeterà con la 3080Ti, imho il costo sarà esagerato rispetto alla vita, all'uso(solo gaming) e al fatto che siamo in fase di sviluppo graduale del ray tracing.
Mi sono imposto massimo 800€ di budget per una vga. :D
Magari poi in futuro il punto di arrivo sarà una serie 4000 + 4K da gaming.
con 800€ è tanto se porteremo a casa una x70 imho :stordita: soprattutto in un mercato dove continueranno ad avere le prime rtx negli shop
mikael84
13-01-2020, 11:37
quindi sarebbe possibile ga 102 22 giga ga104 16 giga e ga106 11~12 giga?
Si possibilissimo, ovviamente su 352bit.
Su GA106 bisogna vedere se sarà un cut o un chip a se, come la vecchia gen (da pascal a scendere).
Quindi potrebbe benissimo passare ai 256bit e 8gb, singola densità.
GA106 potrebbe anche essere l'equivalente a numeri della 2070 super, ma con clock ben più alti (3060 vs 2080/s).
io spero che le nuove top avranno 16gb e quindi niente bus "al taglio"...di conseguenza in ambito pro immagino 32gb onboard :sofico:
Sarebbe la soluzione migliore.
In primis il chip della 2080 è monco, gli mancano due canali di collegamento, ma la predispozione c'è già, basta collegarlo ed aggiungere cc.
La 3080ti se rimane con 6 GPC (quindi 384bit) comincia ad essere un chip collabrodo puro, che si salva giusto per via delle frequenze.
La soluzione migliore è questa:
-3080ti (5176cc-6144cc) 128 rop's-512bit-8mb l2-16gb di ram (con la quadro e Titan a 32 in doppia, 64gb per il modello a conchiglia quadro e 128gb nvlink)
-3080 3840cc-96 rop's-384bit-6mb l2-12gb (24gb quadro)
-3070 3072cc-80 rop's + collegamento.
Altrimenti, in caso di bus simili, ma solo con il riempimento shader, sei costretto ad utilizzare la dopia densità, di certo non puoi lanciare una 3080 con 8gb.:p
Ale55andr0
13-01-2020, 16:20
Sarebbe la soluzione migliore.
In primis il chip della 2080 è monco, gli mancano due canali di collegamento, ma la predispozione c'è già, basta collegarlo ed aggiungere cc.
La 3080ti se rimane con 6 GPC (quindi 384bit) comincia ad essere un chip collabrodo puro, che si salva giusto per via delle frequenze.
La soluzione migliore è questa:
-3080ti (5176cc-6144cc) 128 rop's-512bit-8mb l2-16gb di ram (con la quadro e Titan a 32 in doppia, 64gb per il modello a conchiglia quadro e 128gb nvlink)
-3080 3840cc-96 rop's-384bit-6mb l2-12gb (24gb quadro)
-3070 3072cc-80 rop's + collegamento.
Altrimenti, in caso di bus simili, ma solo con il riempimento shader, sei costretto ad utilizzare la dopia densità, di certo non puoi lanciare una 3080 con 8gb.:p
come va va' al prossimo giro mi sa che la 1080 la lancio dalla finestra non potendo più nemmeno essere considerabile un fermacarte: è declassata a portachiavi ormai :asd: :cry:
bagnino89
13-01-2020, 19:00
come va va' al prossimo giro mi sa che la 1080 la lancio dalla finestra non potendo più nemmeno essere considerabile un fermacarte: è declassata a portachiavi ormai :asd: :cry:Dai non esageriamo :asd:
Inviato dal mio Pixel 3a utilizzando Tapatalk
TigerTank
13-01-2020, 20:03
come va va' al prossimo giro mi sa che la 1080 la lancio dalla finestra non potendo più nemmeno essere considerabile un fermacarte: è declassata a portachiavi ormai :asd: :cry:
Alla fine la durata di una vga la fa il possessore a seconda di cosa gioca e come(monitor-risoluzione, settaggi, framerate minimo tollerato, ecc...) :)
Salvo eventuali limiti di utilizzo imposti(minimo scheda X per attivare feature Y, ecc...).
illidan2000
14-01-2020, 09:34
come va va' al prossimo giro mi sa che la 1080 la lancio dalla finestra non potendo più nemmeno essere considerabile un fermacarte: è declassata a portachiavi ormai :asd: :cry:
che monitor hai?
Alla fine la durata di una vga la fa il possessore a seconda di cosa gioca e come(monitor-risoluzione, settaggi, framerate minimo tollerato, ecc...) :)
Salvo eventuali limiti di utilizzo imposti(minimo scheda X per attivare feature Y, ecc...).
quoto, vi è da dire che il gsync aiuta molto. Con una 1070 a 1440p 144hz riesco a godermi benissimo rdr2 tutto su medio, texture ultra con 40-45 fps
chiaro se avessi giocato a rdr2 col vecchio monitor 1080p a 60hz, era impossibile...
TigerTank
14-01-2020, 09:50
quoto, vi è da dire che il gsync aiuta molto. Con una 1070 a 1440p 144hz riesco a godermi benissimo rdr2 tutto su medio, texture ultra con 40-45 fps
chiaro se avessi giocato a rdr2 col vecchio monitor 1080p a 60hz, era impossibile...
A tal proposito in caso occhio a verificare che un monitor gsync compatibile abbia un range di copertura adeguato, con un minimo accettabile. Mi pare che vari monitor siano tipo 48-144 o qualcosa del genere :)
Giusto per calibrare meglio le prestazioni necessarie nella scelta di una nuova vga.
Ale55andr0
14-01-2020, 10:10
che monitor hai?
un 1080p, ma non gioco mai a 1080p, sempre in downsampling da risoluzioni più alte per ridurre l'aliasing
quoto, vi è da dire che il gsync aiuta molto. Con una 1070 a 1440p 144hz riesco a godermi benissimo rdr2 tutto su medio, texture ultra con 40-45 fps
chiaro se avessi giocato a rdr2 col vecchio monitor 1080p a 60hz, era impossibile...
ecco, io ste cose non le pozzo sentire :D
tu per me sei in fascia chiavetta usb sul portachiavi di cui sopra :asd:
si scherza eh :p (non troppo però XD)
ecco, io ste cose non le pozzo sentire :D
tu per me sei in fascia chiavetta usb sul portachiavi di cui sopra :asd:
si scherza eh :p (non troppo però XD)
anche su medio la qualità della grafica è elevata, se le cose non si provano.. :)
bagnino89
14-01-2020, 11:38
un 1080p, ma non gioco mai a 1080p, sempre in downsampling da risoluzioni più alte per ridurre l'aliasing
ecco, io ste cose non le pozzo sentire :D
tu per me sei in fascia chiavetta usb sul portachiavi di cui sopra :asd:
si scherza eh :p (non troppo però XD)
Devi sganciare i big money se vuoi maxare tutto! :asd:
A tal proposito in caso occhio a verificare che un monitor gsync compatibile abbia un range di copertura adeguato, con un minimo accettabile. Mi pare che vari monitor siano tipo 48-144 o qualcosa del genere :)
Giusto per calibrare meglio le prestazioni necessarie nella scelta di una nuova vga.
con un hp omen 27, dai 35 ai 144hz nessun problema, poi non saprei se settandolo a 165, si alzi anche i minimi.
razor820
14-01-2020, 12:07
come va va' al prossimo giro mi sa che la 1080 la lancio dalla finestra non potendo più nemmeno essere considerabile un fermacarte: è declassata a portachiavi ormai :asd: :cry:
non esageriamo.. La 1080 va circa quanto una 2070...
Ho avuto una 1080 qualche mesetto fa e tranquillamente in 2k stavo sempre i 60 fps, e con molti fps oltre i 100..
Poi vabbe se la ritieni un fermacarte, a questo punto puoi considerare la tua cpu un portachiavi :D
MrBrillio
14-01-2020, 12:15
quoto, vi è da dire che il gsync aiuta molto. Con una 1070 a 1440p 144hz riesco a godermi benissimo rdr2 tutto su medio, texture ultra con 40-45 fps
chiaro se avessi giocato a rdr2 col vecchio monitor 1080p a 60hz, era impossibile...
Veramente in teoria ci avresti giocato meglio (a livello di framerate) perchè se fai 40-45 a 1440p, in fullhd cappavi i 60 in scioltezza.
Comunque finalmente posso mandare in pensione la mia 1080Ti dal dayone...pagata ancora le mie care 650€ e rimasta nel case come mai prima d'ora :D
Anche un saltino a una bella 3080 sarebbe tanta roba mi sa :oink:
Veramente in teoria ci avresti giocato meglio (a livello di framerate) perchè se fai 40-45 a 1440p, in fullhd cappavi i 60 in scioltezza.
Comunque finalmente posso mandare in pensione la mia 1080Ti dal dayone...pagata ancora le mie care 650€ e rimasta nel case come mai prima d'ora :D
Anche un saltino a una bella 3080 sarebbe tanta roba mi sa :oink:
non credo proprio che con le stesse impostazioni giocavo a 60 fps fissi, ed è imparagonabile il 1440p col 1080.
Ale55andr0
14-01-2020, 14:56
non esageriamo.. La 1080 va circa quanto una 2070...
Ho avuto una 1080 qualche mesetto fa e tranquillamente in 2k stavo sempre i 60 fps, e con molti fps oltre i 100..
Poi vabbe se la ritieni un fermacarte, a questo punto puoi considerare la tua cpu un portachiavi :D
non alla risoluzione alla quale gioco, anzi ora che le nuove scatole avranno gli 8/16 "veri" (zen 2) e non dei miserabili jaguar mi sa che i portachiavi diverranno altri :asd:
/OT
GreenHunter
14-01-2020, 15:15
Quando dovrebbero essere presentate le nuove nvidia ?
razor820
14-01-2020, 15:16
non alla risoluzione alla quale gioco, anzi ora che le nuove scatole avranno gli 8/16 "veri" (zen 2) e non dei miserabili jaguar mi sa che i portachiavi diverranno altri :asd:
/OT
Un core che raggiunge quasi i 4300mhz già è obsoleto..
Specialmente in un epoca in cui i giochi usano quei 3-4 core principalmente.. che me ne faccio dei restanti 12???
Da anni si sa che aumentando i mhz, o.c. Si guadagna in termini di fps nei minimi e nei massimi...
Non mi meraviglio perché da anni Intel regna e continuerà a regnare per altri nel mondo dei videogiochi..
/ot
Ale55andr0
14-01-2020, 15:24
giusto, ne servono 4 a 16ghz per giocare a 2000frame a 720p, è esattamente per quello che ho accennato alle nuove scatolette che indicano proprio che si farà così con le nuove macchine :stordita:
Non mi meraviglio perché da anni Intel regna e continuerà a regnare per altri nel mondo dei videogiochi..
sto regno io non lo vedo da qualche tempo alle risoluzioni del post neolitico, lo standard è il 4k ormai, e su quel frangente i millemila ghz non fanno più un frame di differenza come potrai notare in qualsiavoglia recensione, e sui 1440p le differenze sono spesso e volentieri insignificanti o addirittura assenti come nel 4k . Comunque chiudo davvero qui "l'extra-argomento" :)
razor820
14-01-2020, 15:58
Io parlavo anche dei minimi.. ancora il 4K èprematuro..
Basta vedere alcuni video di red 2.. quando si guadagnano 5 fps circa da 35 a 40 ti sembrano niente???
O restando sui max, giocando con fps competitivi, se riesci a ottenere da 140 a 160 fps possono sicuramente non nuocerti
illidan2000
14-01-2020, 16:01
Io parlavo anche dei minimi.. ancora il 4K èprematuro..
Basta vedere alcuni video di red 2.. quando si guadagnano 5 fps circa da 35 a 40 ti sembrano niente???
O restando sui max, giocando con fps competitivi, se riesci a ottenere da 140 a 160 fps possono sicuramente non nuocerti
anche se non sei su fps competitivi. Se vuoi un minimo di fluidità, devi stare oltre gli 80fps secondo me, e col 4k te li puoi scordare anche con la 2080ti con i giochi più esosi
Ma qua regna l'ottimismo era un po' che non facevo un giro.
Io sono uno dei dementi che ha la 2080ti su 1080p a 144hz. La uso ogni tanto sul 4k ma solo per gli screenshot. :D
Il 4k e tutto tranne lo standard. Lo standard è ancora abbondantemente il 1080p. Control a 1080p fa dai 50 ai 90 GPS sul 4k non ci ho nemmeno provato. La scheda è fissa al 99% ed il processore dorme. Forse le prossime 3080Ti cominceranno ad andare bene e tenere i mattoni in 2k sopra i 60 nei minimi.
In merito al discorso hz del monitor si sono spese migliaia di parole ma quando ti abitui al desktop a 144 o a 120hz a 60 fa male agli occhi persino seguire il cursore.
Poi ovvio se gioco a TW3 sul 1080p faccio downsampling e sfreccio comunque oltre i 100 fps ma comunque la 2080Ti sul 1080p ci sta tutta, che poi il marketing e nvidia la dia per il 4 k è un'altra storia.
bagnino89
14-01-2020, 17:47
Qua dentro si passa da un estremo all'altro, o 4k in downsampling dall'8k (sennò si vedono le scalette) al 720p a 300 FPS (sennò non è fluido).
Ed intanto Black leather jacket se la ride!
Inviato dal mio Pixel 3a utilizzando Tapatalk
Il 4k e' gia' ridicolo sulle TV, figuriamoci per giocarci su un pc...
E' nato per far vendere TV di bassa qualita' nei centri commerciali ma non saro' a impedirvi di giocare in 8k a 25 fps con input lag di 10 minuti :sofico:
Jeetkundo
14-01-2020, 23:33
4k tutta la vita! XD***
***esempi di post che usciranno dopo la 3080ti o equivalente AMD :D
MrBrillio
15-01-2020, 09:09
Babbabia...erano mesi che non seguivo un po' il forum e mi becco Kiwi che gioca a 1080p con una 2080ti, e chi dice che il 4K è uscito solo per far vendere TV di bassa qualità :D
Dai ragazzuoli si gioca benissimo anche sui 60fps, cercate di uscire dal mood "ho speso milioni di euro e devo fare millemila fps o caccapupù" e iniziate a godervi i giochi in scioltezza.
Per quello che dice Gello beh....non mi esprimo, o meglio..su tagli che vanno oltre il 27" (il 4k su quel taglio è abbastanza fastidioso in un uso normale) per me è obbligo avere una risoluzione così, o veramente i pixel son grossi come le facce dei personaggi.
Però c'è da ammettere che molte volte sul TV ho giocato a 1440p e da distanze da salotto si nota poco la differenza con il 4K.
razor820
15-01-2020, 09:47
Si anche su ps4 si gioca a 60fps in 4K con alcuni titoli.. vedi il risultato poi...
Dai...
A parte che ci sono monitor da 240hz fhd validissimi... Per avere determinati fps penso che ci vorrà di conseguenza una scheda video di un certo calibro..
TigerTank
15-01-2020, 09:57
Alla fine sono disicorsi sterili, nel senso che sono troppo legati alle preferenze personali di gioco, che possono spaziare dal francobollo al tv da 85", dal fullHD al 4K, dal giocare benissimo a 60 o addirittura 30 fps al volere framerates più sostenuti e/o beneficiare di gsync/freesync o meno.
Imho semmai l'unica cosa da dire è che probabilmente anche le prossime saranno insufficienti per giocare in 4K nativo con effetti RTX attivi senza relativi trucchetti di ottimizzazione o tipo DLSS e simili :)
Circa le TV, giocare a 1440p su 4K credo dipenda anche da come scala la singola tv in questione. Ci sono recensioni(come rtings) che analizzano anche questo aspetto. D'altronde devono almeno upscalare bene il fullHD visto che comunque la maggioranza di contenuti di streaming è ancora fullHD, per non parlare poi delle risoluzioni della tv classica :)
MrBrillio
15-01-2020, 09:57
Si anche su ps4 si gioca a 60fps in 4K con alcuni titoli.. vedi il risultato poi...
Dai...
A parte che ci sono monitor da 240hz fhd validissimi... Per avere determinati fps penso che ci vorrà di conseguenza una scheda video di un certo calibro..
Naaa lassa sta la cosa di console a 60 fps in 4k...ma oggettivamente i giochi ce li si gode tranquillamente anche a 60 fps. Poi vabbhè io non spenderei mai 1000 e passa euro di VGA per giocare su un francobollo, ma tant'è che li fanno e la gente li compra perchè con 300 fps sono più bravi online :sofico:
razor820
15-01-2020, 10:14
Ma non c’entra... ad ora giocare a 2160p non hai i 60fps assicurati.. A patto di non scendere a compromessi con qualche impostazione e con top del top di configurazione... Ancora ci sono titoli in 2k che non è possibile ma armi totalmente..
Poi vabbè il francobollo è soggettivo.. A mio avviso per esempio non ha senso giocare su maxi schermi a 2160p quando ti ritrovi ad avere una densità di pixel simile a un 24 pollici in 1080p.....
nessuno29
15-01-2020, 10:21
Un core che raggiunge quasi i 4300mhz già è obsoleto..
Specialmente in un epoca in cui i giochi usano quei 3-4 core principalmente.. che me ne faccio dei restanti 12???
Da anni si sa che aumentando i mhz, o.c. Si guadagna in termini di fps nei minimi e nei massimi...
Non mi meraviglio perché da anni Intel regna e continuerà a regnare per altri nel mondo dei videogiochi..
/ot
Cosa ho appena letto?
non leggevo roba simile dai tempi del dual core vs quad, meglio e8500 oppure un un Q8400?
devil_mcry
15-01-2020, 10:24
Alla fine sono disicorsi sterili, nel senso che sono troppo legati alle preferenze personali di gioco, che possono spaziare dal francobollo al tv da 85", dal fullHD al 4K, dal giocare benissimo a 60 o addirittura 30 fps al volere framerates più sostenuti e/o beneficiare di gsync/freesync o meno.
Imho semmai l'unica cosa da dire è che probabilmente anche le prossime saranno insufficienti per giocare in 4K nativo con effetti RTX attivi senza relativi trucchetti di ottimizzazione o tipo DLSS e simili :)
Circa le TV, giocare a 1440p su 4K credo dipenda anche da come scala la singola tv in questione. Ci sono recensioni(come rtings) che analizzano anche questo aspetto. D'altronde devono almeno upscalare bene il fullHD visto che comunque la maggioranza di contenuti di streaming è ancora fullHD, per non parlare poi delle risoluzioni della tv classica :)
Occhio però, le TV 4k in molti casi non fanno l'upscaling delle immagini da 1080p a 4k, semplicemente lo scaler usa diversamente il pannello. Le TV che hanno processori per l'upscaling delle immagini di solito sono modelli di fascia alta e pure abbastanza costosi (dai 1000 in su)
Comunque c'è da dire che io da quando sono passato al 4k su un 55'', non potendo giocare nativamente in 4k in quasi tutti i titoli su PC, ho fatto le mie prove e in effetti tra 1440p e 4k dalla mia distanza dalla TV la differenza è abbastanza impercettibile...
razor820
15-01-2020, 10:31
Cosa ho appena letto?
non leggevo roba simile dai tempi del dual core vs quad, meglio e8500 oppure un un Q8400?
Ahahah.
Hai paragonato due cpu completamente differenti...
Qui si parla di cpu a livello di core simili... e se in gaming si usano 4-8 core qual è il senso di averne 2000??
A parità di core usati non pensi che sia maggiormente in vantaggio una maggior frequenza?
Ahahah.
Hai paragonato due cpu completamente differenti...
Qui si parla di cpu a livello di core simili... e se in gaming si usano 4-8 core qual è il senso di averne 2000??
A parità di core usati non pensi che sia maggiormente in vantaggio una maggior frequenza?
e infatti l'FX9370 era il top prima degli i9, andava a 4,7gigahertz!
O forse no?
Diciamo che la frequenza in sé come il numero di core in sé dicono poco e nulla
La frequenza si scontrerà contro un muro prima o poi, i core invece no........seguendo quella logica tutto ciò che è sopra un i5 è buttare soldi (bhe, in effetti :asd: così come potrebbe esserlo prendere un dodecacore amd eh) se si usa il pc solo per gioco...ma poi quali giochi? etc etc e cominciano i soliti discorsi.....
razor820
15-01-2020, 13:24
Ma che c’entra qui si parlava di generazioni di cpu nella stessa linea temporale 2-3 anni max...
Mica stavo paragonando i mhz o giga della generazione neolitica...
Una top di gamma come una 2080ti deve essere supportata da una cpu top..
A mio avviso gli amd con tutti questi core non è una top. Un gradino superiore, seppur minimo per ora come prima ci sta Intel. Non perché sia di parte..
chi lavora in Intel non sarà l’ultimo arrivato. Perché allora ad ogni generazioni si tende ad aumentare oltre ai core anche il clock??
In linea di 3-4 anni si è passati da 7700k con 4 core sui 4500 a un 9900ks 8 core a 5300
VanCleef
15-01-2020, 13:36
Perché allora ad ogni generazioni si tende ad aumentare oltre ai core anche il clock??
In linea di 3-4 anni si è passati da 7700k con 4 core sui 4500 a un 9900ks 8 core a 5300
https://ark.intel.com/content/www/us/en/ark/compare.html?productIds=97129,192943
occhio a non confondere il turbo su un core con il turbo all-core. Senza contare che come ti hanno già detto gli altri c'è altro oltre al clock e al numero di core.
razor820
15-01-2020, 14:00
Architettura, cache, ecc... è normale che c’è altro...
Ale55andr0
15-01-2020, 14:15
***esempi di post che usciranno dopo la 3080ti o equivalente AMD :D
per me già ora, solo che la mia gtx1080 dissente, sta stronz@ :ncomment:
Ale55andr0
15-01-2020, 14:17
Poi vabbè il francobollo è soggettivo.. A mio avviso per esempio non ha senso giocare su maxi schermi a 2160p quando ti ritrovi ad avere una densità di pixel simile a un 24 pollici in 1080p.....
in questo forum occorre una bella funzione pollice su, nel mio caso fingi sia un +1000 :mano:
Io sono uno dei dementi che ha la 2080ti su 1080p a 144hz. La uso ogni tanto sul 4k ma solo per gli screenshot. :D
.
Qua dentro si passa da un estremo all'altro, o 4k in downsampling dall'8k (sennò si vedono le scalette) al 720p a 300 FPS (sennò non è fluido).
Ed intanto Black leather jacket se la ride!
semplicemente ognuno ha sacrosantamente i suoi parametri, c'è chi vuole un frame rate altissimo e chi privilegia in assoluto la pulizia del quadro, specie sui contorni frastagliati o con trasparenze dove personalmente a me il minimo seghettio/tremolio manda letteralmente in bestia. Pensa che per me pure in downsampling 4k il motore di the witcher 3 mi pare sporco sotto questo aspetto, e su un monitor da solo 24" :asd:
Invece un metro 1080p e ssa2x ha un quadro di una pulizia esemplare, ergo sotto tale aspetto vale anche come è implementato l'aa in un gioco. La maggior parte però purtroppo fa schifo. A oggi a livello di pulizia del quadro però posso dire che preferisco quasi sempre i 2160p downscalati con un abbozzo di aa di tipo "leggero" (fxaa) piuttosto che un 1080p a con sulla carta efficace msaa8x ma che ai miei occhi su quella risoluzione sgrana di più uguale, e si che a livello di peso in termini di risorse fra le due opzioni non ci passa chissà cosa, ma solo in un caso il mio occhio è più appagato...
in questo forum occorre una bella funzione pollice su, nel mio caso fingi sia un +1000 :mano:
quindi se stai a 5 metri un 24'' 1080p è la soluzione giusta sempre e comunque? Magari rendersi conto che non ci sono regole fisse MA linee guida che valgono in base agli scenari di utilizzo/esigenze delle singole persone?
chi lavora in Intel non sarà l’ultimo arrivato. Perché allora ad ogni generazioni si tende ad aumentare oltre ai core anche il clock??
In linea di 3-4 anni si è passati da 7700k con 4 core sui 4500 a un 9900ks 8 core a 5300
perchè sono alla frutta di ipc e non riescono a buttare fuori i 10nm da anni sul quale hanno costruito la nuova uarch....quindi spremono quello che riescono...non a caso il 10900 per mettergli due core in più nei 14nm non sanno più cosa inventarsi...manco il più fanboy intel passarebbe da un 9900k a un 10900 con 200mhz (fai anche 400!) in più di core ma stessi 8 core....
Ma tornare IT e rendervi meno ridicoli no ? Asking for a friend...
MrBrillio
15-01-2020, 15:57
quindi se stai a 5 metri un 24'' 1080p è la soluzione giusta sempre e comunque? Magari rendersi conto che non ci sono regole fisse MA linee guida che valgono in base agli scenari di utilizzo/esigenze delle singole persone?
https://4.bp.blogspot.com/-PuDq8BAFe5A/WxD-ryRWkaI/AAAAAAAAL9g/cCVlBFKfWHguGTSgv2cVF8b9GR-_jDhLQCLcBGAs/s640/linguina.gif
cit. Bello The Witcher a 300 fps!!! Oh schiaccia la barra che devi saltare :D
Mi tocca anche quotare FroZ dopo anni passati a flammarlo per le schede video...sarà perchè ho messo Ryzen?
Ma tornare IT e rendervi meno ridicoli no ? Asking for a friend...
ahahaahahah
mikael84
15-01-2020, 16:15
Raga torniamo in topic;)
Raga torniamo in topic;)
:mano:
thunderforce83
16-01-2020, 23:12
https://bablishe.com/information-about-rtx-3000-series/
Buon Divertimento:)
fraussantin
17-01-2020, 05:46
https://bablishe.com/information-about-rtx-3000-series/
Buon Divertimento:)Con un cornetto e un cappuccino un bundle ( o magari cyb77) e diventa un acquisto obbligato...
Ma sarà vero?https://uploads.tapatalk-cdn.com/20200117/af3c672175e1d673e505cace1f972023.jpg
TigerTank
17-01-2020, 07:49
Visti i trascorsi circa i miracoli mancati tra dx12 ed rt gaming in mgpu, ormai prendo sempre l'hype con le pinze. Per cui, crederò quando vedrò il tutto all'atto pratico :D
mircocatta
17-01-2020, 08:12
Con un cornetto e un cappuccino un bundle ( o magari cyb77) e diventa un acquisto obbligato...
Ma sarà vero?https://uploads.tapatalk-cdn.com/20200117/af3c672175e1d673e505cace1f972023.jpg
solo se farà anche il caffé
scherzi a parte provo a dargli un'altra interpretazione:
con ampere si potrà avere il 100% d prestazioni in più di turing consumando la metà di quello che consumerebbe turing a quel livello di performance.
se una 2080ti consuma ipoteticamente 250watt, con il 2x performance la "3080ti" non consumerà 500watt, ma la metà, 250watt
sertopica
17-01-2020, 09:33
Sempre che sia vero, si parla si prestazioni RT esclusivamente, quindi forse quello che sara' in grado di fare il chip nel rendering "ordinario" sara' piu' contenuto. Chiedo agli esperti, sarebbe plausibile che con Ampere unifichino Tensor e Cuda Cores? Questo porterebbe a prestazioni ed efficienza migliori?
OrazioOC
17-01-2020, 09:37
12gb di vram, 192 bit di bus se fosse confermato.
E alla fine, il chip 106 sarà definitivamente un chip di fascia alta.
mikael84
17-01-2020, 15:58
solo se farà anche il caffé
scherzi a parte provo a dargli un'altra interpretazione:
con ampere si potrà avere il 100% d prestazioni in più di turing consumando la metà di quello che consumerebbe turing a quel livello di performance.
se una 2080ti consuma ipoteticamente 250watt, con il 2x performance la "3080ti" non consumerà 500watt, ma la metà, 250watt
Si i chiè saranno tarati a livello di GPC a 250watt.
Prestazionalmente, almeno via raster il 100% è impossibile, ma un 50% buono si può fare. In linea di massima pure di più, se il clock sarà ben elevato.:)
Sempre che sia vero, si parla si prestazioni RT esclusivamente, quindi forse quello che sara' in grado di fare il chip nel rendering "ordinario" sara' piu' contenuto. Chiedo agli esperti, sarebbe plausibile che con Ampere unifichino Tensor e Cuda Cores? Questo porterebbe a prestazioni ed efficienza migliori?
No sempre separati. Attualmente solo il 20% dei tensor viene utilizzato in RT ( a lato pratico si arriva al 10%), in raster invece viene utilizzato per le FP16, nei giochi come vulkan.
ogni warp integra 2 motori tensor, nel tu 116 (gtx 1660ti), un motore viene utilizzato per fp16.:)
Con Ampere potrebbero anche integrarne 4, ma per ambiti pro.
12gb di vram, 192 bit di bus se fosse confermato.
E alla fine, il chip 106 sarà definitivamente un chip di fascia alta.
12gb di ram, 384bit a singola densità:)
OrazioOC
17-01-2020, 16:49
12gb di ram, 384bit a singola densità:)
O 192 bit a doppia densità, la 5500 xt ha un bus di 128 bit ma ha anche una variante da 8gb.
mikael84
17-01-2020, 18:06
O 192 bit a doppia densità, la 5500 xt ha un bus di 128 bit ma ha anche una variante da 8gb.
Per 12gb sulla 3070 intendono il 384bit, considerando che la x70 potrebbe essere benissimo un cut di GA104 (la x70 potrebbe prendere la 2080ti).
La 2080 è già predisposta per il bus da 384bit.
Per utilizzare il 192bit devi avere 3 raster, quindi fascia bassa o cuttare una ipotetica x70 singola 256bit (che però partirebbe da 16gb).
Con il 192bit, infatti la BW ne risente tanto.
In caso di bus tradizionali, tutte potranno utilizzare la doppia densità, che diverrà man mano uno standard.:)
Con un cornetto e un cappuccino un bundle ( o magari cyb77) e diventa un acquisto obbligato...
Ma sarà vero?https://uploads.tapatalk-cdn.com/20200117/af3c672175e1d673e505cace1f972023.jpg
Facendo una traduzione letterale inversa all'inglese è una versione ancora peggiore del rumor precedente.
Io continuo ad aspettarmi un +50% o +70% in base a come faranno la scheda, a parità di consumi con ora. In RT se ottimizzano bene avremo di più.
thunderforce83
18-01-2020, 16:08
Interessante anche questo...
https://www.cnbeta.com/articles/tech/933983.htm
Capisco la morte della legge di moore, ma qui sono passati più di 18 mesi e ci sarà un bel salto di nodo, il raddoppio di prestazioni (soprattutto in ray tracing) mi sembra il minimo
thunderforce83
18-01-2020, 20:03
Capisco la morte della legge di moore, ma qui sono passati più di 18 mesi e ci sarà un bel salto di nodo, il raddoppio di prestazioni (soprattutto in ray tracing) mi sembra il minimo
concordo:)
TigerTank
18-01-2020, 20:09
Eh dipende....potrebbero benissimo pure fare uscire una prima versione castrata per poi buttare fuori il refresh "Super" l'anno successivo. Con Nvidia nulla è scontato :sofico:
Soprattutto se mancasse la concorrenza su fasce prestazionali.
mikael84
19-01-2020, 23:22
Interessante anche questo...
https://www.cnbeta.com/articles/tech/933983.htm
Speculazioni, però come immagino penso sia la più reale.
Nella fase tock, si aggiunge un TPC per GPC, ed il clock fa il resto. Ovviamente si affina qualcosa, in questoo caso, probabilmente le int.
La 2080 è uno schema, che si presta perfettamente, infatti aggiungendo un TPC per GPC arrivi a 3840cc x clock x int.
La BW, le rop's e la ram dipenderanno dai collegamenti.
La 2080 è un chip monco, a cui mancano due canali.:)
Capisco la morte della legge di moore, ma qui sono passati più di 18 mesi e ci sarà un bel salto di nodo, il raddoppio di prestazioni (soprattutto in ray tracing) mi sembra il minimo
Ad ogni salto nodo, solitamente si prende il 70/80%. l'ultimo salto stock per stock si è preso il 75%.
Ampere può fare tanto, però meglio tenersi un pò bassi al momento, sopratutto se non ci sarà un salto sperato via clock.
Via RT è semplice, basta solo migliorare la gestione delle risorse.
Speculazioni, però come immagino penso sia la più reale.
Nella fase tock, si aggiunge un TPC per GPC, ed il clock fa il resto. Ovviamente si affina qualcosa, in questoo caso, probabilmente le int.
La 2080 è uno schema, che si presta perfettamente, infatti aggiungendo un TPC per GPC arrivi a 3840cc x clock x int.
La BW, le rop's e la ram dipenderanno dai collegamenti.
La 2080 è un chip monco, a cui mancano due canali.:)
Ad ogni salto nodo, solitamente si prende il 70/80%. l'ultimo salto stock per stock si è preso il 75%.
Ampere può fare tanto, però meglio tenersi un pò bassi al momento, sopratutto se non ci sarà un salto sperato via clock.
Via RT è semplice, basta solo migliorare la gestione delle risorse.Beh con il passaggio a 7 nanometri da addirittura 12, più miglioramenti architetturali, mi aspetto molto più che il 70%. Poi voglio vedere il ray tracing volare, l'anno prossimo escono le nuove scatolette e voglio prestazioni al top
fraussantin
20-01-2020, 07:18
https://www.tomshw.it/hardware/nvidia-geforce-rtx-3080-ga103-3840-cuda-core/
Qui si parla di un ga 103 con soli 10 giga di RAM per la 3080..
Quei 10 giga mi par che avranno vita breve in 4k.
Poi anche come marketing visto che amd avrà sicuramente 16 giga mi pare un tick un po' piccolo .
Come cuda ci puó stare in effetti ..
Anche videocardz sostiene questa tesi ..
Se sarà cosí mi tengo la 2070 altri 2 anni .. https://uploads.tapatalk-cdn.com/20200120/0970027d87b4e1e643c838e0c5cbba28.jpg
magic carpet
20-01-2020, 08:50
Ma il VRR essendo una declinazione di HDMI Forum dell'adaptive refresh rate, dovrebbe essere compatibile di default con le nuove vga hdmi 2.1 e il gsync oppure dovrà essere supportato anche dai giochi?
mikael84
20-01-2020, 11:08
https://www.tomshw.it/hardware/nvidia-geforce-rtx-3080-ga103-3840-cuda-core/
Qui si parla di un ga 103 con soli 10 giga di RAM per la 3080..
Quei 10 giga mi par che avranno vita breve in 4k.
Poi anche come marketing visto che amd avrà sicuramente 16 giga mi pare un tick un po' piccolo .
Come cuda ci puó stare in effetti ..
Anche videocardz sostiene questa tesi ..
Se sarà cosí mi tengo la 2070 altri 2 anni ..
Si il chip finale RTX 3080 potrebbe essere quello.
Il chip della 2080 è infatti già predisposto all'ampliamento.
Quando parlavo di chip monco, è per via della mancanza di 2 collegamenti, che su Ampere abiliteranno, o in parte.
La 2080 è così:
GPC 1: 512cc 64bit
GPC 2: 512cc 64bit
GPC 3: 512cc 64bit
GPC 4: 512cc 64bit
GPC 5: 512cc No collegamento
GPC 6: 512cc No collegamento
Totale 3072cc /64 rop's /256bit
La 3080 di conseguenza:
GPC 1: 640cc 64bit
GPC 2: 640cc 64bit
GPC 3: 640cc 64bit
GPC 4: 640cc 64bit
GPC 5: 640cc probabilmente collegato
GPC 6: 640cc da verificare
Totale 3840 (80-96 rop's) 320-384bit.
I transistor su TSMC (samsung probabilmente farà il GA107) potrebbero permettere picchi del 30/35%, ma è difficile stimarlo ora.
fraussantin
20-01-2020, 11:13
Si il chip finale RTX 3080 potrebbe essere quello.
Il chip della 2080 è infatti già predisposto all'ampliamento.
Quando parlavo di chip monco, è per via della mancanza di 2 collegamenti, che su Ampere abiliteranno, o in parte.
La 2080 è così:
GPC 1: 512cc 64bit
GPC 2: 512cc 64bit
GPC 3: 512cc 64bit
GPC 4: 512cc 64bit
GPC 5: 512cc No collegamento
GPC 6: 512cc No collegamento
Totale 3072cc /64 rop's /256bit
La 3080 di conseguenza:
GPC 1: 640cc 64bit
GPC 2: 640cc 64bit
GPC 3: 640cc 64bit
GPC 4: 640cc 64bit
GPC 5: 640cc probabilmente collegato
GPC 6: 640cc da verificare
Totale 3840 (80-96 rop's) 320-384bit.
I transistor su TSMC (samsung probabilmente farà il GA107) potrebbero permettere picchi del 30/35%, ma è difficile stimarlo ora.Sì ma la 3070 é praticamente uguale alla 2070s non ha senso
mikael84
20-01-2020, 11:37
Sì ma la 3070 é praticamente uguale alla 2070s non ha senso
Si però la 2070s è un cut di quel chip.
Il chip esatto è quello della 2080 super.
La 2080s, visto il chip collabrodo della TI, spesso non è tanto distante da quest'ultima, se aggiungi un miglioramento INT, alcune rivisitazioni, ed un clock ben più alto, fai tombola.;)
Da questo chip potresti cuttarti la 3060, utilizzare lo stesso cut della 2070s (2560cc), che solo tra affinamenti potrebbe rendere quanto la 2080 + aggiungerci il boost via clock. Teoricamente già così, potrebbe bersi la 2080.
Con quel taglio di cc, a 2200/2250 batterebbe la 2080/s sugli stadi moltiplicatori e magari passarla aggevolmente in RT anche senza ottimizzazioni lato raster.
Io onestamente avrei fatto la 3080 così e 12gb.
3070 cut a 320bit e 10gb
3060 chip apposito a 2560cc e 8gb
cut 3060 per la fascia bassa
fraussantin
20-01-2020, 11:43
Si però la 2070s è un cut di quel chip.
Il chip esatto è quello della 2080 super.
La 2080s, visto il chip collabrodo della TI, spesso non è tanto distante da quest'ultima, se aggiungi un miglioramento INT, alcune rivisitazioni, ed un clock ben più alto, fai tombola.;)
Da questo chip potresti cuttarti la 3060, utilizzare lo stesso cut della 2070s (2560cc), che solo tra affinamenti potrebbe rendere quanto la 2080 + aggiungerci il boost via clock. Teoricamente già così, potrebbe bersi la 2080.
Con quel taglio di cc, a 2200/2250 batterebbe la 2080/s sugli stadi moltiplicatori e magari passarla aggevolmente in RT anche senza ottimizzazioni lato raster.
Io onestamente avrei fatto la 3080 così e 12gb.
3070 cut a 320bit e 10gb
3060 chip apposito a 2560cc e 8gb
cut 3060 per la fascia bassa
E sarebbe cmq un passettino dalle versioni S Che Sono le attuali.
Ma poi un chip a quel modo che prestazioni avrebbe in più rispetto alla 2070S? Guadagna con le frequenze , ma quanto?
Se amd esce la fascia alta con 16 giga a questo giro vende facile.
Per quanto mi riguarda soldi risparmiati... Mi tengo rtx off e saluti .
bagnino89
20-01-2020, 11:55
No 16 GB VRAM, no party per quanto mi riguarda...
mikael84
20-01-2020, 11:56
E sarebbe cmq un passettino dalle versioni S Che Sono le attuali.
Ma poi un chip a quel modo che prestazioni avrebbe in più rispetto alla 2070S? Guadagna con le frequenze , ma quanto?
Se amd esce la fascia alta con 16 giga a questo giro vende facile.
Per quanto mi riguarda soldi risparmiati... Mi tengo rtx off e saluti .
Non esattamente perchè stai calando di fascia.
Se tu parti dalla 2080s (circa 15% sopra), anzichè boostarla a 1900, la fai boostare sui 2200/2250 o più (siamo ad almeno il 30%) la differenza si eleva non poco. Senza considerare possibili migliorie via raster (magari int), di compressione e naturalmente via RT, la 2080/s la devasti proprio.
In linea di massima si dovrebbero raggiungere prestazioni da TI.
No 16 GB VRAM, no party per quanto mi riguarda...
I bus così sono un qualcosa di osceno, o mettono un 384bit per 12gb, o 16gb per un 256bit a doppia densità.
Una 3080 con 10gb sarebbe follia, come da 20.
Ale55andr0
20-01-2020, 13:10
https://wccftech.com/nvidia-ampere-gpu-geforce-rtx-3080-3070-specs-rumor/
mattxx88
20-01-2020, 13:21
ma tutta sta fame di Vram perchè la avete?
io ad oggi non ho trovato manco 1 gioco che si avvicini all' 80%di uso della mia Ti e gioco in 4k
fraussantin
20-01-2020, 13:24
ma tutta sta fame di Vram perchè la avete?
io ad oggi non ho trovato manco 1 gioco che si avvicini all' 80%di uso della mia Ti e gioco in 4k
perchè sono fatti per le console attuali . se le prossime avranno almeno 12 giga dedicati vedi come li useranno , alla fine basta solo non comprimere le texture
mattxx88
20-01-2020, 13:30
perchè sono fatti per le console attuali . se le prossime avranno almeno 12 giga dedicati vedi come li useranno , alla fine basta solo non comprimere le texture
bah, potrei anche sbagliarmi ma non credo si arrivi a un raddoppio della richiesta come quantità
non so le scatole di oggi quanta vram hanno son sincero, mi sono solo tirato fuori uno screenshot di red dead redemption 2 per curiosità e vedo che occupa neanche 6gb di vram per dire
fraussantin
20-01-2020, 13:36
bah, potrei anche sbagliarmi ma non credo si arrivi a un raddoppio della richiesta come quantità
non so le scatole di oggi quanta vram hanno son sincero, mi sono solo tirato fuori uno screenshot di red dead redemption 2 per curiosità e vedo che occupa neanche 6gb di vram per dire
rdr2 ha texture super low. mi usa 4 giga di ram . se gli metti delle texture hd senza compressione sarebbe da vedere
Si il chip finale RTX 3080 potrebbe essere quello.
Il chip della 2080 è infatti già predisposto all'ampliamento.
Quando parlavo di chip monco, è per via della mancanza di 2 collegamenti, che su Ampere abiliteranno, o in parte.
La 2080 è così:
GPC 1: 512cc 64bit
GPC 2: 512cc 64bit
GPC 3: 512cc 64bit
GPC 4: 512cc 64bit
GPC 5: 512cc No collegamento
GPC 6: 512cc No collegamento
Totale 3072cc /64 rop's /256bit
La 3080 di conseguenza:
GPC 1: 640cc 64bit
GPC 2: 640cc 64bit
GPC 3: 640cc 64bit
GPC 4: 640cc 64bit
GPC 5: 640cc probabilmente collegato
GPC 6: 640cc da verificare
Totale 3840 (80-96 rop's) 320-384bit.
I transistor su TSMC (samsung probabilmente farà il GA107) potrebbero permettere picchi del 30/35%, ma è difficile stimarlo ora.
Se fosse così allora non mi conviene vendere la 2080 e passare alla 3080, lo farei solo per un salto più sostanzioso e per un quantitativo VRAM maggiore. Calcolando anche che i veri titoli next gen non li vedremo se non prima del 2021 inoltrato, almeno, è un motivo in più per saltare la famiglia 3000 e aspettare la prossima, oppure, spendere una somma più grande per prendere una 3080 Ti nel 2021, che sicuramente avrà caratteristiche più appetibili.
mikael84
20-01-2020, 14:40
Se fosse così allora non mi conviene vendere la 2080 e passare alla 3080, lo farei solo per un salto più sostanzioso e per un quantitativo VRAM maggiore. Calcolando anche che i veri titoli next gen non li vedremo se non prima del 2021 inoltrato, almeno, è un motivo in più per saltare la famiglia 3000 e aspettare la prossima, oppure, spendere una somma più grande per prendere una 3080 Ti nel 2021, che sicuramente avrà caratteristiche più appetibili.
Si parla di speculazioni. Fai conto che un sito ha sbagliato, anzichè scrivere 3840cc, ha scritto 3480cc. Paradossalmente tutti i siti riportano 3480cc, neppure l'hanno controllato. Copia e incolla e via.:p
Sulla ram e bus, come detto, la 3080 può essere collegata a 256 bit (8/16gb), 320 bit (10/20gb), 384bit (12/24gb).
A parer mio la soluzione migliore sarebbe 384bit (per prestazioni) e 12gb, per taglio ram decente.
Sui 256bit 16 è ok, sui 320bit, 10 è improponibile, 20 è esagerato.
Però, bisogna tenere presente 2 fattori:
Le gaming nascono dalle quadro, e sarebbe un salto in quella fascia passare da 16 a 20gb.
La Titan RTX ha 24gb e viene prezzata ad oltre 2000 euro, difficile quindi vedere 20gb su una scheda da 799/699$. Tutta quella ram costa.
Si parla di speculazioni. Fai conto che un sito ha sbagliato, anzichè scrivere 3840cc, ha scritto 3480cc. Paradossalmente tutti i siti riportano 3480cc, neppure l'hanno controllato. Copia e incolla e via.:p
Sulla ram e bus, come detto, la 3080 può essere collegata a 256 bit (8/16gb), 320 bit (10/20gb), 384bit (12/24gb).
A parer mio la soluzione migliore sarebbe 384bit (per prestazioni) e 12gb, per taglio ram decente.
Sui 256bit 16 è ok, sui 320bit, 10 è improponibile, 20 è esagerato.
Però, bisogna tenere presente 2 fattori:
Le gaming nascono dalle quadro, e sarebbe un salto in quella fascia passare da 16 a 20gb.
La Titan RTX ha 24gb e viene prezzata ad oltre 2000 euro, difficile quindi vedere 20gb su una scheda da 799/699$. Tutta quella ram costa.
E' che vorrei un salto come ci fu con Pascal, quindi bisognerebbe puntare oltre il +35% di performance da Turing, riguardo la VRAM 16GB sarebbe particolarmente ideale visto che sarà una GPU ovviamente venduta per il 4K. Una 3080 che va si e no il 35% da Turing e con 10-12GB di VRAM non è un buon affare.
mikael84
20-01-2020, 14:44
https://wccftech.com/nvidia-ampere-gpu-geforce-rtx-3080-3070-specs-rumor/
Anche qua, non riescono proprio a scrivere 3840, tutti copia e incolla.:rolleyes:
Cmq la 3080ti è da vedere, così come descritta, pare la tesla 2,0, ed anche qua torniamo a fare un collabrodo 2,0 super.
Un raster da 28 pixel segato a 16..
Una 3060 con le stesse specifiche della 2060 liscia mi pare uno scempio.
Per ora approvo solo la 3080 e la 3070.
Per quanto mi riguarda, a parte giochi moddati pesantemente, a livello texture vedo tanta pena, con l'uscita delle nuove scatolette mi aspetto minimo texture da 4k reali su tutta la scena se non addirittura 8k, e la VRAM ti serve. Mi sembra pure arrivato il momento, specie per chi come me compra le top di gamma e spende i soldini, vedere ancora texture penose non è il massimo. Basta vedere un fallout 4 a caso come cambia da così a così se ci metti texture di un certo livello, il salto è enorme, senza nemmeno stare a modificare asset e animazioni
mikael84
20-01-2020, 15:06
ma tutta sta fame di Vram perchè la avete?
io ad oggi non ho trovato manco 1 gioco che si avvicini all' 80%di uso della mia Ti e gioco in 4k
Una 3080 con 10gb sarebbe un fail epocale, però va bene per il chip di riferimento, ovvero le quadro.:)
Riguardo i giochi, sono tutti basati sulle vecchie scatolete, quelle con la 7850, scheda inferiore alla vecchia gtx 480 dei tempi (certo oggi la 480 è un catorcio invecchiato peggio).
Con le prossime console cambierà tutto.
E' che vorrei un salto come ci fu con Pascal, quindi bisognerebbe puntare oltre il +35% di performance da Turing, riguardo la VRAM 16GB sarebbe particolarmente ideale visto che sarà una GPU ovviamente venduta per il 4K. Una 3080 che va si e no il 35% da Turing e con 10-12GB di VRAM non è un buon affare.
Questa è una fase tock, quindi non credo in veri miracoli architetturali, ma un pascal 2,0 da Maxwell a livello di raster.
La formula veramente vincente di pascal, come tutti i salti nodi è stato il clock.
La 980ti boostava in base Asic basso a 1164, la 1080ti a 1860 (60%), valore che in downclock calava.
Per paragone è come se la 3080 boostasse a 3ghz di base.
I transistor possono spingere sino a 2500 (tsmc), poi con una ritoccata alle pipe puoi fare meglio (ma non è il massimo).
Per quanto mi riguarda, a parte giochi moddati pesantemente, a livello texture vedo tanta pena, con l'uscita delle nuove scatolette mi aspetto minimo texture da 4k reali su tutta la scena se non addirittura 8k, e la VRAM ti serve. Mi sembra pure arrivato il momento, specie per chi come me compra le top di gamma e spende i soldini, vedere ancora texture penose non è il massimo. Basta vedere un fallout 4 a caso come cambia da così a così se ci metti texture di un certo livello, il salto è enorme, senza nemmeno stare a modificare asset e animazioni
Considerando quanto le paghi, devi utilizzare la doppia densità, sia essa 20gb. Altrimenti è un fail maestoso.
Ale55andr0
20-01-2020, 15:06
il salto è enorme, senza nemmeno stare a modificare asset e animazioni
si, se fai screenshot, perchè appena vedi come si muovono i modelli nel mondo di gioco per me nemmeno con le texture 8k lo rendi guardabile :asd:
ninja750
20-01-2020, 16:05
le prime 3xxx presentate saranno al solito le 3080ti vero? una teorica 3060 dopo ulteriori 5/6 mesi?
le prime 3xxx presentate saranno al solito le 3080ti vero? una teorica 3060 dopo ulteriori 5/6 mesi?
Al solito no, le 2080ti sono stata un'eccezione... Non si sa niente comunque, se tutto va come da lancio "standard" le prime sono le x80/x70
si, se fai screenshot, perchè appena vedi come si muovono i modelli nel mondo di gioco per me nemmeno con le texture 8k lo rendi guardabile :asd:
:asd: :cincin:
mircocatta
20-01-2020, 21:39
https://www.hdblog.it/hardware/articoli/n515651/nvidia-geforce-rtx-3080-rtx-3070-specifiche-tecnic/
È old?
Free Gordon
21-01-2020, 00:37
https://www.hdblog.it/hardware/articoli/n515651/nvidia-geforce-rtx-3080-rtx-3070-specifiche-tecnic/
È old?
La 3080 sarà proprio quella probabilmente.. 60SM e 320bit di bus.
Del resto la concorrente RDNA2 di fascia medio/alta avrà all'incirca le stesse caratteristiche (la full invece avrà 80CU).
Se fossero queste le specifiche che "numeri" farebbe? Andando a naso
fraussantin
21-01-2020, 07:53
Se fossero queste le specifiche che "numeri" farebbe? Andando a nasoNon tali da invogliare un passaggio da Turing.
Senza sapere di piú sull'architettura e sulle frequenze é difficile dirlo ,( quei disegnini sono ufficiali o di fantasia?) Ma ho il forte sospetto che sarà un upgrade moscio come quello tra pascal e Turing.
cmq se son quelle devono uscire anche una 3080ti subito , perché altrimenti chi ha una 2080ti farebbe quasi un downgrade a prendere quella da 3840 anche con frequenze alte .
Ma ormai Nvidia ci ha abituato a tutto non mi stupirei che dopo 1 anno escano le super con RAM a doppia densità come le quadro frequenze ancora migliori e magari uplevel di chip.. quindi si aspetta ..
craesilo
21-01-2020, 08:37
io mi aspetto
3070 = 2080s o leggermente meglio
differenza tra 3080 e 2080ti più ampia che tra 2080 e 1080ti
oZonoRobotics
21-01-2020, 08:53
differenza tra 3080 e 2080ti più ampia che tra 2080 e 1080ti
sono d'accordo...
speriamo che Huang dopo aver visto amd che recupera su intel, intel che si sta per buttare nel mondo delle gpu discrete, l'uscita delle nuove console... abbia deciso di non lesinare sulle prestazioni sfruttando al 100% l'hardware (senza segarlo) pur tenendo i prezzi alti...
comunque secondo voi il fatto che non ci siano rumors sulle 3080ti vuol dire che è sicuro che non escono insieme alle 70 e 80 o non vuol dire niente?
mircocatta
21-01-2020, 09:06
Non tali da invogliare un passaggio da Turing.
Senza sapere di piú sull'architettura e sulle frequenze é difficile dirlo ,( quei disegnini sono ufficiali o di fantasia?) Ma ho il forte sospetto che sarà un upgrade moscio come quello tra pascal e Turing.
cmq se son quelle devono uscire anche una 3080ti subito , perché altrimenti chi ha una 2080ti farebbe quasi un downgrade a prendere quella da 3840 anche con frequenze alte .
Ma ormai Nvidia ci ha abituato a tutto non mi stupirei che dopo 1 anno escano le super con RAM a doppia densità come le quadro frequenze ancora migliori e magari uplevel di chip.. quindi si aspetta ..
Vi ricordate la serie 6xx ?
Non fu tanto superiore alla precedente ma abbassò drasticamente i consumi e soprattutto I PREZZI (o era la serie 5xx?)
aled1974
21-01-2020, 09:25
quelle assurde erano le 480, https://www.youtube.com/watch?v=BLdXfFsgvkE :read: :rotfl:
tu pensa che combinata sarebbe p4 prescott + gtx 480 :D
ciao ciao
mircocatta
21-01-2020, 10:11
quelle assurde erano le 480, https://www.youtube.com/watch?v=BLdXfFsgvkE :read: :rotfl:
tu pensa che combinata sarebbe p4 prescott + gtx 480 :D
ciao ciao
comunque è incredibile come , se uno non volesse spendere soldi in upgrade, potrebbe tranquillamente giocare (giocare, non maxxare ecc ecc) ancora con una scheda del genere
mi ricorda i bei tempi quando avevo un p4+5200fx
sono d'accordo...
speriamo che Huang dopo aver visto amd che recupera su intel, intel che si sta per buttare nel mondo delle gpu discrete, l'uscita delle nuove console... abbia deciso di non lesinare sulle prestazioni sfruttando al 100% l'hardware (senza segarlo) pur tenendo i prezzi alti...
comunque secondo voi il fatto che non ci siano rumors sulle 3080ti vuol dire che è sicuro che non escono insieme alle 70 e 80 o non vuol dire niente?
Secondo me la 3080ti sarà un GA102 evitato!
ninja750
21-01-2020, 10:28
Al solito no, le 2080ti sono stata un'eccezione... Non si sa niente comunque, se tutto va come da lancio "standard" le prime sono le x80/x70
quindi inutile temporeggiare aspettando l'uscita della 3060 che arriverà se va bene fine anno
mikael84
21-01-2020, 11:43
La 3080 sarà proprio quella probabilmente.. 60SM e 320bit di bus.
Del resto la concorrente RDNA2 di fascia medio/alta avrà all'incirca le stesse caratteristiche (la full invece avrà 80CU).
:wtf: :what:
Non devi paragonare 3840cc di turing:)
Quel chip solo in base ai clock la 2080ti non la vede neppure, immaginiamoci alcune modifiche tra int, compressioni, l1, tmu, RT.
A soli 2100 avrebbe capacità da Titan RTX a stock (un chip che potrebbe anche prendere picchi di 2400-2500 in base a TSMC).:)
io mi aspetto
3070 = 2080s o leggermente meglio
differenza tra 3080 e 2080ti più ampia che tra 2080 e 1080ti
Nettamente meglio. Lo schema potrebbe essere il medesimo, ma non certo clock ed affinamenti.
Vi ricordate la serie 6xx ?
Non fu tanto superiore alla precedente ma abbassò drasticamente i consumi e soprattutto I PREZZI (o era la serie 5xx?)
Dalla serie 6 di nvidia sono nati i primi casini.:)
Con la 680 venduta come la 580, ma era un mid. Il successore della 580 era la 780ti.
craesilo
21-01-2020, 12:28
:wtf: :what:
Nettamente meglio. Lo schema potrebbe essere il medesimo, ma non certo clock ed affinamenti.
nettamente vorrebbe dire qualche fps meno della ti no?
La cosa buona stavolta dovrebbero essere i consumi e i prezzi più bassi, spero in una 3080 sui 700 euro.
fraussantin
21-01-2020, 12:40
io mi aspetto
3070 = 2080s o leggermente meglio
differenza tra 3080 e 2080ti più ampia che tra 2080 e 1080ti
come la 2070 è leggermente meglio della 1080 15% circa ..passettini fatti con calma e tranquillità aspettando amd o intel .
vediamo cosa esce cmq ancora è troppo presto per dare credito ai rumors..
TigerTank
21-01-2020, 12:45
La cosa buona stavolta dovrebbero essere i consumi e i prezzi più bassi, spero in una 3080 sui 700 euro.
Considerato il margine verso l'alto dei prezzi delle custom più blasonate(tipo Strix), facciamo 600€ di base per le references nvidia :sofico:
Considerato il margine verso l'alto dei prezzi delle custom più blasonate(tipo Strix), facciamo 600€ di base per le references nvidia :sofico:
Reference che, se saranno come le Turing, si parlerà anche stavolta di un vero e proprio modello custom, dove le GPU degli AIB risulteranno ancora una volta meno rilevanti di quanto non fossero in passato, peraltro, dovrebbero costare di più di diversi modelli custom stessi. Calcolando come le reference Turing siano state ottime, direi che ripeteranno di nuovo il modello a doppia ventola.
Reference che, se saranno come le Turing, si parlerà anche stavolta di un vero e proprio modello custom, dove le GPU degli AIB risulteranno ancora una volta meno rilevanti di quanto non fossero in passato, peraltro, dovrebbero costare di più di diversi modelli custom stessi. Calcolando come le reference Turing siano state ottime, direi che ripeteranno di nuovo il modello a doppia ventola.
Stai confondendo la reference (blower) con la founders (custom nvidia)
craesilo
21-01-2020, 13:06
come la 2070 è leggermente meglio della 1080 15% circa ..passettini fatti con calma e tranquillità aspettando amd o intel .
vediamo cosa esce cmq ancora è troppo presto per dare credito ai rumors..
ho scritto super, non la liscia, e tra l'altro ho sbagliato xchè ho pensato al divario tra 2070 e super, mentre quello 2080 e super è inferiore.....in sostanza mi aspetto che si avvicini alla 2080ti :D
fraussantin
21-01-2020, 13:10
ho scritto super, non la liscia, e tra l'altro ho sbagliato xchè ho pensato al divario tra 2070 e super, mentre quello 2080 e super è inferiore.....in sostanza mi aspetto che si avvicini alla 2080ti :D
come la 2070 si avvicina alla 1080ti .. sempre quella è la minestra io sinceramemnte mi aspettavo di più da un cambio nodo grosso come il 7 nm vs il 12 ( che poi è un 14 alla fine) ma probabilmente , sempre se sarà così , faranno un refrash tra 1 anno altrimenti rischiano veramente di stare dietro alle console con la fascia media ( considerando anche l'ottimizzazione che avranno e che su pc non ci sarà mai)
se non sbaglio la 1070 stava ben un 5-10% sopra la 980ti aumentava ram e migliorava consumi enon sarebbe costata neppure troppo se non c'èra quel cavolo di mining
Credo che il marketing abbia fatto si che si sopravvalutasse la storia del cambio di nodo con i 7 nm, di per sé il numero di nanometri non vuol dire nulla e non è sufficiente per garantire grossi miglioramenti. Comunque è possibilissimo che ci sarà - se Ampere non sarà un grosso salto in avanti - un refresh nel 2021, magari chiamandolo, di nuovo, Super.
MrBrillio
21-01-2020, 13:51
se non sbaglio la 1070 stava ben un 5-10% sopra la 980ti aumentava ram e migliorava consumi enon sarebbe costata neppure troppo se non c'èra quel cavolo di mining
Tu veramente credi che l'impennata di prezzi degli ultimi anni sia colpa del mining? :ciapet:
La colpa è di chi si è fatto le vga a 1300€ senza battere ciglio...se la gente imparasse a lasciare sugli scaffali la roba probabilmente il mercato andrebbe meglio in quanto a prezzi. Invece fanno bene a mungere come le mucche chi è disposto a spendere cifre del genere.....
mircocatta
21-01-2020, 13:56
Tu veramente credi che l'impennata di prezzi degli ultimi anni sia colpa del mining? :ciapet:
La colpa è di chi si è fatto le vga a 1300€ senza battere ciglio...se la gente imparasse a lasciare sugli scaffali la roba probabilmente il mercato andrebbe meglio in quanto a prezzi. Invece fanno bene a mungere come le mucche chi è disposto a spendere cifre del genere.....
vuoi mettere maxxare i giochi in 4k? :oink:
vuoi mettere maxxare i giochi in 4k? :oink:
se, magari :asd:
mikael84
21-01-2020, 14:13
nettamente vorrebbe dire qualche fps meno della ti no?
Tra 2080/s e 2080ti stock ci passa il 18/20% medio.
Uitlizzare lo stesso chip della 2080/s magari affinato e con un grosso boost di clock (anche del 25%), non vedo certo impossibile andare come la TI, anzi, ma sopratutto in RT dove il salto sarà superiore.;)
come la 2070 è leggermente meglio della 1080 15% circa ..passettini fatti con calma e tranquillità aspettando amd o intel .
vediamo cosa esce cmq ancora è troppo presto per dare credito ai rumors..
State sottovalutando un cambio nodo.
La 1070 è mediamente avanti alla Titan maxwell, pur una avendo 1920cc e l'altra 3072cc, senza alcun affinamento architetturale (ed in oc se la giocano alla pari, anzi...).
Il 10% medio la 2080/s lo prende con +100/120 di OC e ram OC.
Parliamo di valori di clock medi di 2050 a calare.
La 3070 potrebbe anche lavorare a 2400-2500, più affinamenti architetturali, sopratutto via RT.;)
MrBrillio
21-01-2020, 14:16
vuoi mettere maxxare i giochi in 4k? :oink:
Idealmente a me basterebbero i 60fps con un po' di raytracing, ma sicuramente continueranno a tirare fuori mattoni su mattoni e quindi il maxare per me ormai è bello che andato da anni :D
Avendo saltato le 20xx mi aspetto un bel salto da una 1080Ti, però sicuramente se sparano i soliti prezzi è la volta buona che butto via il PC e mi "accontento" :sofico:
ninja750
21-01-2020, 14:16
La cosa buona stavolta dovrebbero essere i consumi e i prezzi più bassi, spero in una 3080 sui 700 euro.
nvidia e prezzi bassi? specialmente nella fascia top dove non ha di fatto concorrenza continueremo a vedere prezzi folli per un bel po di tempo
craesilo
21-01-2020, 15:04
come la 2070 si avvicina alla 1080ti
Neanche tanto, la 2070 era veramente scarsa, a memoria di bench games circa come una 1080
fraussantin
21-01-2020, 15:16
Neanche tanto, la 2070 era veramente scarsa, a memoria di bench games circa come una 1080Dipende dai giochi . Cmq sta in mezzo tra la 1080 e la 1080ti.
Idealmente a me basterebbero i 60fps con un po' di raytracing, ma sicuramente continueranno a tirare fuori mattoni su mattoni e quindi il maxare per me ormai è bello che andato da anni :D
Avendo saltato le 20xx mi aspetto un bel salto da una 1080Ti, però sicuramente se sparano i soliti prezzi è la volta buona che butto via il PC e mi "accontento" :sofico:
Ma no basta godersi le 2080Ti fino all'osso e aspettare le 3080Ti sul mercatinooooo..:D :D
Quale dovrebbe essere il periodo di uscita delle 3xxx?
Free Gordon
22-01-2020, 00:00
:wtf: :what:
Non devi paragonare 3840cc di turing:)
Quel chip solo in base ai clock la 2080ti non la vede neppure, immaginiamoci alcune modifiche tra int, compressioni, l1, tmu, RT.
Perché no? :)
Ad oggi le CU sono ormai direttamente paragonabili agli SM di Nvidia.. Guardando Navi10 e il TU104 è così; 40 CU vanno come una 2070 da 40SM.
Non sappiamo quanto migliorerà in clock ed efficienza Ampère...ma non lo sappiamo nemmeno di RDNA2.
mikael84
22-01-2020, 00:20
Perché no? :)
Ad oggi le CU sono ormai direttamente paragonabili agli SM di Nvidia.. Guardando Navi10 e il TU104 è così; 40 CU vanno come una 2070 da 40SM.
Non sappiamo quanto migliorerà in clock ed efficienza Ampère...ma non lo sappiamo nemmeno di RDNA2.
Con la differenza che una è già a 7nm, l'altra no.:p
RDNA2 sembra promettere molto bene, ma ad oggi è impensabile paragonare i CC 7nm+ vs 12nm (come paragonare i 3076cc maxwell vs 1920 pascal).:p
Turing con i 7nm+ TSMC potrebbe boostare piuttosto ben oltre i 2ghz (30/35% è il minimo senza sacrificare IPC), migliorare le int, che sono parzialmente bloccate, RT etc.
A 2100 una 3080 a sarebbe pari o superiore solo per stadi moltiplicatori ad una Titan RTX da 4608cc.
AMD è già sui 7nm, altrimenti navi lavorava a 1300-1500, non certo a 2ghz.:)
Certo anche AMD affinerà qualcosa con i 7nm+
A meno che non abbia un asso nella manica vedo AMD molto indietro
fraussantin
22-01-2020, 07:32
A meno che non abbia un asso nella manica vedo AMD molto indietro
Questa volta su amd voglio essere ottimista. Se fosse uscita ora si avrei pensato a poco o nessun miglioramento in p\e da navi , ma se veramente aspettano settembre a cacciare fuori big navi stanno lavorando a qualcosa di buono
Come ha migliorato i ryzen potrebbe migliorare queste .
Certo Nvidia non é Intel che si fa sodomizzare loro investono e vanno avanti ma gli piace anche guadagnare.
Free Gordon
22-01-2020, 14:23
AMD è già sui 7nm, altrimenti navi lavorava a 1300-1500, non certo a 2ghz.:)
Certo anche AMD affinerà qualcosa con i 7nm+
parlavo solo di IPC e resa delle CU rispetto agli SM ;)
Sul prossimo processo vedremo, ma non credo che Nvidia manterrà lo stesso vantaggio di frequenza che aveva in passato. :)
Molto probabilmente manterrà ancora un certo vantaggio in performance/watt, questo sì.
AMD non investirà mai tutti quei soldi in quegli affinamenti, non ce li ha proprio a dire il vero :rotfl:
mircocatta
22-01-2020, 16:26
non mi sembra difficile da capire il concetto
quello che mostra quel bench è il cosidetto "IPC" (fatto a medesima frequenza core/ram, stesso numero di sp) che con navi è pari/superiore a turing
se turing fosse a 7nm il risultato sarebbe identico, il processo produttivo non fa lievitare le performance a pari specifiche
quindi a livello di performance a pari frequenza amd ha recuperato bene, deve ancora sistemare però il lato consumi dove ancora nvidia, nonostante i 12nm, gli è superiore
amon.akira
22-01-2020, 16:34
non mi sembra difficile da capire il concetto
quello che mostra quel bench è il cosidetto "IPC" (fatto a medesima frequenza core/ram, stesso numero di sp) che con navi è pari/superiore a turing
se turing fosse a 7nm il risultato sarebbe identico, il processo produttivo non fa lievitare le performance a pari specifiche
certo ma consumerebbe la metà forse meno, visto che già lo fa :asd:
qualcosa non torna nell arch forse? :)
mircocatta
22-01-2020, 16:39
certo ma consumerebbe la metà forse meno, visto che già lo fa :asd:
qualcosa non torna nell arch forse? :)
ed infatti è quello che ho aggiunto dopo :)
per il nostro bene* bisogna sperare che, anche fosse a 7nm normali, amd con rdna2 metta una pezza anche in questo
*perchè si può essere anche fanboy nvidia ma, se non c'è concorrenza, la bellissima e ultravelocissima 3080ti la comprate con 2 stipendi, non 1 (che è già troppo di per se)
mikael84
22-01-2020, 18:21
parlavo solo di IPC e resa delle CU rispetto agli SM ;)
Sul prossimo processo vedremo, ma non credo che Nvidia manterrà lo stesso vantaggio di frequenza che aveva in passato. :)
Molto probabilmente manterrà ancora un certo vantaggio in performance/watt, questo sì.
AMD non investirà mai tutti quei soldi in quegli affinamenti, non ce li ha proprio a dire il vero :rotfl:
Si, in IPC a certi clock sono vicine, navi 10 in vari giochi è vicina o pari alla 2070 super di pari grado, in altri no. però devi considerare il salto nodo che nvidia non ha effettuato, AMD si.
La 3080 a 2250mhz produrebbe in flops, solo scalando il nodo, quanto una uber navi, presunta 80 CU.:) dopo devi calcolare tutto il resto, come rbe, geometria, bw effettiva.
Anche maxwell e pascal in IPC sono praticamente identiche o quasi a 1100.:p, però una dopo prende il largo.
Sul salto di clock, non saprei, teoricamente senza mettere in mezzo le pipe, si possono prendere anche i 2400/2500 di clock via TSMC, poi vedremmo sulla realtà:)
Su Pascal una toccatina alle pipe c'è stata, ma un salto così ampio non credo.
Maxwell 980ti in base all'asic partiva da 1164 (più DC), pascal 1080ti 1860mhz più DC (60% teorico /50% medio a 250watt circa), in OC andavo leggermente sopra il 50% tra 980ti e 1080 (1400 vs 2130).
Se lo paragonassimo a Pascal, Ampere dovrebbe boostare stock a 2800 più dc.
certo ma consumerebbe la metà forse meno, visto che già lo fa :asd:
qualcosa non torna nell arch forse? :)
Le regolazioni delle tensioni.
sertopica
23-01-2020, 09:38
No sempre separati. Attualmente solo il 20% dei tensor viene utilizzato in RT ( a lato pratico si arriva al 10%), in raster invece viene utilizzato per le FP16, nei giochi come vulkan.
ogni warp integra 2 motori tensor, nel tu 116 (gtx 1660ti), un motore viene utilizzato per fp16.:)
Con Ampere potrebbero anche integrarne 4, ma per ambiti pro.
Perfetto, grazie mille per la spiegazione. :)
Spider-Mans
23-01-2020, 10:53
Tu veramente credi che l'impennata di prezzi degli ultimi anni sia colpa del mining? :ciapet:
La colpa è di chi si è fatto le vga a 1300€ senza battere ciglio...se la gente imparasse a lasciare sugli scaffali la roba probabilmente il mercato andrebbe meglio in quanto a prezzi. Invece fanno bene a mungere come le mucche chi è disposto a spendere cifre del genere.....
esatto
applausi
incominciamo noi a far capire a nvidia...che ce un limite di prezzo oltre il quale...non si deve andare ..in attesa che amd si desta dal torpore pluriennale :asd:
sono rimasto con la 1080ti (la scheda col miglior prezzo prestazioni degli ultimi anni in ottica top) ....perche il prezzo delle 2080ti (peggior prezzo prestazioni di sempre xD) è assolutamente scandaloso per un misero 30-35% in piu di prestazioni..
eh la fuffa rtx non mi ha ha tentato minimamente...giocando a 4k...rtx ad oggi è pura barzelletta marketing presente in 4 giochi alla meno peggio ...
sara piacevole vedere le isterie da svalutazione delle 2080ti nei vari forum e mercatini appena piazzeranno la 3080 a 700 euro che andra di piu xD ...mai visto una svalutazione che potrebbe sfiorare oltre il 50% a distanza di un anno o poco piu a seconda della data di acquisto (chi ha pagato 1300 /1200 euro la 2080ti pochi mesi fa...potrebbe forse rivenderla a 600euro fra 6 mesi...wake up )
thunderforce83
23-01-2020, 11:10
Sento spesso dire a molti appassionati che non comprando schede costose i prezzi si abbasseranno...credo che questi abbiano una visione distorta della realta'. Punto primo credere che un pugno di appassionati possa comandare le vendite mondiali di una multinazionale e' veramente fantascienza. Punto secondo, nvidia non ha concorrenza alcuna sulle top di gamma (quindi se vuoi quello paghi, ma nessuno ti punta la pistola in testa per farlo) e ultimo ma non ultimo per avere questi risultati nvidia spendi piu' soldi in ricerca e sviluppo di tutta amd con reparto processori,gpu,server e chi ne ha piu' ne metta. Quindi ragazzi siate intelligenti...non dite cose che non stanno ne in cielo ne in terra. se svaluta amen, ognuno butta i suoi soldi come meglio crede.
mattxx88
23-01-2020, 11:14
Sento spesso dire a molti appassionati che non comprando schede costose i prezzi si abbasseranno...credo che questi abbiano una visione distorta della realta'. Punto primo credere che un pugno di appassionati possa comandare le vendite mondiali di una multinazionale e' veramente fantascienza. Punto secondo, nvidia non ha concorrenza alcuna sulle top di gamma (quindi se vuoi quello paghi, ma nessuno ti punta la pistola in testa per farlo) e ultimo ma non ultimo per avere questi risultati nvidia spendi piu' soldi in ricerca e sviluppo di tutta amd con reparto processori,gpu,server e chi ne ha piu' ne metta. Quindi ragazzi siate intelligenti...non dite cose che non stanno ne in cielo ne in terra. se svaluta amen, ognuno butta i suoi soldi come meglio crede.
amen. :mano:
MrBrillio
23-01-2020, 15:14
Ma io mica dicevo che se i lettori di hwu smettessero di comprare le top il mondo cambierebbe eh....dico che comunque chi acquista una VGA a 1300€ (non includo nel discorso le varie Titan a prezzi ancora superiori perchè vabbhè..) non battendo ciglio, fa solamente il gioco di Nvidia che specula alla grande.
Poi ci sta dietro tutta la ricerca e tutto quello che vuoi, ma ti ricordo che semplicemente Nvidia ha cavalcato l'onda del mining dove la gente sparava prezzi allucinanti per le VGA che erano diventate introvabili..arrivò anche a fare le schede dedicate..dopodichè facendosi due conti in tasca ha capito che poteva mungere il doppio dai vari clienti. E così è stato...potete farvi tutti i castelli mentali che volete, sulla ricerca e bla bla..in realtà Nvidia butta fuori schede video che hanno sempre un margine risicato rispetto alle generazioni precedenti, aumentando di volta in volta il prezzo.
Non hanno tirato fuori nulla di così eclatante da giustificare l'incremento di prezzo avuto negli ultimi anni....dai su! E' come Apple che tira fuori roba "normale" e la prezza il doppio solo perchè ormai è così, non è essere complottisti o cosa, è farsi due conti su come va il mercato..Però dai si va OT poi mi cazziano :p
mattxx88
23-01-2020, 15:22
Ma io mica dicevo che se i lettori di hwu smettessero di comprare le top il mondo cambierebbe eh....dico che comunque chi acquista una VGA a 1300€ (non includo nel discorso le varie Titan a prezzi ancora superiori perchè vabbhè..) non battendo ciglio, fa solamente il gioco di Nvidia che specula alla grande.
Poi ci sta dietro tutta la ricerca e tutto quello che vuoi, ma ti ricordo che semplicemente Nvidia ha cavalcato l'onda del mining dove la gente sparava prezzi allucinanti per le VGA che erano diventate introvabili..arrivò anche a fare le schede dedicate..dopodichè facendosi due conti in tasca ha capito che poteva mungere il doppio dai vari clienti. E così è stato...potete farvi tutti i castelli mentali che volete, sulla ricerca e bla bla..in realtà Nvidia butta fuori schede video che hanno sempre un margine risicato rispetto alle generazioni precedenti, aumentando di volta in volta il prezzo.
Non hanno tirato fuori nulla di così eclatante da giustificare l'incremento di prezzo avuto negli ultimi anni....dai su! E' come Apple che tira fuori roba "normale" e la prezza il doppio solo perchè ormai è così, non è essere complottisti o cosa, è farsi due conti su come va il mercato..Però dai si va OT poi mi cazziano :p
e quindi?
Resta il fatto che se uno vuole il top e può spendere deve cadere la.
E' una normale legge di mercato che un detentore di qualsiasi tipo di monopolio (in questo caso prestazionale) faccia ciò che vuole (Intel?). Mi chiedo se avete 14anni che ancora vi inacidite di fronte a ste cose :stordita:
mikael84
23-01-2020, 15:28
Ma io mica dicevo che se i lettori di hwu smettessero di comprare le top il mondo cambierebbe eh....dico che comunque chi acquista una VGA a 1300€ (non includo nel discorso le varie Titan a prezzi ancora superiori perchè vabbhè..) non battendo ciglio, fa solamente il gioco di Nvidia che specula alla grande.
Poi ci sta dietro tutta la ricerca e tutto quello che vuoi, ma ti ricordo che semplicemente Nvidia ha cavalcato l'onda del mining dove la gente sparava prezzi allucinanti per le VGA che erano diventate introvabili..arrivò anche a fare le schede dedicate..dopodichè facendosi due conti in tasca ha capito che poteva mungere il doppio dai vari clienti. E così è stato...potete farvi tutti i castelli mentali che volete, sulla ricerca e bla bla..in realtà Nvidia butta fuori schede video che hanno sempre un margine risicato rispetto alle generazioni precedenti, aumentando di volta in volta il prezzo.
Non hanno tirato fuori nulla di così eclatante da giustificare l'incremento di prezzo avuto negli ultimi anni....dai su! E' come Apple che tira fuori roba "normale" e la prezza il doppio solo perchè ormai è così, non è essere complottisti o cosa, è farsi due conti su come va il mercato..Però dai si va OT poi mi cazziano :p
Bisogna anche ammettere che la 2080ti è uno scarto di un chip gigantesco mai creato prima. non proprio noccioline. Anche i costi aumentano.
Una 1080ti è uno scarto di un chip da 471mm2, per dire la 2060 e 2060 super sono scarti di fascia medio-bassa presi da un chip quasi simile, ma con RT.:)
Mi sembra di leggere che qui dentro c'è chi vorrebbe la moglie ubriaca e la botte ancora piena :asd:
Secondo me ognuno deve spendere quello che può permettersi. Inutile lamentarsi se certe schede non sono alla nostra portata... come se dal momento che mi piacerebbe avere, che ne so, una ferrari, mi lamentassi delle persone che se la comprano sperando che il prezzo diminuisca se non lo fanno.
Mi sembra piuttosto di intravedere una certa forma di invidia verso quelli che possono permettersi una 2080Ti.
La mia speranza è che esca una scheda video che costi come la 1660Ti e che possa migliorarne le prestazioni del 50% a parità di consumi.
MrBrillio
23-01-2020, 16:00
cut
Naaa non lanciarti in cose che non sai dai...fidati non fare i conti in tasca alla gente :D
mircocatta
23-01-2020, 16:04
esatto
applausi
incominciamo noi a far capire a nvidia...che ce un limite di prezzo oltre il quale...non si deve andare ..in attesa che amd si desta dal torpore pluriennale :asd:
sono rimasto con la 1080ti (la scheda col miglior prezzo prestazioni degli ultimi anni in ottica top) ....perche il prezzo delle 2080ti (peggior prezzo prestazioni di sempre xD) è assolutamente scandaloso per un misero 30-35% in piu di prestazioni..
eh la fuffa rtx non mi ha ha tentato minimamente...giocando a 4k...rtx ad oggi è pura barzelletta marketing presente in 4 giochi alla meno peggio ...
sara piacevole vedere le isterie da svalutazione delle 2080ti nei vari forum e mercatini appena piazzeranno la 3080 a 700 euro che andra di piu xD ...mai visto una svalutazione che potrebbe sfiorare oltre il 50% a distanza di un anno o poco piu a seconda della data di acquisto (chi ha pagato 1300 /1200 euro la 2080ti pochi mesi fa...potrebbe forse rivenderla a 600euro fra 6 mesi...wake up )
pensa a me che ho pagato la 1080ti 520€ nuova 3 anni fa :sofico: :sofico:
ancora oggi mi riprendo almeno l'80% :fagiano: :fagiano:
Spider-Mans
23-01-2020, 16:14
Mi sembra piuttosto di intravedere una certa forma di invidia verso quelli che possono permettersi una 2080Ti.
.
sei fuori strada...senza fare sfide o conti in tasca
se uno spende 700 euro per una 1080ti...evidentemente non ha problemi a spenderne 500 in piu...ipoteticamente...
ho speso 500 euro per 4 ssd...perche odio gli hd meccanici che frullano xD
il punto è un altro..quanto valore dai a certe cifre in rapporto alle prestazioni e sopratutto è giusto assecondare una asticella prezzi alzata a lvl assurdi per mancanza di concorrenza nelle top di gamma? passando dai 700 euro al raddopio e oltre?
esempio pratico ..in un game x qualsiasi:
la 1080ti a 4k fa 100 frame
la 2080ti a 4k fa 130 frame
secondo te ha senso chiedere il doppio per il 30% in piu?
per me no...e le fregnate rtx su quattro demo in fullhd/60 men che meno...
devo spendere 1300 euro per tornare a giocare in fullhd con rtx on? mapperfavore :asd:
dai 4k non si torna indietro... attendo Oled Lg 48 CX ...finalmente annunciato .....come mio prossimo schermo per pc e ps5
devil_mcry
23-01-2020, 16:17
e certo perché da 700e a 1200e cambia poco dai
non diciamo sciocchezze, se così fosse non venderebbero mezza scheda da 700e e solo quelle da 1200e, non è così.
la unica vera cosa è che chi spende 1200e per una 2080ti non gliene frega niente se tra 6 mesi ne vale 600e, evidentemente i soldi li aveva senno non avrebbe fatto l'acquisto
Spider-Mans
23-01-2020, 16:19
pensa a me che ho pagato la 1080ti 520€ nuova 3 anni fa :sofico: :sofico:
ancora oggi mi riprendo almeno l'80% :fagiano: :fagiano:
in teoria ci guadagnavi se la vendevi qualche mese fa xD
Spider-Mans
23-01-2020, 16:23
e certo perché da 700e a 1200e cambia poco dai
non diciamo sciocchezze, se così fosse non venderebbero mezza scheda da 700e e solo quelle da 1200e, non è così.
la unica vera cosa è che chi spende 1200e per una 2080ti non gliene frega niente se tra 6 mesi ne vale 600e, evidentemente i soldi li aveva senno non avrebbe fatto l'acquisto
cambia tutto ..infatti....perche paghi il doppio per un misero 30% in piu
take easy
se ce gente che per un 30% paga volentieri il doppio..non è un mio problema
io non ci sto...a sto giro...quindi attendo next gen
questione chiusa...chi vuol capire capisca
devil_mcry
23-01-2020, 16:32
cambia tutto ..infatti....perche paghi il doppio per un misero 30% in piu
take easy
se ce gente che per un 30% paga volentieri il doppio..non è un mio problema
io non ci sto...a sto giro...quindi attendo next gen
questione chiusa...chi vuol capire capisca
Si vuole il top? Si puoi spendere 1200e? C'è la soluzione.
La 1080ti per dire era meno conveniente di una 1080 in termini di costo per prestazioni, come lo sono di solito quasi tutte le schede di fascia alta o enthusiast.
Se uno si mette a fare ragionamenti del tipo spendo x per avere y è perché quella spesa è alta per lui, se è una cifra altamente affrontabile di certo non si inizia a ragionare per percentuali.
mircocatta
23-01-2020, 16:34
in teoria ci guadagnavi se la vendevi qualche mese fa xD
vero ma....con cosa? una fuffa* rtx? :fagiano:
* prima di scatenare l'ira di qualcuno, la considero fuffa per i motivi citati dal''uomo ragno, non posso permettermi di spendere queste cifre e rischiare di vedermi svalutare/rendere inutilizzabile la scheda dopo un anno soltanto
Sento spesso dire a molti appassionati che non comprando schede costose i prezzi si abbasseranno...credo che questi abbiano una visione distorta della realta'. Punto primo credere che un pugno di appassionati possa comandare le vendite mondiali di una multinazionale e' veramente fantascienza. Punto secondo, nvidia non ha concorrenza alcuna sulle top di gamma (quindi se vuoi quello paghi, ma nessuno ti punta la pistola in testa per farlo) e ultimo ma non ultimo per avere questi risultati nvidia spendi piu' soldi in ricerca e sviluppo di tutta amd con reparto processori,gpu,server e chi ne ha piu' ne metta. Quindi ragazzi siate intelligenti...non dite cose che non stanno ne in cielo ne in terra. se svaluta amen, ognuno butta i suoi soldi come meglio crede.
https://media.giphy.com/media/AAsj7jdrHjtp6/giphy.gif
Sento spesso dire a molti appassionati che non comprando schede costose i prezzi si abbasseranno...credo che questi abbiano una visione distorta della realta'. Punto primo credere che un pugno di appassionati possa comandare le vendite mondiali di una multinazionale e' veramente fantascienza. Punto secondo, nvidia non ha concorrenza alcuna sulle top di gamma (quindi se vuoi quello paghi, ma nessuno ti punta la pistola in testa per farlo) e ultimo ma non ultimo per avere questi risultati nvidia spendi piu' soldi in ricerca e sviluppo di tutta amd con reparto processori,gpu,server e chi ne ha piu' ne metta. Quindi ragazzi siate intelligenti...non dite cose che non stanno ne in cielo ne in terra. se svaluta amen, ognuno butta i suoi soldi come meglio crede.Non c'è bisogno di fare una rivolta popolare, è sufficiente non acquistare un solo articolo, la top di gamma e se non ne vendi nemmeno una, a cascata si abbassano i prezzi di tutte le meno potenti, non c'è bisogno di tirare in ballo tesi neocapitaliste, in fin dei conti le schede vendute della serie xx80ti sono quelle con numeri minori
Non c'è bisogno di fare una rivolta popolare, è sufficiente non acquistare un solo articolo, la top di gamma e se non ne vendi nemmeno una, a cascata si abbassano i prezzi di tutte le meno potenti, non c'è bisogno di tirare in ballo tesi neocapitaliste, in fin dei conti le schede vendute della serie xx80ti sono quelle con numeri minori
non c'é bisogno nemmeno di lamentarsi dei prezzi alti se è per questo, ti conviene: compri, in caso contrario: desisti. (https://www.youtube.com/watch?v=uWDvcExGwsM)
Bisogna anche ammettere che la 2080ti è uno scarto di un chip gigantesco mai creato prima. non proprio noccioline. Anche i costi aumentano.
Una 1080ti è uno scarto di un chip da 471mm2, per dire la 2060 e 2060 super sono scarti di fascia medio-bassa presi da un chip quasi simile, ma con RT.:)
mostri enormi per dimensioni vanno a braccetto tu102 e gm200.
Alti costi di produzione bassa resa.
I prezzi erano ancora umani perche la competizione era piu accesa tra red e green.
Oggi per sognare concorrenza si scommette piu nei blu per il futuro
illidan2000
24-01-2020, 10:25
esatto
applausi
incominciamo noi a far capire a nvidia...che ce un limite di prezzo oltre il quale...non si deve andare ..in attesa che amd si desta dal torpore pluriennale :asd:
sono rimasto con la 1080ti (la scheda col miglior prezzo prestazioni degli ultimi anni in ottica top) ....perche il prezzo delle 2080ti (peggior prezzo prestazioni di sempre xD) è assolutamente scandaloso per un misero 30-35% in piu di prestazioni..
eh la fuffa rtx non mi ha ha tentato minimamente...giocando a 4k...rtx ad oggi è pura barzelletta marketing presente in 4 giochi alla meno peggio ...
sara piacevole vedere le isterie da svalutazione delle 2080ti nei vari forum e mercatini appena piazzeranno la 3080 a 700 euro che andra di piu xD ...mai visto una svalutazione che potrebbe sfiorare oltre il 50% a distanza di un anno o poco piu a seconda della data di acquisto (chi ha pagato 1300 /1200 euro la 2080ti pochi mesi fa...potrebbe forse rivenderla a 600euro fra 6 mesi...wake up )
il fatto che la mettano a quel prezzo è giustificato dal fatto che non c'è niente altro che possa avere quelle prestazioni lì, con o senza RTX.
Quindi si è "costretti" a prenderla se si vogliono avere 100fps puliti ad esempio con impostazioni grafiche alte in 2k
non c'é bisogno nemmeno di lamentarsi dei prezzi alti se è per questo, ti conviene: compri, in caso contrario: desisti. (https://www.youtube.com/watch?v=uWDvcExGwsM)
quoto in pieno
esempio pratico ..in un game x qualsiasi:
la 1080ti a 4k fa 100 frame
la 2080ti a 4k fa 130 frame
a minecraft?
e quindi?
Resta il fatto che se uno vuole il top e può spendere deve cadere la.
E' una normale legge di mercato che un detentore di qualsiasi tipo di monopolio (in questo caso prestazionale) faccia ciò che vuole (Intel?). Mi chiedo se avete 14anni che ancora vi inacidite di fronte a ste cose :stordita:
Mi sa volevi scrivere Nvidia. Intel non ha alcun monopolio prestazionale, ormai nemmeno in ambito ST.
mircocatta
24-01-2020, 12:52
mostri enormi per dimensioni vanno a braccetto tu102 e gm200.
Alti costi di produzione bassa resa.
I prezzi erano ancora umani perche la competizione era piu accesa tra red e green.
Oggi per sognare concorrenza si scommette piu nei blu per il futuro
e non hai tutti i torti, la gpu blu probabilmente sarà di fascia bassa ma, se prezzata nel modo giusto, farà scalare a ribasso un po tutte le fasce che ora come ora sono intasate sia di nuove (navi/rtx) ma anche di vecchie generazioni (polaris/gtx, tenute ancora sul mercato per mantenere alti i prezzi delle nuove gen)
fraussantin
24-01-2020, 13:02
Ammesso che sia competitiva come prezzo ( secondo me Intel punta ad altro per piazzarla , magari una particolare integrazione con le sue CPU) , farà calare solo le fasce di prezzo che la riguarderanno.
Amd quando ha aggredito la 2060 e la 2070 ha portato Nvidia a calare di prezzo solo queste GPU e neppure tanto .
arxangel
24-01-2020, 13:32
e non hai tutti i torti, la gpu blu probabilmente sarà di fascia bassa ma, se prezzata nel modo giusto, farà scalare a ribasso un po tutte le fasce che ora come ora sono intasate sia di nuove (navi/rtx) ma anche di vecchie generazioni (polaris/gtx, tenute ancora sul mercato per mantenere alti i prezzi delle nuove gen)
Da quel che è trapelato sarà la fascia non più potente dell' entry level solo un pò meglio delle integrate, non ho molto fiducia in Intel.
mikael84
24-01-2020, 14:43
mostri enormi per dimensioni vanno a braccetto tu102 e gm200.
Alti costi di produzione bassa resa.
I prezzi erano ancora umani perche la competizione era piu accesa tra red e green.
Oggi per sognare concorrenza si scommette piu nei blu per il futuro
Hai ancora la classy 980ti? Bei tempi.:)
Su Intel spiego sotto
e non hai tutti i torti, la gpu blu probabilmente sarà di fascia bassa ma, se prezzata nel modo giusto, farà scalare a ribasso un po tutte le fasce che ora come ora sono intasate sia di nuove (navi/rtx) ma anche di vecchie generazioni (polaris/gtx, tenute ancora sul mercato per mantenere alti i prezzi delle nuove gen)
Ammesso che sia competitiva come prezzo ( secondo me Intel punta ad altro per piazzarla , magari una particolare integrazione con le sue CPU) , farà calare solo le fasce di prezzo che la riguarderanno.
Amd quando ha aggredito la 2060 e la 2070 ha portato Nvidia a calare di prezzo solo queste GPU e neppure tanto .
Di intel attualmente si parla solo di fascia molto bassa, però attensione non ci riservi belle soprese, sopratutto abbraciando lo standard a chiplet, ma non solo.
Ha una decente architettura ad EU (execution unit). capaci di eseguire FP ed INT, un pò come turing.
All'interno del raster, integra 64 EU (1 EU 8 core), quindi parliamo di 512 core.
La scheda dei test potrebbe essere un 64/96 EU.
A doppio raster, può processare 32 rop's, 128 EU (1024 core) con prestazioni da fascia bassa (1650 e derivati AMD).
Con 4 raster, 256 EU, potrebbe insidiare schede di fascia media, medio bassa, come le 2060/s/5700 di AMD).
Il loro obbiettivo è per ora raggiungere le 512 EU (4096core), ma potrebbero spingersi anche a 1024 via MCM.
Le basi le hanno, bisogna vedere, se veramente vogliono occuparsi di GPU di fascia alta, o solo bassa e HPC.:)
Beh se non sbaglio Intel ha piani anche per entrare nel mercato gaming di fascia alta no?
thunderforce83
24-01-2020, 21:47
non c'é bisogno nemmeno di lamentarsi dei prezzi alti se è per questo, ti conviene: compri, in caso contrario: desisti. (https://www.youtube.com/watch?v=uWDvcExGwsM)
pur tu qua:D
il fatto che la mettano a quel prezzo è giustificato dal fatto che non c'è niente altro che possa avere quelle prestazioni lì, con o senza RTX.
Quindi si è "costretti" a prenderla se si vogliono avere 100fps puliti ad esempio con impostazioni grafiche alte in 2k
quoto in pieno
a minecraft?
infatti...:D quando conviene a loro la 5700xt fa piu' della 2070,quando no desistono dal dirlo:ahahah:
Hai ancora la classy 980ti? Bei tempi.:)
Su Intel spiego sotto cut
certo va forte per certi versi piu di quando è uscita (dx12)
Bei tempi tu che vga hai preso dopo la ti?
Purtroppo non ho potuto seguire più come un tempo, diciamo che mentre usciva turing in formato gpu lo studiavo in facoltà da grande matematico quale era :)
ps.mai dire classy ad un proprietario di king :p
Non le vedo piu in giro le classified l ultima serie era pascal se non sbaglio
illidan2000
27-01-2020, 15:21
certo va forte per certi versi piu di quando è uscita (dx12)
Bei tempi tu che vga hai preso dopo la ti?
Purtroppo non ho potuto seguire più come un tempo, diciamo che mentre usciva turing in formato gpu lo studiavo in facoltà da grande matematico quale era :)
ps.mai dire classy ad un proprietario di king :p
Non le vedo piu in giro le classified l ultima serie era pascal se non sbaglio
senza Turing, questo forum non esisterebbe
senza Turing, questo forum non esisterebbe
padre indiscusso.
Automi a stati finiti deterministici e non, macchine a calcolo discreto.
Per arrivare alla vga moderna c'e nè voluto.
Il nome alla gpu verde credo sia casuale potevano chiamarla pure Odifreddi
illidan2000
28-01-2020, 10:48
padre indiscusso.
Automi a stati finiti deterministici e non, macchine a calcolo discreto.
Per arrivare alla vga moderna c'e nè voluto.
Il nome alla gpu verde credo sia casuale potevano chiamarla pure Odifreddi
beh, è sullo stesso livello di Fermi e Pascal. Odifreddi non so se verrà ricordato.
Ai posteri l'ardua sentenza
thunderforce83
29-01-2020, 10:56
altri rumor dicono che...
la prossima RTX 3080 dovrebbe avere 3840 CUDA Core e ben 10 GB di RAM GDDR6 su bus a 320 bit, che possono salire anche a 20 GB, probabilmente riservati alle varianti Quadro, indirizzate all'utenza professionale.
La RTX 3070 invece potrebbe essere equipaggiata con 3072 CUDA Core e 8 GB di RAM GDDR6 su bus a 256 bit.
una 3080 con 10gb potrebbe essere un ottimo rimpiazzo per la mia attuale 2080Ti :D
vedremo...
TigerTank
29-01-2020, 11:00
altri rumor dicono che...
la prossima RTX 3080 dovrebbe avere 3840 CUDA Core e ben 10 GB di RAM GDDR6 su bus a 320 bit, che possono salire anche a 20 GB, probabilmente riservati alle varianti Quadro, indirizzate all'utenza professionale.
La RTX 3070 invece potrebbe essere equipaggiata con 3072 CUDA Core e 8 GB di RAM GDDR6 su bus a 256 bit.
una 3080 con 10gb potrebbe essere un ottimo rimpiazzo per la mia attuale 2080Ti :D
vedremo...
Ottimo, soprattutto se si ripetesse la storia delle Ti lanciate subito a prezzi ben oltre le 1000€. In tal caso prenderei anch'io una 3080 che con queste caratteristiche andrebbe benone sul monitor attuale :)
mikael84
29-01-2020, 16:09
certo va forte per certi versi piu di quando è uscita (dx12)
Bei tempi tu che vga hai preso dopo la ti?
Sono rimasto in fascia media, oltre 2 anni fa 1080 e da oltre un mese 2070 super:)
Abbastanza soddisfatto, sopratutto di quest'ultima.
ps.mai dire classy ad un proprietario di king :p
Non le vedo piu in giro le classified l ultima serie era pascal se non sbaglio
E' vero...:p La king.
Ora l'hanno rifatta in versione AIO, a prezzi surreali.
altri rumor dicono che...
la prossima RTX 3080 dovrebbe avere 3840 CUDA Core e ben 10 GB di RAM GDDR6 su bus a 320 bit, che possono salire anche a 20 GB, probabilmente riservati alle varianti Quadro, indirizzate all'utenza professionale.
La RTX 3070 invece potrebbe essere equipaggiata con 3072 CUDA Core e 8 GB di RAM GDDR6 su bus a 256 bit.
una 3080 con 10gb potrebbe essere un ottimo rimpiazzo per la mia attuale 2080Ti :D
vedremo...
Si, per struttura dei GPC, e per la derivazione quadro, i chip saranno quasi sicuramente quelli. Purtroppo anche le ram dovranno adattarsi alle quadro.
amon.akira
30-01-2020, 10:56
doppia densità allora e si andrà per i 20, che uno compri a settembre 2020 una 3080 a quanto 800-900-1000eur? con 10gb quando la 1080ti ne aveva 11gb 3anni fa e 1mese dopo ci saranno le console con 16(13+3)... non ci credo manco se lo vedo XD
OrazioOC
30-01-2020, 11:51
doppia densità allora e si andrà per i 20, che uno compri a settembre 2020 una 3080 a quanto 800-900-1000eur? con 10gb quando la 1080ti ne aveva 11gb 3anni fa e 1mese dopo ci saranno le console con 16(13+3)... non ci credo manco se lo vedo XD
Ma infatti mi sembra una cosa molto campata per aria, nel 2016 nvidia aveva le 1070 e le 1080 con 8gb di vram, se dopo 4 anni e conseguentemente il passaggio alle gddr6 con doppia densità non si riesce ad andare almeno sui 12 o 16 gb di vram sarebbe una delusione enorme.
fraussantin
30-01-2020, 11:57
doppia densità allora e si andrà per i 20, che uno compri a settembre 2020 una 3080 a quanto 800-900-1000eur? con 10gb quando la 1080ti ne aveva 11gb 3anni fa e 1mese dopo ci saranno le console con 16(13+3)... non ci credo manco se lo vedo XDSì ma anche in visione di una console con 12 giga dedicati e 16 totali é assurdo fare schede per il 4k con 8 e 10 giga
Se le faranno tempo 1 anno escono le super con il raddoppio.
amon.akira
30-01-2020, 12:18
Sì ma anche in visione di una console con 12 giga dedicati e 16 totali é assurdo fare schede per il 4k con 8 e 10 giga
Se le faranno tempo 1 anno escono le super con il raddoppio.
si ok per chi cambia ogni anno come noi si, ma una 3080 con un aspettativa di vita di 1anno non è bellissima come cosa...magari c'è qualcuno che la vorrebbe tenere 3 o 4anni :P
TigerTank
30-01-2020, 12:40
Intanto speriamo che si risolva al più presto la questione del coronavirus...perchè a parte la questione primaria a livello umano, se il sud-est asiatico andasse in tilt, non vorrei che nel corso del 2020 la situazione diventasse grama anche a livello di mercato, di approvvigionamenti informatici e relativi prezzi. :mc:
razor820
30-01-2020, 12:50
Mi ricordo tanti anni fa in Taiwan quando ci fu un allagamento nella zona dove producevano HD. Ed erano schizzati alle stelle...
Quando una volta si metteranno in testa di assemblare nel territorio nativo...
dovrebbero mettere super tasse per chi produce li..
Le migliori aziende americane Intel, amd ecc.. O anche italiane che sfruttano la manodopera cinese.. blaaa
fraussantin
30-01-2020, 12:52
si ok per chi cambia ogni anno come noi si, ma una 3080 con un aspettativa di vita di 1anno non è bellissima come cosa...magari c'è qualcuno che la vorrebbe tenere 3 o 4anni :PIo non sono uno che cambia spesso.
Se la 3070 mi farà fare un bel salto sia di Dram che di prestazioni potrei cambiare altrimenti aspetto.
Una 3070 con 8 giga anche se in 2k mi basteranno di sicuro non la prendo avendoci in casa la 2070.
amon.akira
30-01-2020, 13:07
Io non sono uno che cambia spesso.
Se la 3070 mi farà fare un bel salto sia di Dram che di prestazioni potrei cambiare altrimenti aspetto.
Una 3070 con 8 giga anche se in 2k mi basteranno di sicuro non la prendo avendoci in casa la 2070.
certo rischierebbe di essere un fermacarte non per il computazionale ma proprio per la memoria.
insomma le texture definite pesano 0 e danno 100 in qualità visiva.
prendi red2 tutto ultra e texture low = ps2
tutto low e texture ultra = next gen (o quasi dai ^^')
Sì ma anche in visione di una console con 12 giga dedicati e 16 totali é assurdo fare schede per il 4k con 8 e 10 giga
Se le faranno tempo 1 anno escono le super con il raddoppio.
Concordo, una GPU venduta per il 4K nel 2020 non può avere meno di 16GB di memoria, ma, a differenza di AMD, Nvidia è sempre stata riluttante a tirar fuori schede con un quantitativo di memoria generoso. Una 3080 con soli 10GB di VRAM sarà poco longeva in 4K, e mi farebbe desistere dal comprarla.
illidan2000
30-01-2020, 13:29
si ok per chi cambia ogni anno come noi si, ma una 3080 con un aspettativa di vita di 1anno non è bellissima come cosa...magari c'è qualcuno che la vorrebbe tenere 3 o 4anni :P
per farti comprare la TI da 16gb
razor820
30-01-2020, 14:00
certo rischierebbe di essere un fermacarte non per il computazionale ma proprio per la memoria.
insomma le texture definite pesano 0 e danno 100 in qualità visiva.
prendi red2 tutto ultra e texture low = ps2
tutto low e texture ultra = next gen (o quasi dai ^^')
Non ci bagniamo prima che piova...
I rumors spesso non sono poi diventati realtà..
Ci sarà un salto generazionale per le future consolle, ma sarà di una generazione, come fu da ps3 a PS4. Non mettiamoci in testa che avrà una super grafica che offuscherà le serie attuali di gpu... Il budget per realizzare una consolle e poi venderla sono sempre gli stessi... Tranne che cambiano filosofia e si mettono a realizzare consolle da 1500 a salire.. Teoricamente non sarebbe male come idea visto che c’è gente che spende 1400 per un cellulare...
Io so solo che quando passai da PS4 a pc, avevo una nvidia una gtx 970 strix, e la qualità e la fluidità la notai immediatamente con gta5. Un altro mondo...
Pensa che ancora escono giochi su PS4 con quel miserabile hardware che poi vengono pompati su pc
amon.akira
30-01-2020, 14:17
Non ci bagniamo prima che piova...
I rumors spesso non sono poi diventati realtà..
Ci sarà un salto generazionale per le future consolle, ma sarà di una generazione, come fu da ps3 a PS4. Non mettiamoci in testa che avrà una super grafica che offuscherà le serie attuali di gpu... Il budget per realizzare una consolle e poi venderla sono sempre gli stessi... Tranne che cambiano filosofia e si mettono a realizzare consolle da 1500 a salire.. Teoricamente non sarebbe male come idea visto che c’è gente che spende 1400 per un cellulare...
Io so solo che quando passai da PS4 a pc, avevo una nvidia una gtx 970 strix, e la qualità e la fluidità la notai immediatamente con gta5. Un altro mondo...
Pensa che ancora escono giochi su PS4 con quel miserabile hardware che poi vengono pompati su pc
non penso che serve google translator per ciò che ho detto mi sembra semplice XD
per le texture serve potenza o ram? ram
chi ha detto che le console saranno potentissime? o solo detto che avranno piu ram di un ipotetica 3080 a 10gb
per farti comprare la TI da 16gb
ah con me sfondi una porta aperta, mi preoccupavo per quelli che vogliono tenersela 2anni+ XD
mikael84
30-01-2020, 14:41
doppia densità allora e si andrà per i 20, che uno compri a settembre 2020 una 3080 a quanto 800-900-1000eur? con 10gb quando la 1080ti ne aveva 11gb 3anni fa e 1mese dopo ci saranno le console con 16(13+3)... non ci credo manco se lo vedo XD
I chip gaming saranno gli scarti delle quadro.
Il bus ancora non è stato ufficializzato cmq. La 2080 è di base progettata per 6 collegamenti, ma ne usa 4, la 3080 ne utilizzerà 5 o 6.
Mi viene difficile vedere tale chip con 20gb, come la prossima quadro, che fa parte della forza anch la ram.
Pensa la Titan RTX venduta ad oltre 2000 euro, solo perchè integra 24gb.
Mi sono battuto per la 2080, affinchè adottasse la doppia densità, ma all'epoca solo samsung l'aveva, e l'hanno lasciata solo per le quadro.
Infatti 1080ti 11gb, 2080/s 8gb.
Per la 3080 l'ideale sarebbe chiudere a 12gb via bus completo, oppure utilizzare la doppia a 256bit, però perderesti in prestazioni.
L'alternativa, come si facva un tempo, lanciare due versioni, una single ed una double.:)
Ma infatti mi sembra una cosa molto campata per aria, nel 2016 nvidia aveva le 1070 e le 1080 con 8gb di vram, se dopo 4 anni e conseguentemente il passaggio alle gddr6 con doppia densità non si riesce ad andare almeno sui 12 o 16 gb di vram sarebbe una delusione enorme.
Ti devi adattare ai bus, la memoria segue un ordine.
Se il bus sarà di 320bit, devi scegliere o 20 o 10. Essendo uno scarto della quadro, il quadro è piuttosto semplice da analizzare.
Per i 16gb l'ideale è chiudere a 256bit.:)
amon.akira
30-01-2020, 14:47
si ma infatti 12 smorzerebbero l incazzatura, insomma almeno il +1 con le vecchie e l = con le scatolette fino al prox upgrade.
sempre pensato che sceglieranno i 256 e usciranno con 16, segnate ^^
razor820
30-01-2020, 14:59
non penso che serve google translator per ciò che ho detto mi sembra semplice XD
per le texture serve potenza o ram? ram
chi ha detto che le console saranno potentissime? o solo detto che avranno piu ram di un ipotetica 3080 a 10gb
Il problema è che la memoria costa... e se già per la serie 20xx si sono voluti limitare per evitare che i prezzi già alti lo diventassero ancora di più, non vedo come in una scatoletta riescano ad andare oltre la quantità standard con il budget chiesto per la vendita.. Certo che come detto prima le future consolle costino il triplo delle attuali, allora ci potrebbe anche stare..
In ogni caso non credo che la nuova top della serie 30xx sfori la sogli dei 15gb..
Non dimentichiamoci che poi determinate textures hanno un peso sul disco fisso..
Se un red2 come hai affermato ha ancora textures low e pesa sui 150gb, quanto dovrebbe pesare con le textures hd? 400??
E nelle future scatolette quindi dovrebbero installare un ssd da 2tb?? Di conseguenza solo quelli costa quanto una PS4 di ora
Ale55andr0
30-01-2020, 15:02
Mi sono battuto per la 2080, affinchè adottasse la doppia densità, ma all'epoca solo samsung l'aveva, e l'hanno lasciata solo per le quadro.
lavori in nvidia? :fagiano:
mikael84
30-01-2020, 15:08
si ma infatti 12 smorzerebbero l incazzatura, insomma almeno il +1 con le vecchie e l = con le scatolette fino al prox upgrade.
sempre pensato che sceglieranno i 256 e usciranno con 16, segnate ^^
La 3080 però non sostituisce la 2080ti, ma la 2080/s.:)
O meglio, la quadro RTX xxxx sostituisce la RTX 5000, ed il chip gaming si adegua.
Questi chip sono solo dei rimpiazzi provvisori in attesa della nuova arch MCM.
Si potrebbe creare un 256 bit a doppia sulla 3080 e single sulla 3070.
io non amante dei chip collabrodo (2080ti/2070), monchi, avrei collegato i 384bit alla 3080, ed utilizzato il chip di scarto per la 3070, con magari 10gb (2 cache laserate).
Bisogna però pensare che nvidia ha stabilito i chip per la quadro, quindi lo scenario presentato potrebbe essere pure reale.
20gb di ram, mi pare un tantino azzardato per una mid gaming (che poi non è tanto mid, ma per architettura è mid):p
120$ per 10gb sul valore finale è tanto.
lavori in nvidia? :fagiano:
No
Con JHH abbiamo in comune solo il giubbotto in pelle.:p
Volevo dire, che utilizzare la singola densita, mi faceva ribbrezzo già all'uscita.:)
fraussantin
30-01-2020, 15:16
La 3080 però non sostituisce la 2080ti, ma la 2080/s.:)
O meglio, la quadro RTX xxxx sostituisce la RTX 6000, ed il chip gaming si adegua.
Questi chip sono solo dei rimpiazzi provvisori in attesa della nuova arch MCM.
Si potrebbe creare un 256 bit a doppia sulla 3080 e single sulla 3070.
io non amante dei chip collabrodo (2080ti/2070), monchi, avrei collegato i 384bit alla 3080, ed utilizzato il chip di scarto per la 3070, con magari 10gb (2 cache laserate).
Bisogna però pensare che nvidia ha stabilito i chip per la quadro, quindi lo scenario presentato potrebbe essere pure reale.
20gb di ram, mi pare un tantino azzardato per una mid gaming (che poi non è tanto mid, ma per architettura è mid):p
120$ per 10gb sul valore finale è tanto.
No
Con JHH abbiamo in comune solo il giubbotto in pelle.:p
Volevo dire, che utilizzare la singola densita, mi faceva ribbrezzo già all'uscita.:)
Sì però la 2080ti son 2 anni che è fuori , si presume che JHH voglia rivendere qualcosa a quei suoi clienti , che poi sono i migliori che ha .
Secondo me quelle news son farlocche.
mikael84
30-01-2020, 15:34
Sì però la 2080ti son 2 anni che è fuori , si presume che JHH voglia rivendere qualcosa a quei suoi clienti , che poi sono i migliori che ha .
Secondo me quelle news son farlocche.
Il chip x80 sarà quasi sicuramente quello, non abbiamo la certezza dei collegamenti. Quelli andanno a stabilire la memoria finale.;)
La quadro RTX 5000 nasce a 256bit e 16gb di ra, ci può stare che la prox quadro di pari fascia passi a 20gb (320bit), e di conseguenza il chip gaming si adegua.
OrazioOC
30-01-2020, 15:49
Ti devi adattare ai bus, la memoria segue un ordine.
Se il bus sarà di 320bit, devi scegliere o 20 o 10. Essendo uno scarto della quadro, il quadro è piuttosto semplice da analizzare.
Per i 16gb l'ideale è chiudere a 256bit.:)
Ma poi devi fare i conti con i programmatori scialacquatori di vram, perchè ultimamente con la scusa del "utilizziamo più vram per ottimizzare meglio i caricamenti" 8gb li vedo male nella fascia high end.
Anche perchè una 3080 non me l'aspetto di sicuro più lenta di una 2080 ti, perchè gli dobbiamo mettere meno vram, quando il trend negli anni è sempre stato l'opposto?
Già in molti hanno storto il naso quando hanno visto la 2080 con 8gb di ram nonostante un chip che sulla carta ne avrebbe come gp102 che ne ha 11/12, se anche con un salto di gen così netto non ci sarà un aumento di vram adeguato, onestamente altererebbe anche la percezione dell'upgrade stesso.
Nvidia ha quasi sempre avuto meno vram delle amd a parità di gen, ma nonostante tutto non si è mai risparmiata quando doveva saltare di gen(560 ti 1gb gddr5-> gtx 680 2gb->980 4gb-1080 8gb).
Magari e dico magari, migliorata ulteriormente la compressione dei colori, ci sarebbe spazio per un bus a 192 bit e 12gb di vram per la 3070 ad esempio.
Perdi qualcosa in fatto di banda passante, ma almeno hai il 50% in più di vram, e con le nuove console sappiamo tutti che avere più di 8gb di vram servirà per giocare ad alti livelli.
mikael84
30-01-2020, 16:21
Ma poi devi fare i conti con i programmatori scialacquatori di vram, perchè ultimamente con la scusa del "utilizziamo più vram per ottimizzare meglio i caricamenti" 8gb li vedo male nella fascia high end.
Anche perchè una 3080 non me l'aspetto di sicuro più lenta di una 2080 ti, perchè gli dobbiamo mettere meno vram, quando il trend negli anni è sempre stato l'opposto?
La 3080 sarà sicuramente più veloce della 2080ti, come lo è la 2080/s rispetto la 1080ti, solo che una ha un bus da 352bit l'altra da 256bit.
Già in molti hanno storto il naso quando hanno visto la 2080 con 8gb di ram nonostante un chip che sulla carta ne avrebbe come gp102 che ne ha 11/12, se anche con un salto di gen così netto non ci sarà un aumento di vram adeguato, onestamente altererebbe anche la percezione dell'upgrade stesso.
Si, appunto, avrei preferito la doppia densità già qui, ma alla fine si sono limitati alla singola, e come detto su, una ha il vantaggio del bus.
Purtroppo aumentare il bus sulla 2080 richiedeva troppo spazio die (56mm2 circa).
Nvidia ha quasi sempre avuto meno vram delle amd a parità di gen, ma nonostante tutto non si è mai risparmiata quando doveva saltare di gen(560 ti 1gb gddr5-> gtx 680 2gb->980 4gb-1080 8gb).
Questo si, ma è sempre collegato ai bus.
Nvidia utilizzava al temp la singola sui chip normali, e la modalità "conchiglia" (ovvero ram a metà bit avanti e retro).
Se guardiamo al passato, AMD ha scelto di collegari i 384bit alla 7970 perchè la BW a 256bit, limitava le rop's, nvidia con la 680 ci stava benissimo (ma dopo è morta male, non solo per la ram).
La 290 aveva il bus a 512bit (quindi 4gb), nvidia con le 780 a 384bit (quindi 3).
Con Maxwell nvidia rimase sui 256bit, ma si utilizzaronno chip da 512mb x8
Quindi:
amd 290: 512bit ( 256mb x 16) / 390 (512mb x 16 = 8gb)
980: 256bit (512mb x 8)
Con Pascal, il bus si mantiene a 256bit, ma le memorie passano a 1gb x8 moduli (8gb).
Lo stesso con Turing ma in versione ddr6.
Ampere potrebbe avere un bus con 256-320-384bit, quindi la ram è un'incognita.
Se vai di 320 bit hai due soluzioni: 10 o 20gb (quelli che faranno la forza della quadro):)
Magari e dico magari, migliorata ulteriormente la compressione dei colori, ci sarebbe spazio per un bus a 192 bit e 12gb di vram per la 3070 ad esempio.
Perdi qualcosa in fatto di banda passante, ma almeno hai il 50% in più di vram, e con le nuove console sappiamo tutti che avere più di 8gb di vram servirà per giocare ad alti livelli.
il problema è che mettere 192bit su uno schema a 384bit sarebbe uno scempio.:)
In primis perdi le rop's (quindi 48 su 64), perdi 1mb di cache e perdi una buona quanittà di banda passante, considerando che la compressione su turing è una schifezza dai dati finali.
Prima, tutti i chip x04, partivano con 4 GPC e 4 canali (quindi 256bit), ora la schema si è allargato a 6.
Con soli 4 canali, anche ora, bastava utilizzare la doppia densità per 16gb, ma se utilizzi bus diversi devi cambiare strategia.:)
amon.akira
30-01-2020, 16:47
La 3080 però non sostituisce la 2080ti, ma la 2080/s.:)
cosi come neanche la 1080 256 8gb sostituiva la 980ti 384 6gb però è pur sempre un upgrade, certo se lanciano la ti come con turing alzo le mani e facessero quello che vogliono, anche se rimarrebbe un brutto biglietto da visita per i motivi che ho citato sopra
fraussantin
30-01-2020, 16:50
cosi come neanche la 1080 256 8gb sostituiva la 980ti 384 6gb però è pur sempre un upgrade, certo se lanciano la ti come con turing alzo le mani e facessero quello che vogliono, anche se rimarrebbe un brutto biglietto da visita per i motivi che ho citato sopraE come ho detto su la 1080 usciva dopo 1 anno dalla 980ti e l'anno dopo arrivò la 1080ti.
2 anni e cambio
Qui siamo a 2 anni dalla big turing
OrazioOC
30-01-2020, 17:33
il problema è che mettere 192bit su uno schema a 384bit sarebbe uno scempio.:)
In primis perdi le rop's (quindi 48 su 64), perdi 1mb di cache e perdi una buona quanittà di banda passante, considerando che la compressione su turing è una schifezza dai dati finali.
Prima, tutti i chip x04, partivano con 4 GPC e 4 canali (quindi 256bit), ora la schema si è allargato a 6.
Con soli 4 canali, anche ora, bastava utilizzare la doppia densità per 16gb, ma se utilizzi bus diversi devi cambiare strategia.:)
Non quoto tutto il messaggio che comunque condivido, però vuoi che con ampere non migliorino di un ulteriore step la dcc?Maxwell e pascal sono ad un livello similare sotto quell'aspetto, e turing sembra quasi un passo indietro a pascal.
Onestamente mi aspetto molto delle schede "snelle" in fatto di die size e bus, una 3070 con 12gb di vram, 3080 con 16gb di vram e 3080 ti con 20gb di vram non mi sembrano utopia per una gen che se tutto va bene dovremo portarcela fino al 2022.
Anche in amd farfugliano di refreshare navi con le gddr6 a doppia densità, già hanno la 5500 8gb gddr6 e 128 bit di bus, una scheda che fa tenerezza per performance pure rispetto ad una 2080, figuriamoci se la 3070 avesse la stessa vram di una scheda di fascia medio/bassa del 2019.:doh:
Non ci voglio credere per quanto possa essere brutta come cosa una scheda del genere che deve tirare dritto fino al 2022.
TigerTank
30-01-2020, 17:38
E come ho detto su la 1080 usciva dopo 1 anno dalla 980ti e l'anno dopo arrivò la 1080ti.
2 anni e cambio
Qui siamo a 2 anni dalla big turing
Nvidia con le turing ha sfasato le cose altrimenti se come con le generazioni precedenti la 2080Ti sarebbe arrivata nel 2019 :)
amon.akira
30-01-2020, 18:14
Anche in amd farfugliano di refreshare navi con le gddr6 a doppia densità, già hanno la 5500 8gb gddr6 e 128 bit di bus, una scheda che fa tenerezza per performance pure rispetto ad una 2080, figuriamoci se la 3070 avesse la stessa vram di una scheda di fascia medio/bassa del 2019.:doh:
Non ci voglio credere per quanto possa essere brutta come cosa una scheda del genere che deve tirare dritto fino al 2022.
esatto ormai la vram la trovi/troverai nelle patatine :asd:
mikael84
30-01-2020, 18:15
cosi come neanche la 1080 256 8gb sostituiva la 980ti 384 6gb però è pur sempre un upgrade, certo se lanciano la ti come con turing alzo le mani e facessero quello che vogliono, anche se rimarrebbe un brutto biglietto da visita per i motivi che ho citato sopra
E come ho detto su la 1080 usciva dopo 1 anno dalla 980ti e l'anno dopo arrivò la 1080ti.
2 anni e cambio
Qui siamo a 2 anni dalla big turing
Si, però bisogna sempre ragionare in base allo schema, ai bus ed alle ram disponibili.
Con la 980 e la 980ti nvidia utilizzava le memorie da 512mb x canale (quindi 8 su 256bit = 4gb, e 12 su 384bit).
Anche qua, per le quadro, venivano utilizzati sistemi a conchiglia per raddoppiare la ram.
Con Pascal cosa è successo:
GP104 ha mantenuto il chip di GM104 ( lo schema), ha aumentato di cc da, 2048 a 2560, ha mantenuto quindi il bus, ma ha sostituito le vecchie ram, con le nuove, quindi 1gb per canale, come per la TI.
Di conseguenza 8gb.
Turing sul chip x04, ha cambiato schema, è passata a 6 GPC (raster), ma nel suo primo chip, non l'ha collegato del tutto, limitandosi a 256bit.
Il problema è che la doppia densità, l'aveva solo samsung, che l'ha utilizzata sulle costose quadro.
Con Ampere sarebbe facilissimo fare come con Pascal, basta utilizzare la doppia densità, e vai a 16gb.
Tuttavia nasce un problema, come vi ho detto prima, il chip finale manca di due collegamenti, se come speculato, lo collegano a 320bit, le soluzioni sono 2, o 10 o 20 (che utilizzerà la quadro).
Utilizzare 20gb su un chip gaming, mi pare un tantino tosto.:p
Non quoto tutto il messaggio che comunque condivido, però vuoi che con ampere non migliorino di un ulteriore step la dcc?Maxwell e pascal sono ad un livello similare sotto quell'aspetto, e turing sembra quasi un passo indietro a pascal.
Onestamente mi aspetto molto delle schede "snelle" in fatto di die size e bus, una 3070 con 12gb di vram, 3080 con 16gb di vram e 3080 ti con 20gb di vram non mi sembrano utopia per una gen che se tutto va bene dovremo portarcela fino al 2022.
Anche in amd farfugliano di refreshare navi con le gddr6 a doppia densità, già hanno la 5500 8gb gddr6 e 128 bit di bus, una scheda che fa tenerezza per performance pure rispetto ad una 2080, figuriamoci se la 3070 avesse la stessa vram di una scheda di fascia medio/bassa del 2019.:doh:
Non ci voglio credere per quanto possa essere brutta come cosa una scheda del genere che deve tirare dritto fino al 2022.
Si nvidia può utilizzare la doppia densità dove vuole, non è questo il punto (salvo i costi), il problema sta nei collegamenti scombinati.:)
una 3070 con 48 rop's e 330gb/s di banda, sarebbe troppo poco per un chip capace di poter prendere la 2080ti.
Sono dati da 2060 liscia attuale, solo che rispetto a quest'ultima, si ritroverebbe picchi di banda utilizzati molto più elevati.
nessuno cmq può escludere che possiamo ritrovarci così::)
3070 16gb (256bit)
3080 20gb (320bit)
Ale55andr0
30-01-2020, 18:31
Anche in amd farfugliano di refreshare navi con le gddr6 a doppia densità, già hanno la 5500 8gb gddr6 e 128 bit di bus, una scheda che fa tenerezza per performance pure rispetto ad una 2080, figuriamoci se la 3070 avesse la stessa vram di una scheda di fascia medio/bassa del 2019.:doh:
Non ci voglio credere per quanto possa essere brutta come cosa una scheda del genere che deve tirare dritto fino al 2022.
hanno fatto anche la 5600 che di ram ne ha 6 di giga...
esatto ormai la vram la trovi/troverai nelle patatine :asd:
coi prezzi delle ram in aumento? mmmm, patatine da 100 euro al pacco? :stordita:
amon.akira
30-01-2020, 18:49
hanno fatto anche la 5600 che di ram ne ha 6 di giga...
coi prezzi delle ram in aumento? mmmm, patatine da 100 euro al pacco? :stordita:
che faccio bookmarko? cosi ci sentiamo a ottobre/novembre con la seriex e la ps5 con 16gb di vram (condivisa ofc) non mi dire che costeranno piu di una 3080 dandoti pure cpu 8+8,ali,mb,pad,cuffie,scocca,1tb ssd e chissà cos altro...ora io con 900euro di 3080 devo accontentarmi di 10gb perchè la vram costa troppo :sofico:
la 5500xt "OGGI" con 8gb gddr6 costa 210euro, quindi il 50% del costo della scheda lo occupa la vram?
OrazioOC
30-01-2020, 19:01
hanno fatto anche la 5600 che di ram ne ha 6 di giga...
Perchè è una scartina delle 5700 che hanno le gddr6 a singola densità, ma la 5500 xt 8gb ha le memorie doppia densità e costa 20 euro in più di quella da 4gb.
Ale55andr0
30-01-2020, 22:13
che faccio bookmarko? cosi ci sentiamo a ottobre/novembre con la seriex e la ps5 con 16gb di vram (condivisa ofc) non mi dire che costeranno piu di una 3080 dandoti pure cpu 8+8,ali,mb,pad,cuffie,scocca,1tb ssd e chissà cos altro...ora io con 900euro di 3080 devo accontentarmi di 10gb perchè la vram costa troppo :sofico:
la 5500xt "OGGI" con 8gb gddr6 costa 210euro, quindi il 50% del costo della scheda lo occupa la vram?
tu pensa che io credevo montassero 24 giga, altrochè :sofico: anche perchè un banale raddoppio da 8 a 16, e nemmeno quello, per xbox series x (considerando i 12 di one x) per me sarebbe/è una presa per il...ma...dopo le ultime che ho sentito sulle ram e le voci di un miserabile gpu a 36cu per ps5 da 9.2 tflop tirata a morte nelle frequenze ho molto ridimensionato le mie fantasie/aspettative :asd:
All'epoca non credetti ai soli 768sp/1152sp di one e ps4 che uscirono come rumor mesi e mesi prima....poi fu proprio quella la verità, ergo quando leggo rumors al ribasso ormai temo il peggio :rolleyes: ergo a meno che no nvenderanno le vga in organi, non credo vedremo tagli da 20 giga o giu di li se non nelle fasce over 1000, e capirai che avanzamento tecnico c'è se lo hanno solo 4 gatti...20 giga su una vga da 7-800 cuccuzze come la 3080? ci crederò quando lo vedrò...
mikael84
30-01-2020, 23:08
che faccio bookmarko? cosi ci sentiamo a ottobre/novembre con la seriex e la ps5 con 16gb di vram (condivisa ofc) non mi dire che costeranno piu di una 3080 dandoti pure cpu 8+8,ali,mb,pad,cuffie,scocca,1tb ssd e chissà cos altro...ora io con 900euro di 3080 devo accontentarmi di 10gb perchè la vram costa troppo :sofico:
la 5500xt "OGGI" con 8gb gddr6 costa 210euro, quindi il 50% del costo della scheda lo occupa la vram?
Perchè è una scartina delle 5700 che hanno le gddr6 a singola densità, ma la 5500 xt 8gb ha le memorie doppia densità e costa 20 euro in più di quella da 4gb.
Il costo delle ram incide, certo non è un qualcosa di proibitivo.
4gb di ddr6 dovrebbero costare circa 45$, ma di certo per i lotti i prezzi sono più bassi. AMD differisce da 4 a 8 di 30$ di listino.
Il problema di base sta a monte, sopratutto se nvidia vuole lanciare una mid game, con la stessa memoria che avrà la quadro.
Ad oggi, la Titan RTX costa oltre 2000 euro, e la differenza oltre al chip full è il taglio ram (90$).
Per dire, la quadro RTX 6000 da 24gb costa 6300$ , la RTX 8000 viene 10000$, con la sola differenza di 24gb (270$, a loro molto meno).:p
fraussantin
31-01-2020, 08:06
Il costo delle ram incide, certo non è un qualcosa di proibitivo.
4gb di ddr6 dovrebbero costare circa 45$, ma di certo per i lotti i prezzi sono più bassi. AMD differisce da 4 a 8 di 30$ di listino.
Il problema di base sta a monte, sopratutto se nvidia vuole lanciare una mid game, con la stessa memoria che avrà la quadro.
Ad oggi, la Titan RTX costa oltre 2000 euro, e la differenza oltre al chip full è il taglio ram (90$).
Per dire, la quadro RTX 6000 da 24gb costa 6300$ , la RTX 8000 viene 10000$, con la sola differenza di 24gb (270$, a loro molto meno).:pLe quadro dovranno per forza di cose avete più di memoria.
Le attuali quadro 8000 non montano 12 chip da 4 giga ? Visto quello che costano potrebbero adottarli per tutte ..
AceGranger
31-01-2020, 08:54
Le quadro dovranno per forza di cose avete più di memoria.
Le attuali quadro 8000 non montano 12 chip da 4 giga ? Visto quello che costano potrebbero adottarli per tutte ..
"the RTX 8000 is equipped with a full 48GB of VRAM (24 chips in a clamshell configuration)"
https://www.anandtech.com/show/13217/nvidia-announces-turing-powered-quadro-rtx-family
thunderforce83
31-01-2020, 11:02
KittyCorgi
@CorgiKitty
New changes for Ampere client :
1 INT32 Unit remains unchanged because of issue port cannot be fully used anytime.
2 Double the FP32 Unit for shader proportion.
3 Now the performance of the new Tensor Core is doubled.
4 Enhanced L1 Data Cache for more comprehensive functions.
https://twitter.com/CorgiKitty/status/1218542322306056192/photo/1
mikael84
31-01-2020, 11:17
Le quadro dovranno per forza di cose avete più di memoria.
Le attuali quadro 8000 non montano 12 chip da 4 giga ? Visto quello che costano potrebbero adottarli per tutte ..
No, usano la doppia densità sia anteriormente che posteriormente, raddoppiando a tutti gli effetti il quantitativo.
Nelle gpu gaming abbiamo visto questo tipo di ram sulle titan generalmente.
fraussantin
31-01-2020, 11:29
No, usano la doppia densità sia anteriormente che posteriormente, raddoppiando a tutti gli effetti il quantitativo.
Nelle gpu gaming abbiamo visto questo tipo di ram sulle titan generalmente.Ah ecco il trucco me lo ero perso.
Allora potrebbero anche adottare quel sistema per tutte le quadro e i chip doppi per le gaming.
mikael84
31-01-2020, 11:57
Ah ecco il trucco me lo ero perso.
Allora potrebbero anche adottare quel sistema per tutte le quadro e i chip doppi per le gaming.
Troppo balzo, con nvidia che perderebbe una fascia carissima come la RTX 8000.
La fascia RTX5000 (ovvero la 2080 super gaming) con 16gb viene 2300$
La RTX8000 48gb 10000$.
Con GA104 (o 103 come lo chiameranno) vai a 20gb sulle 2000$, se utilizzi la modalità conchiglia, vai a 40gb. Tra prestazioni superiori e ram quasi simile, la ammazzi.:)
Utilizzando 20gb sulla scheda gaming 3080, uccideresti anche la titan rtx da oltre 2000 euro.
Per me avremo la 3080ti a 16gb e la 3080 liscia a 12,tanto si è capito che le nuove scatolette non valgono una mazza, saranno dei catorci fatti passare per wow con giri e rigiri di frittata marketing. A come si sente in giro, 9tf, 16gb di ram. Roba che dobbiamo ritornare a Pascal.
Ale55andr0
01-02-2020, 12:59
Per me avremo la 3080ti a 16gb e la 3080 liscia a 12,tanto si è capito che le nuove scatolette non valgono una mazza, saranno dei catorci fatti passare per wow con giri e rigiri di frittata marketing. A come si sente in giro, 9tf, 16gb di ram. Roba che dobbiamo ritornare a Pascal.
quella dei 9 tflop riguarda su ps5, non sulle "nuove console" e resta comuqnue da vedere. Coi 12 (sempre da vedere) tflop di series x ci tiri fuori il mondo su console. Poi io sta pascal da 12tflop e 16 giga non la conosco e voglio proprio vedere come gireranno su pascal i titoli delle prossime console avendone una nel case :asd:
Nel frattempo:
https://wccftech.com/nvidia-next-gen-ampere-gpu-75-percent-faster-existing-gpus/
amon.akira
01-02-2020, 13:20
quella dei 9 tflop riguarda su ps5, non sulle "nuove console" e resta comuqnue da vedere. Coi 12 (sempre da vedere) tflop di series x ci tiri fuori il mondo su console. Poi io sta pascal da 12tflop e 16 giga non la conosco e voglio proprio vedere come gireranno su pascal i titoli delle prossime console avendone una nel case :asd:
Nel frattempo:
https://wccftech.com/nvidia-next-gen-ampere-gpu-75-percent-faster-existing-gpus/
sempre le solite leggende metropolitane per cui i programmatori su pc per fare 4 usano 1+1+1+1 mentre su console fanno 2x2, io vedo che sono perfettamente in linea con la potenza di cui dispongono, il resto è solo gusto e stile; perciò si con la tua pascal giocherai purchè tu sia disposto a cappare a 30fps dettagli medio bassi ed accettare cali tipo control su console fino 10fps :asd:
mircocatta
01-02-2020, 14:16
sempre le solite leggende metropolitane per cui i programmatori su pc per fare 4 usano 1+1+1+1 mentre su console fanno 2x2, io vedo che sono perfettamente in linea con la potenza di cui dispongono, il resto è solo gusto e stile; perciò si con la tua pascal giocherai purchè tu sia disposto a cappare a 30fps dettagli medio bassi ed accettare cali tipo control su console fino 10fps :asd:
non ci metterei le mani sul fuoco
gli sviluppatori di videogame avranno due strade: rifare tutto con assett migliori o semplicemente stare fermi dove sono ora, garantendo res nativa 4k+60fps (o+) su console nuove e 30fps 1080p sulle old gen (così da non perdere una buona fetta di utenti) + le solite due chicche extra ammazza frame su PC
secondo voi quale strada percorreranno? quale gli costerà di meno? imho non cambierà niente, è anni che "sprecano" la potenza bruta in eccesso dei pc per garantire lo stesso game su ps4/xboxone
mikael84
01-02-2020, 14:18
Nel frattempo:
https://wccftech.com/nvidia-next-gen-ampere-gpu-75-percent-faster-existing-gpus/
lascia perdere questi clickbait;)
Un'articolo su speculazioni di 2 anni fa.
fraussantin
01-02-2020, 14:28
sempre le solite leggende metropolitane per cui i programmatori su pc per fare 4 usano 1+1+1+1 mentre su console fanno 2x2, io vedo che sono perfettamente in linea con la potenza di cui dispongono, il resto è solo gusto e stile; perciò si con la tua pascal giocherai purchè tu sia disposto a cappare a 30fps dettagli medio bassi ed accettare cali tipo control su console fino 10fps :asd:Non è che fanno 2x2 è che fanno 1+1+1
Cioè avendoci una macchina unica come riferimento i dev più attenti iniziano a creare un mondo apposito mettendo cose e dettagli in base a quanto riesce a fare la macchina.
Se in una zona ci sono problemi tolgono qualcosina e via
( Basta guardare i giochi dei cani pazzi , girano bene ma come dettagli sono un po' meh .. corridoi , illuminazione di 5 anni fa , Blur maschera magagne , vegetazione ferma .. ecc se c'è un gioco veramente bello graficamente e pieno di dettagli , rdr2 e Horizon , sono a 30 fps )
Su PC è più complicato farlo perché non so ha unhw di riferimento , la neppure un sw unico con driver diversi e Windows che muta in continuazione.
Però se le console veramente avranno un hw potente sarà dura per i PC meno prestanti stargli dietro quando usciranno i giochi only next gen.
È anche vero che hanno la fissa del 4k quindi per chi resta in 2k anche uw avrà quel vantaggio. Però è anche vero che all'utenza PC su tanti giochi 60 fps iniziano ad andare strettini mentre su console se implementeranno RT sarà dura tenere i 60 fps con quei 12 teracosi in 4k. Quindi non escludo che certi gioconi saranno cmq a 30 fps
PS ancora non riesco a comprendere il senso di metterci un 8 core a 3.6 , a meno che Sony e Microsoft non intendano far minare le macchine per recuperare i costi :asd:
amon.akira
01-02-2020, 14:37
Non è che fanno 2x2 è che fanno 1+1+1
Cioè avendoci una macchina unica come riferimento i dev più attenti iniziano a creare un mondo apposito mettendo cose e dettagli in base a quanto riesce a fare la macchina.
Se in una zona ci sono problemi tolgono qualcosina e via
( Basta guardare i giochi dei cani pazzi , girano bene ma come dettagli sono un po' meh .. corridoi , illuminazione di 5 anni fa , Blur maschera magagne , vegetazione ferma .. ecc se c'è un gioco veramente bello graficamente e pieno di dettagli , rdr2 e Horizon , sono a 30 fps )
Su PC è più complicato farlo perché non so ha unhw di riferimento , la neppure un sw unico con driver diversi e Windows che muta in continuazione.
Però se le console veramente avranno un hw potente sarà dura per i PC meno prestanti stargli dietro quando usciranno i giochi only next gen.
È anche vero che hanno la fissa del 4k quindi per chi resta in 2k anche uw avrà quel vantaggio. Però è anche vero che all'utenza PC su tanti giochi 60 fps iniziano ad andare strettini mentre su console se implementeranno RT sarà dura tenere i 60 fps con quei 12 teracosi in 4k. Quindi non escludo che certi gioconi saranno cmq a 30 fps
PS ancora non riesco a comprendere il senso di metterci un 8 core a 3.6 , a meno che Sony e Microsoft non intendano far minare le macchine per recuperare i costi :asd:
stai parlando di esclusive, poi esce un rdr thirdparty che ti fa capire che la bacchetta magica non esiste e che l ottimizzazione non è nient altro che una bella forbice, visto che gira uguale su pc su pari tf, anzi forse pure meglio
mikael84
01-02-2020, 14:43
Non è che fanno 2x2 è che fanno 1+1+1
Cioè avendoci una macchina unica come riferimento i dev più attenti iniziano a creare un mondo apposito mettendo cose e dettagli in base a quanto riesce a fare la macchina.
Se in una zona ci sono problemi tolgono qualcosina e via
( Basta guardare i giochi dei cani pazzi , girano bene ma come dettagli sono un po' meh .. corridoi , illuminazione di 5 anni fa , Blur maschera magagne , vegetazione ferma .. ecc se c'è un gioco veramente bello graficamente e pieno di dettagli , rdr2 e Horizon , sono a 30 fps )
Su PC è più complicato farlo perché non so ha unhw di riferimento , la neppure un sw unico con driver diversi e Windows che muta in continuazione.
Però se le console veramente avranno un hw potente sarà dura per i PC meno prestanti stargli dietro quando usciranno i giochi only next gen.
È anche vero che hanno la fissa del 4k quindi per chi resta in 2k anche uw avrà quel vantaggio. Però è anche vero che all'utenza PC su tanti giochi 60 fps iniziano ad andare strettini mentre su console se implementeranno RT sarà dura tenere i 60 fps con quei 12 teracosi in 4k. Quindi non escludo che certi gioconi saranno cmq a 30 fps
PS ancora non riesco a comprendere il senso di metterci un 8 core a 3.6 , a meno che Sony e Microsoft non intendano far minare le macchine per recuperare i costi :asd:
Il chip, può sembrare buono oggi, ma potrebbe essere una 3060, già una 3070 avrà prestazione ben sopra.
I primi due anni saranno ancora crossgen.
Da qui a sfruttare l'hardware il PC sarà nettamente superiore in tutte le fasce e si ritorna punto e a capo.
Nessun miracolo con le console attualmente, lo dimostra questo
https://www.youtube.com/watch?v=FKmfWg_rERk
NewEconomy
01-02-2020, 15:09
Ci sono novità per schede video adatte all’Intelligenza Artificiale? Adesso utilizzo una 2070 Super
fraussantin
01-02-2020, 15:18
stai parlando di esclusive, poi esce un rdr thirdparty che ti fa capire che la bacchetta magica non esiste e che l ottimizzazione non è nient altro che una bella forbice, visto che gira uguale su pc su pari tf, anzi forse pure meglioSpe rdr2 su xbox1 fa la sua figura , come la fa Horizon 0 down su 4pro. Poi vabbé il framerate fa ridere . ( Ma anche su PC se per quello :asd:)
Il cut[/url]
Sì ovviamente io parlavo per i PC attuali .. ovvio che tempo 2 anni i PC anche in fascia entry level saranno già oltre
amon.akira
01-02-2020, 17:34
esatto quello che ha linkato mike è un ottimo esempio, non è che se ti vendono 12tf a 300euro nelle console su pc non trovi l equivalente.
non è che noi su pc abbiamo bisogno di 24tf per fare le stesse cose che le console fanno con 12, sempre e solo 12 ci vogliono e i prezzi so quelli, nessuna magia :)
TigerTank
01-02-2020, 20:56
Spe rdr2 su xbox1 fa la sua figura , come la fa Horizon 0 down su 4pro. Poi vabbé il framerate fa ridere . ( Ma anche su PC se per quello :asd:)
Eh ma quella è una dipendenza del pcista. Su console ci sono solo 2 cose importanti che contano: avvia il gioco e gioca divertendoti :D
mikael84
02-02-2020, 14:42
esatto quello che ha linkato mike è un ottimo esempio, non è che se ti vendono 12tf a 300euro nelle console su pc non trovi l equivalente.
non è che noi su pc abbiamo bisogno di 24tf per fare le stesse cose che le console fanno con 12, sempre e solo 12 ci vogliono e i prezzi so quelli, nessuna magia :)
I 12tf di AMD cmq non sono un parametro del tutto rappresentativo.
AMD da il massimo nei titoli particolarmente ottimizzati, con registri precompilati, e dove si cerca di massimizzare le risorse, vulkan, shader intrinsic, culling migliorato.
una GPU AMD in un titolo non ottimizzato perde tantissimo, non avendo unità native.
https://i.postimg.cc/9DTzYHjZ/mnb.png (https://postimg.cc/9DTzYHjZ)
Spider-Mans
02-02-2020, 16:41
Per me avremo la 3080ti a 16gb e la 3080 liscia a 12,tanto si è capito che le nuove scatolette non valgono una mazza, saranno dei catorci fatti passare per wow con giri e rigiri di frittata marketing. A come si sente in giro, 9tf, 16gb di ram. Roba che dobbiamo ritornare a Pascal.
si poi arriva naughty dog o santamonica su ps5 e ti tirano fuori roba che su pc vedi fra forse 4 anni
god of war è un orgia visiva..e gira su un hw da carretta del mercatino gia anni fa... figurati su hw pensati per essere a 4k60 nativi...cosa potrebbero sfornare
:ciapet:
fare 1:1 ....pc vs console NON ha alcun senso
su console con hw unico e un s.o. pensato unicamente per quell hw e per i videogiochi...l'ottimizzazione è molto piu avanti che su pc
12tflop su console danno 100 di performance?
su pc gli stessi 12tflops gia tanto se arrivi a 70 :asd: con winzozz
Spider-Mans
02-02-2020, 16:47
Nvidia con le turing ha sfasato le cose altrimenti se come con le generazioni precedenti la 2080Ti sarebbe arrivata nel 2019 :)
nel 2019 non riusciva a piazzarla a milletrecento euro
:asd:
serie 30xx incoming :D
fraussantin
02-02-2020, 16:48
si poi arriva naughty dog o santamonica su ps5 e ti tirano fuori roba che su pc vedi fra forse 4 anni
god of war è un orgia visiva..e gira su un hw da carretta del mercatino gia anni fa... figurati su hw pensati per essere a 4k60 nativi...cosa potrebbero sfornare
:ciapet:
Sono giochi a corridoio paragonabili ai tomb raider su PC . Sì leggermente ottimizzato meglio , ma nulla di impressionante. ( Poi hanno un gameplay che non mi dice nulla e in un corridoio se non mi ci metti il gameplay cosa rimane?)
Sono invece impressionanti Horizon e rdr2 . Gli unici 2 giochi che invidio alle console , uno ê arrivato e il secondo pare sicuro
Poi si ritorna ai discorsi di prima ottimizzazione non vuol dire miracoli..
Spider-Mans
02-02-2020, 17:12
Sono giochi a corridoio paragonabili ai tomb raider su PC . Sì leggermente ottimizzato meglio , ma nulla di impressionante. ( Poi hanno un gameplay che non mi dice nulla e in un corridoio se non mi ci metti il gameplay cosa rimane?)
Sono invece impressionanti Horizon e rdr2 . Gli unici 2 giochi che invidio alle console , uno ê arrivato e il secondo pare sicuro
Poi si ritorna ai discorsi di prima ottimizzazione non vuol dire miracoli..
unchy 4 e god of war corridoi? naaa XD
non sono corridoi... hanno mappe abbastanza vaste.....i corridoi sono i resident evil o roba simile
cmq sui gusti di gameplay ...non discuto..sono soggettivi
unchy4 quando usci'-,,,tecnicamente era assurdo e se pensavi che girava su ps4 che gia al lancio era "poca" cosa
poi ok va a 30 frame.. ma per dire cosa sono capaci certi team interni sony..con tanti $$$ ovviamente
certi giochi non li tiri fuori con una produzione indie (che va tanto di moda su pc e steam :asd: )
rdr2 ha un budget assurdo alle spalle...e si vede ed era possibile perche pensato per il mercato console..che è piu redditizio per certe produzioni tripla A....oltre che dai proventi infiniti che genera gtav
questo per ribadire che benvengano le console nextgen con hw da 4k60 nativi..ne gioveranno gli stessi utenti pc
Ale55andr0
02-02-2020, 17:18
Poi hanno un gameplay che non mi dice nulla e in un corridoio se non mi ci metti il gameplay cosa rimane?)
aridaje, quello è un tuo parere personale (sul quale buona parte del resto del pianeta videoludico su console dissente, pare, viste le vendite e le recensioni :asd:) ma non ci azzecca nulla col discorso ottimizzazione. Abbiamo capito, non ti piace, amen, non serve che lo ripeti ogni 2x3 :asd:
...Il gioco a corridoio è comunque uscito in epoca ps 3 e andrebbe valutato coi giochi a corridio dell'epoca, non in base a una remaster che non può stravolgere la resa se le basi sono quelle ma confrontate con giochi attuali...e all'epoca per quel'hardware su pc ti potevi attaccare per avere giochi del genere...
Uncharted4 cmq ha mappe ampie, non è un corridoio. Ovvio, non è un'open world (sia ringraziato il cielo), ma quelli sono altro genere ancora. Semmai è "sui binari" come metro exodus, per ovvie questioni di trama, ma non ti muovi mica in piccoli ambienti angusti, mentre nel caso di tlou, per quanto siano piccoli, la resa del "viaggio", del trovarsi a km di distanza rispetto i livelli di inizio gioco pur in un continuo senza evidenti interruzioni e fatto di percorsi forzati è superlativa, segno che oltre la tecnica (che all'epoca era superba) anche artisticamente han saputo fare un capolavoro. Se dovessimo adottare il tuo metro di giudizio potremmo massacrare e banalizzare tecnicamente qualsivoglia gioco, anche un osannatissimo tw3 che ha molte texture low res, png che si ripetono a pochi metri di distanza, vegetazione 2d tipo le foglie "appiccicate" al muro di kaer moern a inizio gioco ecc
fraussantin
02-02-2020, 17:30
Cosa ha in più di un tomb raider a caso?
PS anche rdr2 ha un gameplay da fare pietà è ..sia chiaro , ma offre molto molto altro
E pure tw3 non è che sia strabiliante come combat.
Pps tlou è la solita solfa.. oltre al bum bum bum , c'ê la fase stelth che fa ancora più ridere.
Bella la trama ok ma è un cliché dall'inizio alla fine..
Ale55andr0
02-02-2020, 18:16
io di clichè scritti così bene non ne ho visti di rado se non mai, si vede che ho letto/visto/giocato cose diverse, sul resto è inutile continuare a contro-argomentar sui gusti di un'altro, si parli di trama, gameplay ecc :)
Se poi mi paragoni la scrittura, i personaggi e i dialoghi di tlou con un "tomb raider qualunque" direi che siamo al limite del cercar lite agratis :asd:
amon.akira
02-02-2020, 19:00
Cosa ha in più di un tomb raider a caso?
PS anche rdr2 ha un gameplay da fare pietà è ..sia chiaro , ma offre molto molto altro
E pure tw3 non è che sia strabiliante come combat.
Pps tlou è la solita solfa.. oltre al bum bum bum , c'ê la fase stelth che fa ancora più ridere.
Bella la trama ok ma è un cliché dall'inizio alla fine..
giocato god of war, lo amo anche ma non ha nulla che un tomb raider (già solamente il rise) non ha, anzi... sempre tecnicamente parlando per rincongiungerci al discorso ottimizzazione...i sonari confondono potenza computazionale con man-power :asd:
fraussantin
03-02-2020, 07:25
https://www.tomshw.it/hardware/big-red-200-supercomputer-nvidia-ampere/
Tesla V100,*che avrebbero consentito di raggiungere un massimo di*5,9 petaflop.*Con le nuove GPU che verranno installati,*il supercomputer arriverà a 8 petaflop.
Da 5.9 a 8 ci passa un +35% , sempre se é vero ..
PS volta quanto andava meno di Turing? Un 10%?
AceGranger
03-02-2020, 12:26
https://www.tomshw.it/hardware/big-red-200-supercomputer-nvidia-ampere/
Tesla V100,*che avrebbero consentito di raggiungere un massimo di*5,9 petaflop.*Con le nuove GPU che verranno installati,*il supercomputer arriverà a 8 petaflop.
Da 5.9 a 8 ci passa un +35% , sempre se é vero ..
PS volta quanto andava meno di Turing? Un 10%?
una delle regole fondamentali del web è quella di non fidarsi delle news di Tom's e di leggere la fonte.... manca giusto un pezzettino in quella news....
"As a result of the two-phase approach, waiting a few more months yielded an additional two petaflops of performance, even though, according to Wheeler, they ended up buying a smaller number of GPUs. (The newer silicon is expected to deliver 70 percent to 75 percent more performance than that of the current generation.) Perhaps more importantly, having the latest and greatest GPUs will help attract additional research dollars to the university, especially for AI-enabled research"
in sostanza, secondo le dichiarazioni di quel tizio, hanno aumenteranno i TFlops impiegando meno GPU di quelle previste in precedenza se fossero state V100; quindi parlano di un 70-75% di performance in piu.
poi tutto ovviamente da confermare e vedere in quale ambito intendono il 75%.....
Beh immagino considerino i teraflops
thunderforce83
05-02-2020, 13:53
Se le GPU del pubblico non sono ancora state rivelate, Nvidia ha già distribuito alcuni chip in casi speciali, in particolare sotto forma di GPU Tesla integrate nel supercomputer Big Red 200 dell'Università dell'Indiana.
Analizzando il supercomputer e la sua scheda tecnica mentre dettagliava ciascun componente, un utente di Twitter è arrivato a determinare che ciascun chip Tesla sarebbe stato in grado di raggiungere 18 teraflop di prestazioni in FP64.
Ciò non indica necessariamente che i chip delle nostre prossime schede grafiche offriranno tale potenza di calcolo, ma dovremmo avvicinarci. Ricordiamo che le prossime console domestiche di Microsoft e Sony sono state annunciate con una potenza di calcolo che ruota attorno ai 12 Teraflop. Desideriamo quindi vedere questi potenti mostri arrivare sul mercato, ma ancora di più, per scoprire il loro prezzo.
mikael84
05-02-2020, 15:22
Se le GPU del pubblico non sono ancora state rivelate, Nvidia ha già distribuito alcuni chip in casi speciali, in particolare sotto forma di GPU Tesla integrate nel supercomputer Big Red 200 dell'Università dell'Indiana.
Analizzando il supercomputer e la sua scheda tecnica mentre dettagliava ciascun componente, un utente di Twitter è arrivato a determinare che ciascun chip Tesla sarebbe stato in grado di raggiungere 18 teraflop di prestazioni in FP64.
Ciò non indica necessariamente che i chip delle nostre prossime schede grafiche offriranno tale potenza di calcolo, ma dovremmo avvicinarci. Ricordiamo che le prossime console domestiche di Microsoft e Sony sono state annunciate con una potenza di calcolo che ruota attorno ai 12 Teraflop. Desideriamo quindi vedere questi potenti mostri arrivare sul mercato, ma ancora di più, per scoprire il loro prezzo.
Decisamente utopistico.:)
Tra maxwell Pascal, c'è stato un incremento del 70% circa in boost (solo FP32, ma di riflesso sulle fp64, anche se spoglio).
Tra Pascal GP100 e GV100 ci passa il 60% (non clock ma riempimento).
Essendo piuttosto realistici, possiamo prevedere un 70/75%, con FP64 a 13TF e FP32 a 26.:)
illidan2000
05-02-2020, 15:57
Decisamente utopistico.:)
Tra maxwell Pascal, c'è stato un incremento del 70% circa in boost (solo FP32, ma di riflesso sulle fp64, anche se spoglio).
Tra Pascal GP100 e GV100 ci passa il 60% (non clock ma riempimento).
Essendo piuttosto realistici, possiamo prevedere un 70/75%, con FP64 a 13TF e FP32 a 26.:)
forse il 70% solo sulla parte rt?
TigerTank
05-02-2020, 16:20
Decisamente utopistico.:)
Tra maxwell Pascal, c'è stato un incremento del 70% circa in boost (solo FP32, ma di riflesso sulle fp64, anche se spoglio).
Tra Pascal GP100 e GV100 ci passa il 60% (non clock ma riempimento).
Essendo piuttosto realistici, possiamo prevedere un 70/75%, con FP64 a 13TF e FP32 a 26.:)
Poi arriva il mattone ottimizzato male che ti ammazza gli incrementi "ideali" :sofico:
amon.akira
05-02-2020, 19:13
Poi arriva il mattone ottimizzato male che ti ammazza gli incrementi "ideali" :sofico:
se lo ammazza uguale su turing al -70% l incremento rimarrebbe :stordita:
mikael84
05-02-2020, 20:27
forse il 70% solo sulla parte rt?
La parte RT in hardware aumenterà di conseguenza ad SM e clock, però bisogna vedere che miglioramenti apporteranno le nuove GPU.
Sul fronte RT potrebbero fare passi in avanti, anche per ammazzarti le turing.:p
Poi arriva il mattone ottimizzato male che ti ammazza gli incrementi "ideali" :sofico:
Su quello non ci puoi fare niente:)
Sicuramente Ampere (o come lo chiameranno) aprirà le porte del 4k in fascia alta, considerando anche le console di nuova generazione.:)
TigerTank
05-02-2020, 20:42
se lo ammazza uguale su turing al -70% l incremento rimarrebbe :stordita:
Sì sì, intendo il nuovo mattonazzo di turno che ridimensiona le performance in parallelo alle nuove vga. :D
Su quello non ci puoi fare niente:)
Sicuramente Ampere (o come lo chiameranno) aprirà le porte del 4k in fascia alta, considerando anche le console di nuova generazione.:)
Vero :D
Sì, quello sì...di base sarebbe anche ora per quello. Circa il ray tracing a me basterebbe che diano un margine sufficiente per iniziare a goderselo meglio in 1440p :)
No, usano la doppia densità sia anteriormente che posteriormente, raddoppiando a tutti gli effetti il quantitativo.
Nelle gpu gaming abbiamo visto questo tipo di ram sulle titan generalmente.
Anche gf106 montava dual in configurazione sandwich :cool:
La mia attuale gts 450 sul pc da soma è equipaggiata con ben 1gb gddr5
Acquistata nel 2010 monta le stesse ram di gm200 del 2015
mikael84
06-02-2020, 11:34
Sì sì, intendo il nuovo mattonazzo di turno che ridimensiona le performance in parallelo alle nuove vga. :D
Vero :D
Sì, quello sì...di base sarebbe anche ora per quello. Circa il ray tracing a me basterebbe che diano un margine sufficiente per iniziare a goderselo meglio in 1440p :)
La 3080 sarà sicuramente capace di gestirlo degnamente a quella risoluzione.
Considera che di base, si avranno prestazioni sicuramente superiori ad una TI, in più se ci metti delle ottimizzazioni, non può che migliorare.
Certo, poi ci sarà sempre il mattonazzo che ti piegherà anche quella.:)
Anche gf106 montava dual in configurazione sandwich :cool:
La mia attuale gts 450 sul pc da soma è equipaggiata con ben 1gb gddr5
Acquistata nel 2010 monta le stesse ram di gm200 del 2015
Si, praticamente quasi tutte le GPU a memoria doppia erano in sandwich, solo con le ddr6 hanno inserito la doppia densità.:)
TigerTank
06-02-2020, 11:41
La 3080 sarà sicuramente capace di gestirlo degnamente a quella risoluzione.
Considera che di base, si avranno prestazioni sicuramente superiori ad una TI, in più se ci metti delle ottimizzazioni, non può che migliorare.
Certo, poi ci sarà sempre il mattonazzo che ti piegherà anche quella.:)
Speriamo Mike, anche perchè sinceramente già la 2080Ti personalmente mi ha insegnato che non vale più la pena spendere così tanto per una vga. E se la storia si ripetesse...
mikael84
06-02-2020, 14:30
Speriamo Mike, anche perchè sinceramente già la 2080Ti personalmente mi ha insegnato che non vale più la pena spendere così tanto per una vga. E se la storia si ripetesse...
Dubito che la 3080ti verrà prezzata a 699$:p
Se va di lusso, prezzeranno la 3080 a 6/799$, ma deve andare di lusso.
TigerTank
06-02-2020, 14:50
Dubito che la 3080ti verrà prezzata a 699$:p
Se va di lusso, prezzeranno la 3080 a 6/799$, ma deve andare di lusso.
Salvo esca appunto nel 2021...come da tempistiche delle precedenti Ti ma ne dubito. Tra richiesta di prestazioni subito, rt incluso e relativo vantaggio di piazzare subito una fascia alta overpriced...non avrebbero nemmeno bisogno della concorrenza come motivazione :D
amon.akira
06-02-2020, 14:51
MSRP
780 -> 649$ Ti -> 699$
980 -> 549$ Ti -> 649$
1080 -> 599$ Ti -> 699$
2080 -> 699$ Ti -> 999$
ovviamente la differenza/anomalia è l ultima Ti che essendo uscita in contemporanea si è presa la posizione dell ex titan.
OrazioOC
06-02-2020, 14:56
Siamo realisti, ad oggi con 600 euro prendi una buona 2070 super, il cut del cut del cut di tu104.
Se tutto va bene a 900 euro ci prendi la 3080, spero custom e non blower.:D
Anche perchè i prezzi della 2080 super di oggi sono quelli.
amon.akira
06-02-2020, 15:01
Siamo realisti, ad oggi con 600 euro prendi una buona 2070 super, il cut del cut del cut di tu104.
Se tutto va bene a 900 euro ci prendi la 3080, spero custom e non blower.:D
Anche perchè i prezzi della 2080 super di oggi sono quelli.
realisticamente un mio amico prese una palit 2080 2mesi post dayone a 680€ e un altro amico prese una 2070 gigabyte windforce 1mese dopo il dayone a 500€
entrambe ancora in vita nonostante all epoca sembrava saltassero tutte
oggi effettivamente conviene meno rispetto a 1anno e mezzo fa :P
TigerTank
06-02-2020, 15:02
Giravano voci che le nuove vga sarebbero state più economiche(o almeno non più care)...ma se nel corso dell'anno il mercato mondiale iniziasse a soffrire di carenze varie(come già succede ora) per la situazione cinese e sud-est asiatico in generale...può essere che anche a livello informatico(visto che fisicamente ormai producono tutto là) ci possano essere ripercussioni di disponibilità e quindi di costi. Mia ipotesi...
Vedasi già ad esempio certe decisioni della Foxconn in questi giorni.
Ma speriamo di no, ovviamente a livello umano in primis.
OrazioOC
06-02-2020, 15:07
realisticamente un mio amico prese una palit 2080 2mesi post dayone a 680€ e un altro amico prese una 2070 gigabyte windforce 1mese dopo il dayone a 500€
entrambe ancora in vita nonostante all epoca sembrava saltassero tutte
oggi effettivamente conviene meno rispetto a 1anno e mezzo fa :P
Non metto in dubbio quei prezzi, però ad oggi lo street price delle 2080 super non è inferiore agli 800/850 euro a seconda dell'oem, e parliamo di una gpu che in fatto di "periodo d'assestamento prezzi" è bella matura.
Non prendo in cosiderazione la 2080 ti, 1300 euro per una gpu da gioco sono una follia, ormai come top di gamma considero la 2080 super.
OrazioOC
06-02-2020, 15:09
Giravano voci che le nuove vga sarebbero state più economiche(o almeno non più care)...ma se nel corso dell'anno il mercato mondiale iniziasse a soffrire di carenze varie(come già succede ora) per la situazione cinese e sud-est asiatico in generale...può essere che anche a livello informatico(visto che fisicamente ormai producono tutto là) ci possano essere ripercussioni di disponibilità e quindi di costi. Mia ipotesi...
Vedasi già ad esempio certe decisioni della Foxconn in questi giorni.
Ma speriamo di no, ovviamente a livello umano in primis.
Ma sicuro, quando possono approfittarsene di certe situazioni per fare la cresta sono sempre in prima fila ormai.
Mi ricordo uqualche anno fa l'allagamento alla fabbrica degli hard disk(mi pare toshiba?) e poche settimane dopo un hdd da 1tb costava 20 euro in più.:rolleyes:
Ma anche per le ram, un misterioso incendio ha fatto aumentare il prezzo delle ddr4 a livelli osceni.:rolleyes:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.