View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
majinbu7
12-06-2020, 16:03
IO!!! (anche se sono fan di Ross The Boss... )
comunque il computex è saltato.. secondo me a breve saranno presentate. vado a sensazione ovviamente ma la 1080 fu presentata un mesetto dopo le prime foto 'leak' :)
Le prime vga della serie 3000 le avrai a settembre ;)
mikael84
12-06-2020, 17:48
Sempre per chi non ha letto le 2000 pagine di discussione..... piccolo riassunto dei chip speculati? Grazie :D
GA102 top 5376cc 24gb (3090 Titan)
GA102 5120cc 11gb (3080ti/3090)
GA102 4352/10gb 3080
---
GA104 3070ti/super/3070 3076cc/ 8gb /256bit
GA104 3070/3060super 2560cc/8gb /256bit
----
GA106 3060 1920cc/ 6gb di ram.
non vedo l'ora di capire le specifiche reali dei chip: cuda core,tensor, la reale banda di queste nuove gddr6x e le frequenze massime raggiungibili dalle memorie ai chip...insomma sicuramente un bel salto rispetto alla passata generazione. la cosa che non capisco e' la vicinanza dei nomi dei chip tra le varie nomenclature, ga102 per tutte e addirittura un tdp uguale tra 3080 e 3080ti:confused:
insomma il dissipatore lo sappiamo come sara'...forse il migliore mai uscito per le nvidia reference ma ci sono tanti dubbi, il costo credo che salira' di un bel po', credo che a sto giro gia' la 3080si avvicinera' ai 999dollari o da quelle parti, una bella batosta per chi sperava di mettere nel case le nuove schede ad un prezzo migliorato rispetto alla passata generazione.
Mai letto nulla di queste ram, malgrado vengano pubblicizzate a destra e a manca.:p
Per ora samsung ha le 16 gb/s, Micron ha appena aggiornato alle 16.
Potrei aspettarmi delle 18, e che le chiamino x, ma non certo 21.:)
Per il resto curioso di vedere la parte tensor ed l2.
redbaron
12-06-2020, 17:53
Ci sono i negazionisti dell'olocausto, figuriamoci se non ci sono fanboy AMD che dicono di non aver mai avuto problemi coi drivers.
:asd:
slide1965
12-06-2020, 18:45
Per chi mette le schede a liquido e del super mega power dissipatore non sa che farsene se non usarlo come fermaporte, ci sarà uno sconto famiglia ?
Per chi mette le schede a liquido e del super mega power dissipatore non sa che farsene se non usarlo come fermaporte, ci sarà uno sconto famiglia ?
Penso che ci sarà il modello base (o reference blower, o chi per lui) disponibile per tutti i partner. Il dissipatore founders ce l'ha solo nvidia e se lo fa pure pagare caro, quindi...
Per chi mette le schede a liquido e del super mega power dissipatore non sa che farsene se non usarlo come fermaporte, ci sarà uno sconto famiglia ?
O si prende una GPU con waterblock già installato o la prima manli sottocosto con dissi barbon edition...
mircocatta
12-06-2020, 21:47
O si prende una GPU con waterblock già installato o la prima manli sottocosto con dissi barbon edition...
te piace vincere facile
in realtà non è così facile, i pcb potrebbero essere diversi (d'altrone parliamo di barbon edition) per cui non è facile trovare un waterblock adatto, anche perchè difficilmente ek watercool & co. spendono risorse per realizzare wb su quei pcb
e sinceramente se devo liquidare un pcb scarso...anche no
Marscorpion
12-06-2020, 22:08
Per chi mette le schede a liquido e del super mega power dissipatore non sa che farsene se non usarlo come fermaporte, ci sarà uno sconto famiglia ?
Se è confermato il pcb "particolare" EK & company dovranno pensare a waterblock leggermente diversi da quelli attuali e mi sa che questa sarà la scusa buona per aumentare ulteriormente il costo dei wubbi ( negli ultimi anni sono aumentati di 30-40 € solo per la storia dei led….). Di questo passo liquidare la vga diventa sempre meno conveniente per chi cambia scheda ad ogni generazione.
te piace vincere facile
in realtà non è così facile, i pcb potrebbero essere diversi (d'altrone parliamo di barbon edition) per cui non è facile trovare un waterblock adatto, anche perchè difficilmente ek watercool & co. spendono risorse per realizzare wb su quei pcb
e sinceramente se devo liquidare un pcb scarso...anche noDipende, in genere ho sentito diverse persone optare per delle manli a basso costo da mettere sotto liquido in passato, però si tutto dipende dalla struttura del PCB.
A me interessa poco preferisco una buona custom ad aria e fare sli é l'ultimo dei pensieri xD
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
mikael84
12-06-2020, 23:28
te piace vincere facile
in realtà non è così facile, i pcb potrebbero essere diversi (d'altrone parliamo di barbon edition) per cui non è facile trovare un waterblock adatto, anche perchè difficilmente ek watercool & co. spendono risorse per realizzare wb su quei pcb
e sinceramente se devo liquidare un pcb scarso...anche no
Con turing, almeno fascia 2080/2080ti tutte adottavano il reference della FE, la differenza la facevano i chip non A (come blower, o le classiche ventus e simili) che avevano meno TDP e clock più bassi. La FE di nvidia era chip A, ma sempre stesso PCB.
Qua bisogna vedere.:)
Ton90maz
13-06-2020, 00:27
Considerando quanto è penosa la grafica delle nuove console già chi ha una 2080 può campare tranquillamente fino ad hopper, immaginarsi comprare una 3080ti
Sì guarda, sarà proprio così... :rolleyes:
Con turing, almeno fascia 2080/2080ti tutte adottavano il reference della FE, la differenza la facevano i chip non A (come blower, o le classiche ventus e simili) che avevano meno TDP e clock più bassi. La FE di nvidia era chip A, ma sempre stesso PCB.
Qua bisogna vedere.:)
Tra l'altro spero che sparisca questa storia dei chip A e non A, onde evitare di doversi sparare pagine e pagine di specifiche per capire cosa comprare :asd:
(non che non lo faccia comunque per spulciare dati di RAM, VRM e dissipatore)
fraussantin
13-06-2020, 06:25
Tra l'altro spero che sparisca questa storia dei chip A e non A, onde evitare di doversi sparare pagine e pagine di specifiche per capire cosa comprare :asd:
(non che non lo faccia comunque per spulciare dati di RAM, VRM e dissipatore)Invece io sarei contento di avere un chip leggermente peggiore a prezzo decisamente piú basso.
mircocatta
13-06-2020, 08:21
Invece io sarei contento di avere un chip leggermente peggiore a prezzo decisamente piú basso.
non hai tutti i torti, tipo intel con i k e non k :O se uno tiene la vga a default tanto vale comprarsi il chip serie B :asd:
OrazioOC
13-06-2020, 08:22
Invece io sarei contento di avere un chip leggermente peggiore a prezzo decisamente piú basso.
Il problema è che anche le gpu che montano chip meno selezionati costano tanto. :asd:
IO!!! (anche se sono fan di Ross The Boss... )
comunque il computex è saltato.. secondo me a breve saranno presentate. vado a sensazione ovviamente ma la 1080 fu presentata un mesetto dopo le prime foto 'leak' :)
lo spero non da futuro acquirente ma da appassionato.
cioè in preda all isolamento da virus mi viene pure di idea di una nuova scheda per giocare quei titoli che oggi se alzo un filtro o set in generale vanno male.
Ma puntualmente vengo smentito.
Trattasi di incapacità o dimenticanza mia -l età incombe- ad interpretare nvpanel che andrebbe cucito gioco per gioco tramite exe.
Peggio ancora gestire le policy al meglio tra os e app.
Configurato il tutto la scheda inizia il suo show senza deludere.
fraussantin
13-06-2020, 08:49
Il problema è che anche le gpu che montano chip meno selezionati costano tanto. :asd:Si questo é vero , ma cmq 100 dollari meno.
Bisogna vedere se senza bin faranno tutto meno o tutto piú caro xD
OrazioOC
13-06-2020, 08:59
Si questo é vero , ma cmq 100 dollari meno.
Bisogna vedere se senza bin faranno tutto meno o tutto piú caro xD
Rispetto alla fe ci sono quei 100 dollari in meno, ma tra le custom con chip A e non A la differenza è poco marcata, anche perchè certe SKU tipo la 2080 super o TI non prevedono dei "binning" così importanti, essendo già di loro binnate per ottenere il meglio che il chip offrirebbe come frequenze.
fraussantin
13-06-2020, 09:16
Rispetto alla fe ci sono quei 100 dollari in meno, ma tra le custom con chip A e non A la differenza è poco marcata, anche perchè certe SKU tipo la 2080 super o TI non prevedono dei "binning" così importanti, essendo già di loro binnate per ottenere il meglio che il chip offrirebbe come frequenze.Le super non sapevo fossero binnate..
Cmq col tempo si é andata ad appianare la differenza é una normale leggendo mercato ma al lancio ci passava anche sulle OEM
Un po' come il 3700x e il suo bin 3800x al lancio ci correva 100 130 euro , poi la differenza é diventata meno marcata. Ora ci passa 30 euro e il 3700x ha smesso di avere senso peró al lancio ha fatto comodo.
Ecco quello che dovrebbero fare forse é chiamarle diverse mettendo un suffisso alla fine. ( X xt s quello che gli pare)
OrazioOC
13-06-2020, 09:23
Le super non sapevo fossero binnate..
Cmq col tempo si é andata ad appianare la differenza é una normale leggendo mercato ma al lancio ci passava anche sulle OEM
Un po' come il 3700x e il suo bin 3800x al lancio ci correva 100 130 euro , poi la differenza é diventata meno marcata. Ora ci passa 30 euro e il 3700x ha smesso di avere senso peró al lancio ha fatto comodo.
Ecco quello che dovrebbero fare forse é chiamarle diverse mettendo un suffisso alla fine. ( X xt s quello che gli pare)
Si perchè nel caso della 2080 super il chip è solamente tu104-450, o anche per la 2070 super, è tu104-410, non prevedono una variante con chip A.
Probabilmente il chip A è esistito perchè le rese dei primi esemplari erano semplicemente troppo basse per farli passare come chip che garantiscono lo stesso rendimento in fatto di frequenze.
mikael84
13-06-2020, 11:39
Tra l'altro spero che sparisca questa storia dei chip A e non A, onde evitare di doversi sparare pagine e pagine di specifiche per capire cosa comprare :asd:
(non che non lo faccia comunque per spulciare dati di RAM, VRM e dissipatore)
Senza considerare che le non A, come quelle della 2080ti non permettevano flash bios, se non ricordo male.:)
Ed era proprio in quella che il PL rognava.
Le super non sapevo fossero binnate..
Cmq col tempo si é andata ad appianare la differenza é una normale leggendo mercato ma al lancio ci passava anche sulle OEM
Le super partono da rese migliori, ad esempio la mia supera facilmente i 2100. Tanto che quel valore lo tengo in gaming dopo qualche taglio.
Anche le micron spingono forte, rispetto all'inizio. Alcune non erano proprio il top. Inoltre partono da TDP già esosi.
non hai tutti i torti, tipo intel con i k e non k :O se uno tiene la vga a default tanto vale comprarsi il chip serie B :asd:
Anche qua, c'è un fattore che non ho mai capito. il paragone dei chip k OC, con i chip come i ryzen. Se andiamo a vedere il liscio costa 100 euro in meno con grafica integrata. E lo dico da fiero possessore.
Speriamo che non arrivino a farlo anche con le GPU prima o poi, ovvero GPU senza OC, ed altre con possibilità di OC.
thunderforce83
13-06-2020, 12:11
Igor's LAB, una risorsa tedesca, ha commentato l'area GPU GA102. Secondo la fonte, l'area di questo chip supererà leggermente i 627 mm2. Si scopre che, rispetto all'A100, si otterrà una riduzione dell'area del chip del 24%. La famiglia NVIDIA Ampere avrà probabilmente anche GPU più compatte per i consumatori. In caso contrario, non potrebbero costituire la base per schede video per giochi nel segmento dei prezzi di massa.
se consideriamo che GA100 e' di ben 826mm beh mi sa che pure a sto giro la notizia che il nodo avrebbe aiutato a contenere i costi sul silicio la vedo abbastanza difficile:doh:
fraussantin
13-06-2020, 12:24
Senza considerare che le non A, come quelle della 2080ti non permettevano flash bios, se non ricordo male.:)
Ed era proprio in quella che il PL rognava.
Non mi sono mai informato non so dove abbiano messo il blocco , ma é ovvio il perché , altrimenti bastava flashare il BIOS delle bin e sarebbero diventate uguali o quasi ( magari andava aggiustato il voltaggio )
Le super partono da rese migliori, ad esempio la mia supera facilmente i 2100. Tanto che quel valore lo tengo in gaming dopo qualche taglio.
Anche le micron spingono forte, rispetto all'inizio. Alcune non erano proprio il top. Inoltre partono da TDP già esosi.
La mia 2070 non ci arriva si ferma un po' sotto , ma appunto il limite sono i 200w.
Averla avuta sbloccata sarebbe stato meglio ma alla fine non mi cambia nulla .. quanti 5 fps in piú ?
Anche qua, c'è un fattore che non ho mai capito. il paragone dei chip k OC, con i chip come i ryzen. Se andiamo a vedere il liscio costa 100 euro in meno con grafica integrata. E lo dico da fiero possessore.
Speriamo che non arrivino a farlo anche con le GPU prima o poi, ovvero GPU senza OC, ed altre con possibilità di OC.
Speriamo di no , Intel ha sempre giustificato la storia del k come una maggiorazione per recuperare i costi di rma delle CPU fritte , ma mi é sempre sembrata una scusa. Bastava limitare il pl come con le gpu.
Se i prezzi continueranno a salire in questo modo qualcosa per chi vuole spendere meno devono pur inventarsela.
Edit e a leggere sui gruppi fb quello che combina la gente fra montare e overclokkare capisco anche perchè tutto costi sempre più caro , visto che Amazon cambia tutto a spese dei fornitori.
TigerTank
13-06-2020, 13:16
Tra l'altro spero che sparisca questa storia dei chip A e non A, onde evitare di doversi sparare pagine e pagine di specifiche per capire cosa comprare :asd:
(non che non lo faccia comunque per spulciare dati di RAM, VRM e dissipatore)
No problem per quello, ci saranno i soliti mega database su techpowerup o sul forum di overclock.net :)
Con turing, almeno fascia 2080/2080ti tutte adottavano il reference della FE, la differenza la facevano i chip non A (come blower, o le classiche ventus e simili) che avevano meno TDP e clock più bassi. La FE di nvidia era chip A, ma sempre stesso PCB.
Qua bisogna vedere.:)
Io già a monte credo che opterò per una solita custom con dissipatore tosto e maggiorato. L'attuale Gainward maggiorata mi ha regalato molte soddisfazioni.
Visto che costeranno un botto...ormai mi risparmio la spesa del liquido. Spero che le Strix siano a portata, ne vorrei finalmente provare una, anche per integrazione alla config. che ho.
mikael84
13-06-2020, 14:51
Non mi sono mai informato non so dove abbiano messo il blocco , ma é ovvio il perché , altrimenti bastava flashare il BIOS delle bin e sarebbero diventate uguali o quasi ( magari andava aggiustato il voltaggio )
Infatti solo le TI, sono rimaste con i chip non A, le altre le hanno abolite.
Sinceramente preferisco questo metodo, almeno tu sai cosa compri, non come Maxwell gm200, che, sullo stesso chip, stesso prezzo, uno si poteva trovare un 80+ ed un altro un 60+ (700 euro mie 1400 in OC, 700 tue 1550/1600 in OC).:rolleyes:
La mia 2070 non ci arriva si ferma un po' sotto , ma appunto il limite sono i 200w.
Averla avuta sbloccata sarebbe stato meglio ma alla fine non mi cambia nulla .. quanti 5 fps in piú ?
200watt difficilmente gli tocco, nei giochi ubisoft, che non sfruttano bene gli shader, mediamente sto sui 150/160watt OC. Il PL attivo aumenta i consumi, se non serve, non va attivato. Solo via 3dmark ho superato i 200watt (ma 10 watt se li è presi la ram a +1000).
In parte dipende anche dal silicio e dalla sezione di alimentazione della GPU.
Speriamo di no , Intel ha sempre giustificato la storia del k come una maggiorazione per recuperare i costi di rma delle CPU fritte , ma mi é sempre sembrata una scusa. Bastava limitare il pl come con le gpu.
Se i prezzi continueranno a salire in questo modo qualcosa per chi vuole spendere meno devono pur inventarsela.
Edit e a leggere sui gruppi fb quello che combina la gente fra montare e overclokkare capisco anche perchè tutto costi sempre più caro , visto che Amazon cambia tutto a spese dei fornitori.
Ormai per i colpa dei giocatori professionisti di furmark, nvidia ha tagliato tutto, a livello di OC puoi fare davvero pochi danni.
Da Kepler GK110b, si sono inventati il codice binario chiuso sul VRM (0-0), e l'overvolt non è più fattibile (salvo il minimo permesso, che da più instabilità che altro).
Nonostante tutto c'è gente che riesce a fare danni.:sofico:
No problem per quello, ci saranno i soliti mega database su techpowerup o sul forum di overclock.net :)
Quello sarà il minimo, il problema sarà a monte (soldi).:sofico:
Io già a monte credo che opterò per una solita custom con dissipatore tosto e maggiorato. L'attuale Gainward maggiorata mi ha regalato molte soddisfazioni.
Visto che costeranno un botto...ormai mi risparmio la spesa del liquido. Spero che le Strix siano a portata, ne vorrei finalmente provare una, anche per integrazione alla config. che ho.
Le Asus sono ottime, hanno sempre permesso di monitorare pure il vrm.
Mi sembra anche giusto, rispetto al passato l'OC è meno utile nel daily use, in quanto prima i chip in molti casi venivano rilasciati con clock ridicoli sia cpu che gpu e con l'OC si avevano guadagni netti, ora i chip sono ben più tirati di fabbrica, e con l'OC riesci a spremere poco in più a meno di settaggi più aggressivi e considerata la moda del momento è meglio non lasciare troppe opzioni al caso con il rischio di molti rma.
Per le GPU però l'unica eccezione sono solo i chipponi, che essendo limitati a un TDP di 250W, per forza di cose devono ridurre i clock nonostante l'architettura possa spingere comunque di più.
Infatti se confermato non mi scandalizza neanche se i prossimi chipponi superano la barriera dei 300W alla fine in OC l'avremo superata comunque ma almeno hai il chip certificato e funzionante.
Le super partono da rese migliori, ad esempio la mia supera facilmente i 2100. Tanto che quel valore lo tengo in gaming dopo qualche taglio.
Anche le micron spingono forte, rispetto all'inizio. Alcune non erano proprio il top. Inoltre partono da TDP già esosi.
secondo te, una stima dei possibili reali clock sulla gpu da stock di quest nuove schede video si aggirerà sui 2100/2100+ indicativi permettendo un ulteriore margine di oc di un 100-150Mhz o è una visione troppo ottimista?
mikael84
13-06-2020, 17:29
Mi sembra anche giusto, rispetto al passato l'OC è meno utile nel daily use, in quanto prima i chip in molti casi venivano rilasciati con clock ridicoli sia cpu che gpu e con l'OC si avevano guadagni netti, ora i chip sono ben più tirati di fabbrica, e con l'OC riesci a spremere poco in più a meno di settaggi più aggressivi e considerata la moda del momento è meglio non lasciare troppe opzioni al caso con il rischio di molti rma.
Diciamo che nvidia ha sempre fatto un ottimo lavoro elettrico, i chip sono sempre usciti con il miglior sweet spot, ma il vero boost di prima era dato dall'overvolt.
Ad esempio, senza andare all'età della pietra, le 7970 che avevo, asic basso inchiodavano a 1075mhz ad 1,173v, ma in overvolt tranquillo, le tenevo a 1200/1225mhz.
Le 780, asic alto, a vdefault a 1189, overvolt 1280 e senza tagli in quanto potevi mettere bios mod.
Per le GPU però l'unica eccezione sono solo i chipponi, che essendo limitati a un TDP di 250W, per forza di cose devono ridurre i clock nonostante l'architettura possa spingere comunque di più.
Che poi, è un valore relativo, alla fine dipende dal PL consentito. A stock ci stanno solo sulle review. Già la FE di nvidia è data per 320PL.
E'un pò come la 1080ti che a 250w scende a 1650, quando con bios exoc ha superato i 2,2ghz.:sofico:
Infatti se confermato non mi scandalizza neanche se i prossimi chipponi superano la barriera dei 300W alla fine in OC l'avremo superata comunque ma almeno hai il chip certificato e funzionante.
Bisogna valutare 3 elementi:
- se è vero
- per la prima volta ci sono 7 GPC (45w a GPC mediamente. e 45 watt se li prendeva Pascal con la 1080).
-la 3080 usa il TDP stock della 3080ti, già visto sulla 2080super che ha per TDP lo stesso delle non A 2080ti.
secondo te, una stima dei possibili reali clock sulla gpu da stock di quest nuove schede video si aggirerà sui 2100/2100+ indicativi permettendo un ulteriore margine di oc di un 100-150Mhz o è una visione troppo ottimista?
I transistor permettono picchi del 30% circa, il chip potrebbe anche boostare (1/1,068v) a 2400 con crolli a 2200 in DL, però non è uno shrink, molto dipenderà da vari fattori, basti vedere la A100 che con il 160% di transistor boosta addirittura meno.
Ad esempio AMD con la VII ci ha preso un 30% max, toccando i 2,2 a liquido contro i 1680 circa, ma quello è uno shrink.
https://twitter.com/wccftechdotcom/status/1271852476270956544?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1271852476270956544&ref_url=https%3A%2F%2Fs9e.github.io%2Fiframe%2F2%2Ftwitter.min.html%231271852476270956544
Oramai il numero di rumors su questa scheda diventano sempre piu' fitti, tra poco sara' ufficiale non manche ra' nemmeno molto alla presentazione dell'architettura
OrazioOC
13-06-2020, 21:40
https://twitter.com/wccftechdotcom/status/1271852476270956544?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1271852476270956544&ref_url=https%3A%2F%2Fs9e.github.io%2Fiframe%2F2%2Ftwitter.min.html%231271852476270956544
Oramai il numero di rumors su questa scheda diventano sempre piu' fitti, tra poco sara' ufficiale non manche ra' nemmeno molto alla presentazione dell'architettura
Tdp troppo eccessivi per una gpu desktop, anche se è una high end non è giustificabile.:rolleyes:
ma perche' quanti possessori di 2080Ti si sono flashati bios con TDP maggiorati?
mircocatta
13-06-2020, 22:27
ma perche' quanti possessori di 2080Ti si sono flashati bios con TDP maggiorati?
si ma non è che tutti hanno cercato di ottenere sempre il 110% delle performance overcloccando la scheda, se di base sono a 350watt di TGP, mi sembra altino, anche se credo improbabile
Il tdp della rtx titan di quanto è?
mikael84
13-06-2020, 23:37
ma perche' quanti possessori di 2080Ti si sono flashati bios con TDP maggiorati?
Tanti.
Il tdp della rtx titan di quanto è?
280;)
Tanti.
280;)
Beh se una Titan RTX ha solo 280 di TDP questa 390 sembra fuori scala, addirittura se e' a 7nm e con l'efficienza nVidia, garantirebbe un salto mostruoso (beh se deve far girare qualla demo di marble in real time a frame rate decenti dovra' pur esserlo)
fraussantin
14-06-2020, 06:47
https://twitter.com/wccftechdotcom/status/1271852476270956544?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1271852476270956544&ref_url=https%3A%2F%2Fs9e.github.io%2Fiframe%2F2%2Ftwitter.min.html%231271852476270956544
Oramai il numero di rumors su questa scheda diventano sempre piu' fitti, tra poco sara' ufficiale non manche ra' nemmeno molto alla presentazione dell'architetturaFinché continuano a mettere quella foto fake sono poco credibili
Certo i fake non aiutano, ma oramai si rumoreggia troppo per non essere vero
OrazioOC
14-06-2020, 08:20
ma perche' quanti possessori di 2080Ti si sono flashati bios con TDP maggiorati?
Non è una giustificazione per aumentare dal nulla di 100w il tdp della top di gamma, perfino la vecchia gtx 480 aveva un tdp dichiarato di 250w.:rolleyes:
Giovamas
14-06-2020, 08:50
No problem per quello, ci saranno i soliti mega database su techpowerup o sul forum di overclock.net :)
Io già a monte credo che opterò per una solita custom con dissipatore tosto e maggiorato. L'attuale Gainward maggiorata mi ha regalato molte soddisfazioni.
Visto che costeranno un botto...ormai mi risparmio la spesa del liquido. Spero che le Strix siano a portata, ne vorrei finalmente provare una, anche per integrazione alla config. che ho.
ti seguirò a ruota Tiger. custom vediamo quale o strix o gaming x comunque. 3080 o 3080ti.. anche questo vedremo. tra l'altro devo anche cambiare ali il mio ax850 classe 2011 è stanco :) forse prendo quello che hai in sign o il gx.
OT e mi scuso.. ma https://www.youtube.com/watch?v=-YsT9eQ_CO4 ecco il gioco perfetto per 3080!
Thunder-74
14-06-2020, 09:11
Beh se una Titan RTX ha solo 280 di TDP questa 390 sembra fuori scala, addirittura se e' a 7nm e con l'efficienza nVidia, garantirebbe un salto mostruoso (beh se deve far girare qualla demo di marble in real time a frame rate decenti dovra' pur esserlo)
NVidia Marble girava su una Quadro 8000 Turing , non molto dissimile da una 2080ti in prestazioni gaming
4608 cuda con 48gb...
Inviato dal mio iPhone X utilizzando Tapatalk
non ci credo che le nuove saranno 100+ di consumi.
250 è il target a meno di grossi guai elettrici.
75+75+150+150 per l amperaggio delle 17 fasi di una vecchia custom, ma erano altri tempi soprattutto i mitici 28
fraussantin
14-06-2020, 09:41
Certo i fake non aiutano, ma oramai si rumoreggia troppo per non essere vero
quel sito ormai non lo considero più, sono al pari di adoredtv.
potrebbe anche essere la verità assoluta ma non hanno più credibilità.
magari avremo veramente la 3090 al posto della 2080ti e secondo me ha anche senso come nomenclatura e crea meno confusione tra i meno esperti, ma con 24 giga di ram non ha senso se ne mettono 10 sulla 2080, quella al massimo è o una titan o una quadro , ma più probabilmente come hanno fotoshoppato quella 3090 si sono inventati anche il resto.
OrazioOC
14-06-2020, 10:10
https://videocardz.com/newz/nvidia-geforce-rtx-30-series-to-enter-mass-production-in-august
Giovamas
14-06-2020, 10:29
https://www.igorslab.de/nvidias-moeglicher-fahrplan-bis-zum-launch-der-geforce-rtx-3090-und-3080-arbeitsbezeichnung-neuer-kuehler-in-mehreren-varianten-im-test/
secondo me una 3090 esiste e avremo una situazione del tipo
3090 con 24GB di RAM
3080Ti con 16GB
3080 con 12GB
Non è una giustificazione per aumentare dal nulla di 100w il tdp della top di gamma, perfino la vecchia gtx 480 aveva un tdp dichiarato di 250w.:rolleyes:
Invece è un ottima notizia, significa che sono andati oltre il classico salto di performance quindi potremo aspettarci un salto di performance più marcato delle precedenti generazioni.
Se vuoi un chip inferiore per consumi prendi il chip inferiore...
secondo me una 3090 esiste e avremo una situazione del tipo
3090 con 24GB di RAM
3080Ti con 16GB
3080 con 12GB
Come la fai una 3080ti con 16GB di VRAM? Fisicamente o strozzi il bus a 256bit con doppia densità o lo estendi a 512bit...
Idem per 3080 dove per avere 12GB devi estendere il bus a 384bit....
I tagli di vram sono fissi, la 3080 sembra accertata con un bus a 320bit quindi max 10GB di vram o 20Gb per la doppia densità.
La 3080ti sappiamo poco ma di sicuro o avrà un bus a 352bit quindi 11GB di vram o 22Gb doppia densità o un bus pieno come la 3090 a 384bit quindi 12GB complessivi o 24 doppia densità.
OrazioOC
14-06-2020, 10:53
Invece è un ottima notizia, significa che sono andati oltre il classico performance/watt quindi potremo aspettarci un salto di performance più marcato delle precedenti generazioni.
Se vuoi un chip inferiore per consumi prendi il chip inferiore...
Nulla vieta pensandola in questo modo che aumentino anche i tdp nelle fasce inferiori.:rolleyes:
Nulla vieta pensandola in questo modo che aumentino anche i tdp nelle fasce inferiori.:rolleyes:
Se migliora il performance/watt hai anche un miglioramento delle prestazioni per ogni fascia...
OrazioOC
14-06-2020, 11:05
Se migliora il performance/watt hai anche un miglioramento delle prestazioni per ogni fascia...
Se il miglioramento fosse stato consistente, non avrebbero aumentato di 100w il tdp della top.:rolleyes:
Se il miglioramento fosse stato consistente, non avrebbero aumentato di 100w il tdp della top.:rolleyes:
Non direi già i precedenti chipponi in OC superavano senza batter ciglio i 300w.
La 980ti in firma a 1525/8200 arriva a 320-330w.
Semplicemente a questo giro c'è da aspettarsi meno strozzature sui clock dei chipponi e una maggior densità hardware.
Con turing si sono verificate troppe ambiguità e infatti la stessa 2080ti per via delle limitazioni elettriche non è che di distanziava cosi tanto da una 2080 Super come performance pure...
OrazioOC
14-06-2020, 11:15
Non direi già i precedenti chipponi in OC superavano senza batter ciglio i 300w.
La 980ti in firma a 1525/8200 arriva a 320-330w.
Semplicemente a questo giro c'è da aspettarsi meno strozzature sui clock dei chipponi e una maggior densità hardware.
Con turing si sono verificate troppe ambiguità e infatti la stessa 2080ti per via delle limitazioni elettriche non è che di distanziava cosi tanto da una 2080 Super come performance pure...
Si ma, non facciamo passare gli overclock come consumi a stock, 350w per una gpu singola sono oggettivamente tanti.
fireradeon
14-06-2020, 11:17
Non oso immaginare il prezzo della 3090. :rolleyes:
Si ma, non facciamo passare gli overclock come consumi a stock, 350w per una gpu singola sono oggettivamente tanti.
A stock la mia 980ti sta a 1430/7200mhz essendo un chip selezionato di fabbrica rispetto ai 1100-1200mhz delle reference e comunque supera i 250w...
Quindi mi sembra normalissimo che se vogliono staccare per bene le performance considerando che anche la 3080 si baserà sullo stesso chip della 3090 per forza di cose di cose devi avere dei boost clock max più alti.
E sui chipponi basta poco per alzare il tdp data la grossa densità di unità HW presenti...
Ricreare l'ambiguità vista con 2080 e 2080ti ha poco senso... Se poi non ti piace ti prendi la 3080 che alla fine già con 2080 avevamo visto il tdp da 215w
mikael84
14-06-2020, 11:35
Nulla vieta pensandola in questo modo che aumentino anche i tdp nelle fasce inferiori.:rolleyes:
Ricorda che per la prima volta abbiamo 7 motori raster.
320 watt su 7 GPC, fanno circa 45w a raster, che è lo stesso valore di una 1080 per dire.
4x45 180watt.
Salvo i chip non A, già turing ha PL ben superiori ai 300watt, con ampere, se fosse confermato 320w, oltre i 375w non vai(2x8pin).
Nelle fasce inferiori, lo stesso il GA104 avrà 6 raster.
Si ma, non facciamo passare gli overclock come consumi a stock, 350w per una gpu singola sono oggettivamente tanti.
350 nella 24gb, anche la titan rtx ha 30w di tdp in più, e le quadro quasi 300.
Con la 2080ti si arriva a 50w di ram stock.
OrazioOC
14-06-2020, 11:39
A stock la mia 980ti sta a 1430/7200mhz essendo un chip selezionato di fabbrica rispetto ai 1100-1200mhz delle reference e comunque supera i 250w...
Quindi mi sembra normalissimo che se vogliono staccare per bene le performance considerando che anche la 3080 si baserà sullo stesso chip della 3090 per forza di cose di cose devi avere dei boost clock max più alti.
E sui chipponi basta poco per alzare il tdp data la grossa densità di unità HW presenti...
Ricreare l'ambiguità vista con 2080 e 2080ti ha poco senso... Se poi non ti piace ti prendi la 3080 che alla fine già con 2080 avevamo visto il tdp da 215w
Non penso ci siano troppi problemi nel differenziare le gpu con tdp simili, non era un era un problema prima, perchè dovrebbe esserlo ora?Anche perchè la 3080 vociferata è uno scarto dello scarto dello scarto di GA102.
O che amd abbia qualcosa di veramente forte, oppure il silicio di queste schede porta dei miglioramenti troppo marginali(e nel caso degli 8nm samsung può essere), comunque vedremo.
TigerTank
14-06-2020, 11:44
ti seguirò a ruota Tiger. custom vediamo quale o strix o gaming x comunque. 3080 o 3080ti.. anche questo vedremo. tra l'altro devo anche cambiare ali il mio ax850 classe 2011 è stanco :) forse prendo quello che hai in sign o il gx.
OT e mi scuso.. ma https://www.youtube.com/watch?v=-YsT9eQ_CO4 ecco il gioco perfetto per 3080!
Valuteremo tutti insieme quando sarà il momento :cool:
Ehhhh BG3 dipende, io sono cresciuto con i primi 2. Del primo ho ancora la rara edizione cartonata che trovai con sorpresa sullo scaffale di un negozietto di elettronica ormai 20 anni fà :D
Se il 3 sarà "snaturato" dando troppo rilievo al graficone, non mi piacerà :D
In che periodo orientativamente saranno rilasciate??
fraussantin
14-06-2020, 12:17
In che periodo orientativamente saranno rilasciate??Settembre ottobre
Settembre ottobre
Insieme ai nuovi Ryzen :D
mikael84
14-06-2020, 12:22
In che periodo orientativamente saranno rilasciate??
Agosto bios, settembre debutto.
Giovamas
14-06-2020, 12:27
Valuteremo tutti insieme quando sarà il momento :cool:
Ehhhh BG3 dipende, io sono cresciuto con i primi 2. Del primo ho ancora la rara edizione cartonata che trovai con sorpresa sullo scaffale di un negozietto di elettronica ormai 20 anni fà :D
Se il 3 sarà "snaturato" dando troppo rilievo al graficone, non mi piacerà :D
idem.. io ho ancora il manuale con le opionioni di Volo sui nemici. e la scatola in bella mostra. ci sono i Larian di mezzo quindi i contenuti ed il lore per prima cosa:) cmq agosto non è lontano prevedo il mercatino pieno di 2080 :cool:
amon.akira
14-06-2020, 13:01
Se migliora il performance/watt hai anche un miglioramento delle prestazioni per ogni fascia...
si ma la 2080ti ha un tdp di 260watt, ma nonostante l undervolt la mia usa sempre 325watt, partire da 320watt significherebbe avere prestazioni solo sulla carta e non ottenibili in normali condizioni, tranne per i custom loop forse.
esempio casuale
+50% sulla carta, ma +30% realmente ottenibile
si ma la 2080ti ha un tdp di 260watt, ma nonostante l undervolt la mia usa sempre 325watt, partire da 320watt significherebbe avere prestazioni solo sulla carta e non ottenibili in normali condizioni, tranne per i custom loop forse.
esempio casuale
+50% sulla carta, ma +30% realmente ottenibile
Se i prossimi chip avranno un TDP dichiarato e certificato di 300-350w automaticamente anche il BIOS sarà decisamente meno conservativo sul PL quindi i chip avranno meno limitazioni elettriche e le performance dipenderanno solo dal sistema di dissipazione che per forza di cose dovrà essere di alto livello per rispettare almeno i requisiti minimi di dissipazione.
La 2080ti è un chip squilibratissimo e spero che non si ripresenti la stessa condizione.
Poi il TDP è una fusione di diversi parametri non è un sinonimo di consumi anche se di norma un tdp più alto ne consegue anche un maggior consumo a pari architettura, quindi per avere un quadro concreto bisogna attendere le review.
AceGranger
14-06-2020, 13:12
Non penso ci siano troppi problemi nel differenziare le gpu con tdp simili, non era un era un problema prima, perchè dovrebbe esserlo ora?Anche perchè la 3080 vociferata è uno scarto dello scarto dello scarto di GA102.
O che amd abbia qualcosa di veramente forte, oppure il silicio di queste schede porta dei miglioramenti troppo marginali(e nel caso degli 8nm samsung può essere), comunque vedremo.
potrebbe anche essere una scelta semplicemente dettata dalle stime delle rese produttive; economicamente gli conviene riutilizzare piu GA102 piuttosto che fare un GA103; anche perchè, a quanto pare, non hanno scalato i chip passando il GA103 alla 3070, ma lo hanno eliminato in toto.
per la questione TDP, la fascia alta non è piu solo gaming oriented, ve ne dovete fare una ragione; l'aumento segue l'aumento di TDP della fascia HEDT CPU, e imho non torneranno piu i prezzi "bassi" di prima, perchè mirano a venderle comunque in altri ambienti.
amon.akira
14-06-2020, 13:20
Se i prossimi chip avranno un TDP dichiarato e certificato di 300-350w automaticamente anche il BIOS sarà decisamente meno conservativo sul PL quindi i chip avranno meno limitazioni elettriche e le performance dipenderanno solo dal sistema di dissipazione che per forza di cose dovrà essere di alto livello per rispettare almeno i requisiti minimi di dissipazione.
La 2080ti è un chip squilibratissimo e spero che non si ripresenti la stessa condizione.
Poi il TDP è una fusione di diversi parametri non è un sinonimo di consumi anche se di norma un tdp più alto ne consegue anche un maggior consumo a pari architettura, quindi per avere un quadro concreto bisogna attendere le review.
si ma nelle review poi non mi confrontare con una 2080ti che superati i 260w inizia a tagliare il clock. mi dirai... be come alzi la 2080ti da 260w a 350w (+90w) puoi alzare anche la 3080ti da 320w a 410w...ma poi come la raffreddo? XD
si ma nelle review poi non mi confrontare con una 2080ti che superati i 260w inizia a tagliare il clock. mi dirai... be come alzi la 2080ti da 260w a 350w (+90w) puoi alzare anche la 3080ti da 320w a 410w...ma poi come la raffreddo? XD
Dipende se il taglio si presenta per limiti del pl o per le temperature, nel primo caso non fai nulla e puoi solo attaccarti dato che i bios sono locked e avere con i prossimi chip GPU con meno limitazioni non può che essere positivo, nel secondo caso è questione di dissipazione e chi resta ad aria fa bene a guardare custom di alto livello con dissipatori anche mastodontici a 2.5 slot e credo che in questa gen date le specifiche (non ancora ufficiali) se ne vedranno molte, mentre per chi liquida il problema è inesistente...
Comunque i rumors parlano TBP e non di TDP, c'è una leggera differenza o sbaglio?
mircocatta
14-06-2020, 14:06
Comunque i rumors parlano TBP e non di TDP, c'è una leggera differenza o sbaglio?
si, che il tdp è più "vago" mentre il TGP no :asd:
il tdp è il thermal design power, cioè il potere dissipante del dissipatore che è montato, il TGP è il Total Graphics Power
si, che il tdp è più "vago" mentre il TGP no :asd:
il tdp è il thermal design power, cioè il potere dissipante del dissipatore che è montato, il TGP è il Total Graphics Power
TDP : Potenza di progettazione termica (o Punto di progettazione termica o Parametro di progettazione termica)
TGP : potenza grafica totale
TBP : potenza totale della scheda (o potenza tipica della scheda, utilizzata da AMD)
GCP : alimentazione della scheda grafica
MPC : massimo consumo di energia
https://www.geeks3d.com/20190613/graphics-cards-power-tdp-tgp/
amon.akira
14-06-2020, 14:16
Dipende se il taglio si presenta per limiti del pl o per le temperature, nel primo caso non fai nulla e puoi solo attaccarti dato che i bios sono locked e avere con i prossimi chip GPU con meno limitazioni non può che essere positivo, nel secondo caso è questione di dissipazione e chi resta ad aria fa bene a guardare custom di alto livello con dissipatori anche mastodontici a 2.5 slot e credo che in questa gen date le specifiche (non ancora ufficiali) se ne vedranno molte, mentre per chi liquida il problema è inesistente...
x curiosità ho provato 100% pl 260w sempre a 0.925 e ho visto tagli fino a 1710mhz, quindi si possono perdere fino a 200mhz quasi, nonostante l undervolt...incidenza sul punteggio grafico -6% nel timespy.
fraussantin
14-06-2020, 14:55
TDP : Potenza di progettazione termica (o Punto di progettazione termica o Parametro di progettazione termica)
TGP : potenza grafica totale
TBP : potenza totale della scheda (o potenza tipica della scheda, utilizzata da AMD)
GCP : alimentazione della scheda grafica
MPC : massimo consumo di energia
https://www.geeks3d.com/20190613/graphics-cards-power-tdp-tgp/Cmq il tdp dichiarato in passato era alla fine il tgp quindi cambia poco sempre 350 w sono.
Che se veramente hanno 24 moduli da 1 giga di gddr6X a sandwich ci sta anche .. ma rimango sempre perplesso.
Quel quantitativo di RAM é esagerato per una gaming , peró potrebbe andare bene su una titan o una quadro che vanno su altri usi
Bisogna vedere la 3070\3060 sul chip 106 quanto consumerà. Secondo me saremo sempre attorno ai 200w.
Andy1111
14-06-2020, 15:02
Cmq il tdp dichiarato in passato era alla fine il tgp quindi cambia poco sempre 350 w sono.
Che se veramente hanno 24 moduli da 1 giga di gddr6X a sandwich ci sta anche .. ma rimango sempre perplesso.
Quel quantitativo di RAM é esagerato per una gaming , peró potrebbe andare bene su una titan o una quadro che vanno su altri usi
Bisogna vedere la 3070\3060 sul chip 106 quanto consumerà. Secondo me saremo sempre attorno ai 200w.
Sarà da vedere se usano i 7 o gli 8 di samsung per quel chip
Jeetkundo
14-06-2020, 15:08
Cosa ne pensate di questo rumor? Sembra molto interessante come idea. Si, lo so che questo sito è il mago del clic bait ma almeno hanno scritto "rumor" :D
NVIDIA Planning To Introduce A Traversal Coprocessor With The RTX 3090 GPU
https://wccftech.com/nvidia-traversal-coprocessor-rtx-3090-gpu/
Inviato dal mio LYA-L09 utilizzando Tapatalk
fraussantin
14-06-2020, 15:15
Sarà da vedere se usano i 7 o gli 8 di samsung per quel chipAncora non ho capito se usano l'8 anche per i chipponi.
Poi é solo per curiosità , io lo salto cmq questo giro.
mikael84
14-06-2020, 15:16
si ma la 2080ti ha un tdp di 260watt, ma nonostante l undervolt la mia usa sempre 325watt, partire da 320watt significherebbe avere prestazioni solo sulla carta e non ottenibili in normali condizioni, tranne per i custom loop forse.
esempio casuale
+50% sulla carta, ma +30% realmente ottenibile
Tu minimo hai un 62+ di Asic, questo influenza notevolmente le tensioni.
Quanto sei riuscito a tirarla alla massima tensione?
Cmq il tdp dichiarato in passato era alla fine il tgp quindi cambia poco sempre 350 w sono.
Che se veramente hanno 24 moduli da 1 giga di gddr6X a sandwich ci sta anche .. ma rimango sempre perplesso.
Quel quantitativo di RAM é esagerato per una gaming , peró potrebbe andare bene su una titan o una quadro che vanno su altri usi
Bisogna vedere la 3070\3060 sul chip 106 quanto consumerà. Secondo me saremo sempre attorno ai 200w.
La modalità conchiglia con le ddr6, la usi per 48gb. Per 24 gb si usa la doppia densità, 1 chip 2gb.:)
fraussantin
14-06-2020, 15:18
La modalità conchiglia con le ddr6, la usi per 48gb. Per 24 gb si usa la doppia densità, 1 chip 2gb.:)
Si mi riferivo a quel leak fantasioso sui tdp ..
Cita proprio 24 moduli da 2.5w , e ho pensato al fatto che le gdrr6 X non ci siano a doppia densitá.
Fino a ieri manco sapevo che esistessero le versioni X
mikael84
14-06-2020, 15:27
Si mi riferivo a quel leak fantasioso sui tdp ..
Cita proprio 24 moduli da 2.5w , e ho pensato al fatto che le gdrr6 X non ci siano a doppia densitá.
Fino a ieri manco sapevo che esistessero le versioni X
Forse si sarà sbagliato, voleva scrivere 24gb (che poi, è da chiarire, le 2080ti da 11gb arrivano a 50watt, le lisce con 8gb a 30/35w).
Le ddr6x, mai sentite nominare, so solo che samsung ha da tempo le 16gb/s, e Micron ha da poco ottenuto la certificazione a 16gb/s (forse un mesetto).
Quindi questi 21gb/s gddr6x non so da dove derivino.
Il lavoro delle ddr5x/6 a momenti lo trasmettevano i vari tg.:p
Se si arriva a 18 è tanta roba.
amon.akira
14-06-2020, 15:34
Tu minimo hai un 62+ di Asic, questo influenza notevolmente le tensioni.
Quanto sei riuscito a tirarla alla massima tensione?
be andare oltre i 330w ad aria nn aveva senso per me, quindi nn ho provato neanche il bios della matrix per dire...il massimo a cui l ho tenuta è 2010mhz a 950mv ma tagliava ancora leggermente...cmq tiene a +120 sul clock base
fraussantin
14-06-2020, 15:44
Forse si sarà sbagliato, voleva scrivere 24gb (che poi, è da chiarire, le 2080ti da 11gb arrivano a 50watt, le lisce con 8gb a 30/35w).
Le ddr6x, mai sentite nominare, so solo che samsung ha da tempo le 16gb/s, e Micron ha da poco ottenuto la certificazione a 16gb/s (forse un mesetto).
Quindi questi 21gb/s gddr6x non so da dove derivino.
Il lavoro delle ddr5x/6 a momenti lo trasmettevano i vari tg.:p
Se si arriva a 18 è tanta roba.
Mi sa tutto di Grand fake..
https://uploads.tapatalk-cdn.com/20200614/8d6d597c0227b17e0b80c7cc4557792b.jpg
OrazioOC
14-06-2020, 15:56
potrebbe anche essere una scelta semplicemente dettata dalle stime delle rese produttive; economicamente gli conviene riutilizzare piu GA102 piuttosto che fare un GA103; anche perchè, a quanto pare, non hanno scalato i chip passando il GA103 alla 3070, ma lo hanno eliminato in toto.
per la questione TDP, la fascia alta non è piu solo gaming oriented, ve ne dovete fare una ragione; l'aumento segue l'aumento di TDP della fascia HEDT CPU, e imho non torneranno piu i prezzi "bassi" di prima, perchè mirano a venderle comunque in altri ambienti.
Scusa però, ma non è che si possono dare la zappa sui piedi con chip così pompati, perchè dopo rischi di rubare i clienti delle quadro, il confine tra scheda consumer e professional si è assottigliato parecchio se quelle specifiche fossero confermate.
mikael84
14-06-2020, 15:59
be andare oltre i 330w ad aria nn aveva senso per me, quindi nn ho provato neanche il bios della matrix per dire...il massimo a cui l ho tenuta è 2010mhz a 950mv ma tagliava ancora leggermente...cmq tiene a +120 sul clock base
Quanto ti boosta base? Un silicio mid 1950. Cmq avevamo già provato con scorpion ed aveva molti meno watt. Certo ogni silicio risponde in maniera differente o molto differente, di questo bisogna tenerne conto.
Mi sa tutto di Grand fake..
Entro il mese prossimo sapremmo sicuramente qualcosa in più, considerando che dovrebbero essere pronti i primi sample.
amon.akira
14-06-2020, 16:23
Quanto ti boosta base? Un silicio mid 1950. Cmq avevamo già provato con scorpion ed aveva molti meno watt. Certo ogni silicio risponde in maniera differente o molto differente, di questo bisogna tenerne conto.
1995mhz
Thunder-74
14-06-2020, 16:26
Leggendo tutti questi leak , mi sa che se si confermano, qualcuno dovrà rivedere il proprio ALI e in molti potrebbero fare un pensiero serio al custom loop ....
Inviato dal mio iPhone X utilizzando Tapatalk
AceGranger
14-06-2020, 16:53
Scusa però, ma non è che si possono dare la zappa sui piedi con chip così pompati, perchè dopo rischi di rubare i clienti delle quadro, il confine tra scheda consumer e professional si è assottigliato parecchio se quelle specifiche fossero confermate.
il confine si è gia assottigliato, il salto è avvenuto con questa gen, Ampere non sara differente da Turing.
Chi necessitera delle QUADRO ( driver o casi particolari) continuera ad acquistarle ( dove comunque la Quadro TOP è salita di prezzo ); nVidia sta puntando a spostare il mercato computing ( inteso come computing grafico ) dalle CPU alle GPU; non se la sono tirata con Turing e non se la tireranno con Ampere.
la 3090 non credo che si scostera dal prezzo attuale della Titan RTX.
Leggendo tutti questi leak , mi sa che se si confermano, qualcuno dovrà rivedere il proprio ALI e in molti potrebbero fare un pensiero serio al custom loop ....
Inviato dal mio iPhone X utilizzando Tapatalk
Finchè rimani a GPU singola un classico 650-750w di qualità sarà sufficiente...
Poi ovvio che dipende dal sistema, se hai un TR4 o un HEDT intel spinto ovviamente è bene bilanciare tutto.
Semmai, viste le specifiche è probabile che ci saranno versioni a 2.5 slot con dissipatori molto grossi e molti case potrebbero non essere adattissimi oppure anche nel caso di alcune mobo che hanno SSD nvme proprio sotto lo slot principale della GPU.
TigerTank
14-06-2020, 18:46
Agosto bios, settembre debutto.
Il quale vorrà dire che lasciandole maturare un pò ed assicurandosi che non si ripeta la storia delle vga "morenti", probabilmente me ne regalerò una tra dicembre e febbraio :D
Sempre a seconda di prezzi, modelli, disponibilità e andazzo pandemìa/economia.
Giovamas
14-06-2020, 20:49
Agosto bios, settembre debutto.
e boom di 2080 (ti) nel mercatino conseguente.. io ad ottobre procedo così come feci per la 2080 ottobre 2018 appunto
e boom di 2080 (ti) nel mercatino conseguente.. io ad ottobre procedo così come feci per la 2080 ottobre 2018 appunto
Di solito c'è chi vende prima del debutto per ovvie ragioni :fagiano:
Giovamas
14-06-2020, 21:45
Di solito c'è chi vende prima del debutto per ovvie ragioni :fagiano:
logico :)
TigerTank
14-06-2020, 22:16
Ahahah eh ma la gente non è così ingenua, a questo giro sanno che è meglio aspettare le sovrapposizioni delle nuove per non dover spendere troppo nell'usato delle turing, specialmente per le Ti :D
razor820
14-06-2020, 22:29
Comunque penso che vendere adesso una 2080-2080ti non ha tanto senso. Almeno secondo me... Da qui a ottobre inoltrato, sempre che vada bene, che si fa? Si gioca a Pac-Man 256?
TigerTank
14-06-2020, 22:36
Comunque penso che vendere adesso una 2080-2080ti non ha tanto senso. Almeno secondo me... Da qui a ottobre inoltrato, sempre che vada bene, che si fa? Si gioca a Pac-Man 256?
C?è chi è disposto anche a fare tali sacrifici! :D
fireradeon
14-06-2020, 23:04
Leggendo tutti questi leak , mi sa che se si confermano, qualcuno dovrà rivedere il proprio ALI e in molti potrebbero fare un pensiero serio al custom loop ....
Inviato dal mio iPhone X utilizzando Tapatalk
Se non basta il mio 1000w se la possono tenere stretta.
Comunque penso che vendere adesso una 2080-2080ti non ha tanto senso. Almeno secondo me... Da qui a ottobre inoltrato, sempre che vada bene, che si fa? Si gioca a Pac-Man 256?
Non faccio nomi, ma ho visto gente aspettare 1 anno :ciapet:
fireradeon
14-06-2020, 23:14
Non faccio nomi, ma ho visto gente aspettare 1 anno :ciapet:
Ah se la devi vendere senza svenderla allora il momento è questo (giugno, massimo luglio).
mikael84
14-06-2020, 23:29
per la questione TDP, la fascia alta non è piu solo gaming oriented, ve ne dovete fare una ragione; l'aumento segue l'aumento di TDP della fascia HEDT CPU, e imho non torneranno piu i prezzi "bassi" di prima, perchè mirano a venderle comunque in altri ambienti.
Purtroppo è bene che lo capiscano un pò tutti, poi ognuno valuta se gli conviene.:)
1995mhz
Allora è proprio l'opposto :p . La tua tensione è molto alta di base, e meriterebbe un bios serio.
Un mid chip da 1,068, ha come reale tensione 1,03v.
Le vecchie AMD permettevano di vedere l'attenuazione (le nuove non le conosco), sarebbe stato interessante.:)
Leggendo tutti questi leak , mi sa che se si confermano, qualcuno dovrà rivedere il proprio ALI e in molti potrebbero fare un pensiero serio al custom loop ....
Inviato dal mio iPhone X utilizzando Tapatalk
Per chi è fermo alle 2080/s, conviene, sopratutto per ALI molto vecchi.
In ogni caso gli appassionati non avranno problemi.
Certo ci sarà sempre quello che abbinerà la 3080ti all'ali da 550watt.:p
Il quale vorrà dire che lasciandole maturare un pò ed assicurandosi che non si ripeta la storia delle vga "morenti", probabilmente me ne regalerò una tra dicembre e febbraio :D
Sempre a seconda di prezzi, modelli, disponibilità e andazzo pandemìa/economia.
Io, sinceramente ho visto come best buy il GA104 (almeno a livello di chip).
Una 2080 super, bella pompata, tra clock superiore, IPC, RT, tanta roba. Un 20% dovrebbe prenderlo, e ti fai una TI con maggior RT.
Mi preoccupa però che GA104, non prenda il posto di TU104 a 699$:sofico:
Vediamo anche la risposta di AMD, a sto giro dovrebbe coprire anche la fascia alta.
e boom di 2080 (ti) nel mercatino conseguente.. io ad ottobre procedo così come feci per la 2080 ottobre 2018 appunto
Ci sta, però vediamo prima come vanno, pro e contro, bios, PL,etc.:)
Non conviene buttarsi al d1:)
Se non basta il mio 1000w se la possono tenere stretta.
Vai tranquillo, non metterti problemi :)
Comunque penso che vendere adesso una 2080-2080ti non ha tanto senso. Almeno secondo me... Da qui a ottobre inoltrato, sempre che vada bene, che si fa? Si gioca a Pac-Man 256?C'è chi ha Oculus Quest o una console e tira botta per qualche mese 😂
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
fraussantin
15-06-2020, 07:08
C'è chi ha Oculus Quest o una console e tira botta per qualche mese 😂
Inviato dal mio Redmi Note 4 utilizzando TapatalkSì ma anche farsi un PC da 3000 euro per giocare 3 mesi su console ...
Se tutto fila liscio poi .. metti ritardano.
Giovamas
15-06-2020, 07:12
Ah se la devi vendere senza svenderla allora il momento è questo (giugno, massimo luglio).
io avrei già il 'cliente'. e penso di venderla a luglio anche perchè mi sa che il deprezzamento della Ti sarà maggiore del solito. poi c'è agosto e spero che BG3 esca assieme alla 3080 :)
Sì ma anche farsi un PC da 3000 euro per giocare 3 mesi su console ...
Se tutto fila liscio poi .. metti ritardano.Dipende, le esclusive sei obbligato a giocarle su queste e alcune sono più che meritevoli.
Il Quest invece avendo un soc integrato ci sono alcuni giochi in VR decisamente divertenti da giocare anche senza necessità di attaccarlo al PC.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Legolas84
15-06-2020, 08:48
io avrei già il 'cliente'. e penso di venderla a luglio anche perchè mi sa che il deprezzamento della Ti sarà maggiore del solito. poi c'è agosto e spero che BG3 esca assieme alla 3080 :)
Anche io sto aspettando BG3.... punto a maxarlo in 3440x1440. Spero basti un i7 5930K e una 1080Ti.... che nel caso comprerei usata a "spero"poco....
Predator_1982
15-06-2020, 09:01
Comunque penso che vendere adesso una 2080-2080ti non ha tanto senso. Almeno secondo me... Da qui a ottobre inoltrato, sempre che vada bene, che si fa? Si gioca a Pac-Man 256?
quoto, francamente ormai preferisco attendere almeno un mesetto buono dopo l'uscita ufficiale per far spuntare a galla eventuali problemi grossolani.
Poi contestualmente acquisto la nuova e vendo la vecchia...continuità di "esercizio" in primis :D :D
razor820
15-06-2020, 09:27
Io anche ho fatto sempre così. Almeno un mesetto dopo L uscita delle nuove. Si trova sempre il tizio che prende la nuova serie nuova per poi rivenderla.
Per quanto riguarda invece la rivendita del modello precedente,, alla fine o adesso o dopo non credo che si possa perdere più di 200 euro nella vendita.. quindi si presume se ne spendi 1200 per comprarla nuova quelle 200 non dovrebbero essere un peso..
Che poi anche venderla ora una 2080ti, bene che vada e trovi il tizio con le tasche piene, è un miracolo che la vendi a 800. Tanto vale aspettare e poi rivenderla a 550-600
Poi vabbè sono ragionamenti personali.
Almeno parlando per me non riuscirei a stare oltre una settimana senza pc o con la rottura di andarmi a trovare una 1070 per rivenderla e perderci ancora
Io anche ho fatto sempre così. Almeno un mesetto dopo L uscita delle nuove. Si trova sempre il tizio che prende la nuova serie nuova per poi rivenderla.
Per quanto riguarda invece la rivendita del modello precedente,, alla fine o adesso o dopo non credo che si possa perdere più di 200 euro nella vendita.. quindi si presume se ne spendi 1200 per comprarla nuova quelle 200 non dovrebbero essere un peso..
Che poi anche venderla ora una 2080ti, bene che vada e trovi il tizio con le tasche piene, è un miracolo che la vendi a 800. Tanto vale aspettare e poi rivenderla a 550-600
Poi vabbè sono ragionamenti personali.
Almeno parlando per me non riuscirei a stare oltre una settimana senza pc o con la rottura di andarmi a trovare una 1070 per rivenderla e perderci ancora
L'ultima volta che lessi un commento simile fu al tempo di Kepler con le 780ti vendute a 600€ nuove e sui 450 usate e dopo qualche mese con l'arrivo delle 970 a 300-350€ nuove con tanto di gioco incluso nessuno riusciva a rivenderle se non svalutandole ben sotto i 300€ :fagiano:
Anche con le 980ti prima del mining ci fu un episodio simile, la mia la presi a 250€ più di 3 anni fa, penso che l'unica scheda a fare eccezione sia stata la 1080ti un pò per via degli 11GB di vram e un pò per il sovrapprezzo delle RTX.
OrazioOC
15-06-2020, 10:11
L'ultima volta che lessi un commento simile fu al tempo di Kepler con le 780ti vendute a 600€ nuove e sui 450 usate e dopo qualche mese con l'arrivo delle 970 a 300-350€ nuove con tanto di gioco incluso nessuno riusciva a rivenderle se non svalutandole ben sotto i 300€ :fagiano:
Anche con le 980ti prima del mining ci fu un episodio simile, la mia la presi a 250€ più di 3 anni fa, penso che l'unica scheda a fare eccezione sia stata la 1080ti un pò per via degli 11GB di vram e un pò per il sovrapprezzo delle RTX.
Il prezzo dell'usato oggi è gravemente inflazionato, quasi al pari del nuovo.
Troppo spesso vedo delle 1070 vecchie di 3/4 anni vendute a più di 200 euro, o anche 1080 a più di 300.
E' segno che il settore sta stagnando, in maniera simile alle cpu prima dei ryzen, dove non mancava mai il buontempone che chiedeva 150 euro per un i7 2600k vecchio di 5/6 anni.:rolleyes:
Predator_1982
15-06-2020, 10:12
In ogni caso, anche se io con la RTX 2080 Founders acquistata al day one non ho avuto nessun problema, è ancora fresca nella mente la moria di schede nel periodo iniziale..ok, non c'è stata alcuna conferma in merito alle cause, ma aspettare un po' penso non faccia male.
Piuttosto, ma cosa ne pensate di questo fantomatico coprocessore che monterebbe la serie 3000? Possibile che stiano scorporando le unità dedicate al RayTracing?
Il prezzo dell'usato oggi è gravemente inflazionato, quasi al pari del nuovo.
Troppo spesso vedo delle 1070 vecchie di 3/4 anni vendute a più di 200 euro, o anche 1080 a più di 300.
E' segno che il settore sta stagnando, in maniera simile alle cpu prima dei ryzen, dove non mancava mai il buontempone che chiedeva 150 euro per un i7 2600k vecchio di 5/6 anni.:rolleyes:
Più che altro, l'HW è avanzato molto lato performance e queste schede maxano tutto in FHD, quindi il valore delle stesse si è mantenuto alto, persino notebook sui 1000€ con 1660ti praticamente maxano tutto, ma anche quelli mid sui 6-800€ con 1650 non è che debbano scendere molto a compromessi.
In passato gli engine erano in proporzione più pesanti rispetto l'HW.
Ora con l'arrivo dei nuovi engine e del supporto al Ray Tracing nei prossimi titoli molte delle attuali top prestazionalmente potrebbero degradarsi tantissimo...
OrazioOC
15-06-2020, 10:18
Più che altro, l'HW è avanzato molto lato performance e queste schede maxano tutto in FHD, quindi il valore delle stesse si è mantenuto alto, persino notebook sui 1000€ con 1660ti praticamente maxano tutto.
In passato gli engine erano in proporzione più pesanti rispetto l'HW.
Ora con l'arrivo dei nuovi engine e del supporto al Ray Tracing nei prossimi titoli molte delle attuali top prestazionalmente potrebbero degradarsi tantissimo...
Infatti il problema sarà il ray tracing che avranno i titoli next gen, ma comunque i prezzi anche per le performance che hanno non sono giustificabili.
Una 1070 è nel range della 1660 super, scheda che da nuova la trovi a 250 spedita anche su amazon, mentre la 1080 è sui livelli della 2060/5600 xt, e sono schede che si trovano sotto i 350 euro, che senso ha chiedere la stessa cifra per schede vecchie di anni usate?:rolleyes:
fraussantin
15-06-2020, 10:21
Infatti il problema sarà il ray tracing che avranno i titoli next gen, ma comunque i prezzi anche per le performance che hanno non sono giustificabili.
Una 1070 è nel range della 1660 super, scheda che da nuova la trovi a 250 spedita anche su amazon, mentre la 1080 è sui livelli della 2060/5600 xt, e sono schede che si trovano sotto i 350 euro, che senso ha chiedere la stessa cifra per schede vecchie di anni usate?:rolleyes:
Bisogna anche vedere una cosa , se punteranno tutte le risorse per spingere raytracing e 4k , su certe schede dove per forza di cose non lo puoi attivare , in 1080p potrebbero ancora reggere bene.
I problemi secondo me ci saranno per i giochi non raytracing.
Per esempio assassin creed vallahalla secondo me sarà un ammazza PC senza precedenti.
slide1965
15-06-2020, 10:21
Io non resto senza pc neanche un giorno :D , ci rimetto quello che c’è da rimettere , quando escono le nuove come sempre aspetto un po’ per vedere che succede , poi quando si conoscono alla perfezione pregi, difetti e prestazioni e saranno disponibili i wb da ek o eventuali versioni custom con wb, compro, nel caso specifico penso che aprirò il portafogli intorno a natale e solo quando ho la scheda nuova a casa montata nel case sotto liquido, testata e perfettamente funzionante, solo allora vendo la vecchia :stordita:
razor820
15-06-2020, 10:22
L'ultima volta che lessi un commento simile fu al tempo di Kepler con le 780ti vendute a 600€ nuove e sui 450 usate e dopo qualche mese con l'arrivo delle 970 a 300-350€ nuove con tanto di gioco incluso nessuno riusciva a rivenderle se non svalutandole ben sotto i 300€ :fagiano:
Anche con le 980ti prima del mining ci fu un episodio simile, la mia la presi a 250€ più di 3 anni fa, penso che l'unica scheda a fare eccezione sia stata la 1080ti un pò per via degli 11GB di vram e un pò per il sovrapprezzo delle RTX.
Non si può paragonare una 780ti con una 2080ti, epoche diverse, prezzi diversi.
In ogni caso la svalutazione resta sempre quella, almeno dal ragionamento che ho fatto io.. La 780ti che si vendeva a 300 euro che sono sempre un 50% di guadagno perso.
Stessa cosa con le altre schede. In questo caso una 2080ti si perde dal 50% minimo del valore iniziale. 1100-1200 quando uscì, 550-600 usata
Il mercato è quello. Come qualsiasi altra cosa. Il 50% è il minimo che si perde in questo genere di prodotti.
Infatti il problema sarà il ray tracing che avranno i titoli next gen, ma comunque i prezzi anche per le performance che hanno non sono giustificabili.
Una 1070 è nel range della 1660 super, scheda che da nuova la trovi a 250 spedita anche su amazon, mentre la 1080 è sui livelli della 2060/5600 xt, e sono schede che si trovano sotto i 350 euro, che senso ha chiedere la stessa cifra per schede vecchie di anni usate?:rolleyes:
Su questo concordo, ha anche poco senso vedere 1080ti vendute sui 500€...
Infatti tralasciando l'usato under 100€ dove oramai si trovano 570/970/1060/290x... gli step prestazionali superiori non valgono la spesa nell'usato.
Non si può paragonare una 780ti con una 2080ti, epoche diverse, prezzi diversi.
In ogni caso la svalutazione resta sempre quella, almeno dal ragionamento che ho fatto io.. La 780ti che si vendeva a 300 euro che sono sempre un 50% di guadagno perso.
Stessa cosa con le altre schede. In questo caso una 2080ti si perde dal 50% minimo del valore iniziale. 1100-1200 quando uscì, 550-600 usata
Il mercato è quello. Come qualsiasi altra cosa. Il 50% è il minimo che si perde in questo genere di prodotti.
Bisogna anche attendere le review se la 3070 costerà nuova sui 550-600€ e avrà prestazioni simili in raster e quasi il doppio in RT non penso che le 2080ti usate per cifre simili se le fileranno in molti.
Thunder-74
15-06-2020, 10:56
In ogni caso, anche se io con la RTX 2080 Founders acquistata al day one non ho avuto nessun problema, è ancora fresca nella mente la moria di schede nel periodo iniziale..ok, non c'è stata alcuna conferma in merito alle cause, ma aspettare un po' penso non faccia male.
Piuttosto, ma cosa ne pensate di questo fantomatico coprocessore che monterebbe la serie 3000? Possibile che stiano scorporando le unità dedicate al RayTracing?
il ragionamento fatto non sarebbe sbagliato:
1) si potrebbero aumentare le rese produttive e quindi ridurre i costi, per una minor complessità del Chip
2) vendere una scheda Add on per implementare il RT su VGA prive o meno efficienti in tale reparto.
Predator_1982
15-06-2020, 11:00
il ragionamento fatto non sarebbe sbagliato:
1) si potrebbero aumentare le rese produttive e quindi ridurre i costi, per una minor complessità del Chip
2) vendere una scheda Add on per implementare il RT su VGA prive o meno efficienti in tale reparto.
in stile physix? Affascinante... Economicamente però non lo vedo molto vantaggioso per noi utenti :-)
scorpion73
15-06-2020, 11:09
Se ci pensi, l'idea del coprocessore non è cosi' bislacca: Nvidia ha detto che vuol portare il raytracing anche sulle GPU di fascia bassa, che non ci saranno più GTX ma solo RTX, e l'unico modo per farlo a mio avviso e lasciare prestazioni che possano essere adeguate è quello di slegare gli RT dal resto della GPU, e questa cosa con il coprocessore esterno potrebbe essere fatta, ovviamente ritagliandolo in funzione della GPU a cui si appoggia.
Questo consentirebbe anche di avere una migliore distribuzione del calore e quindi una dissipazione migliore, oltre ad un costo per resa più favorevole ad Nvidia, proprio anche nella logica di una riduzione dei prezzi. Che potrebbe essere compensata anche dall'immisione di schede dedicate per chi ha uno slot libero nel case ma non vuole cambiare scheda perché non ha abbastanza soldi.
Insomma, in una certa logica commerciale e tecnica la cosa torna, non la vedo tanto fuori dal mondo...
Thunder-74
15-06-2020, 11:15
Anzi, direi che ne potremmo beneficiare tutti...
TigerTank
15-06-2020, 11:27
il ragionamento fatto non sarebbe sbagliato:
1) si potrebbero aumentare le rese produttive e quindi ridurre i costi, per una minor complessità del Chip
2) vendere una scheda Add on per implementare il RT su VGA prive o meno efficienti in tale reparto.
Mmh non credo, io penso più ad un eventuale coprocessore implementato su stesso pcb per maggior efficacia di collegamento e interazione con la gpu principale. Potrebbe essere un mobo per sgravare la gpu dal crescente comparto RT, per questioni di architettura, dimensioni chip e anche energetica(e quindi di calore prodotto da dissipare).
Non so quanto sia auspicabile un modulo a parte...in tal caso finirebbe che i costi delle vga non calerebbero chissà quanto e in più toccherebbe pure comprare un ipotetico modulo RT aggiuntivo che di sicuro non regalerebbero :D
Intanto vediamo come sarà la questione del "modulo energetico secondario" e se incasinerà la vita a chi vorrà liquidare le nuove "references" nvidia. :D
Non è neanche strano dal punto di vista progettistico, nvidia sta investendo molto anche sull'MCM, hopper che probabilmente sarà un'architettura pensata al mercato professionale in base ai rumor, sarà la prima GPU di nvidia con approccio MCM, non è strano quindi che già da ora inizi a separare le unità se la cosa ha vantaggi sulle rese e non compromette le performance.
Mmh non credo, io penso più ad un eventuale coprocessore implementato su stesso pcb per maggior efficacia di collegamento e interazione con la gpu principale. Potrebbe essere un mobo per sgravare la gpu dal comparto RT, per questioni di architettura, dimensioni chip e anche energetica(e quindi di calore prodotto da dissipare).
Non so quanto sia auspicabile un modulo a parte...in tal caso finirebbe che i costi delle vga non calerebbero chissà quanto e in più toccherebbe pure comprare un ipotetico modulo RT aggiuntivo che di sicuro non regalerebbero :D
Intanto vediamo come sarà la questione del "module energetico secondario" e se incasinerà la vita a chi vorrà liquidare le nuove "references" nvidia. :D
Difficilmente avrai un modulo dedicato esclusivamente al RT da aggiungere come periferiche Pci-e, non avrebbe neanche senso proporlo.
Una cosa è scorporare dal chip monolitico delle unità per una questione di rese e complessità del chip e un'altra farne un prodotto dedicato.
Predator_1982
15-06-2020, 11:41
Difficilmente avrai un modulo dedicato esclusivamente al RT da aggiungere come periferiche Pci-e, non avrebbe neanche senso proporlo.
Una cosa è scorporare dal chip monolitico delle unità per una questione di rese e complessità del chip e un'altra farne un prodotto dedicato.
sono d'accordo anche io con un approccio di questo tipo. Per quanto riguarda comunque lo sgravio in termini di complessità di un die monolitico, penso che anche un approccio stile AMD con i Ryzen sia possibile, in tal senso troverei più sensato (data la diversa tipologia di unità e complessità), portar fuori la parte di die dedicato all'RT, se non proprio sullo stesso chip, esterno ma collegato da un bus molto veloce e a bassissima latenza.
Thunder-74
15-06-2020, 12:19
Mmh non credo, io penso più ad un eventuale coprocessore implementato su stesso pcb per maggior efficacia di collegamento e interazione con la gpu principale. Potrebbe essere un mobo per sgravare la gpu dal crescente comparto RT, per questioni di architettura, dimensioni chip e anche energetica(e quindi di calore prodotto da dissipare).
Non so quanto sia auspicabile un modulo a parte...in tal caso finirebbe che i costi delle vga non calerebbero chissà quanto e in più toccherebbe pure comprare un ipotetico modulo RT aggiuntivo che di sicuro non regalerebbero :D
Intanto vediamo come sarà la questione del "modulo energetico secondario" e se incasinerà la vita a chi vorrà liquidare le nuove "references" nvidia. :D
no tiger non mi hai capito.. sula stessa RTX serie 3000 potrà essere presente il doppio chip, non è che dobbiamo comprare due schede.. Questo comporterebbe alla produzione di chip meno complessi, meno caldi e più economici perchè le rese sarebbero maggiori. Discorso della scheda aggiuntiva, sarebbe per nVidia un' opportunità di vendere a chi non ha una RTX o a chi ha magari una serie 2000 non a prova di futuro per i titoli RT.
Io spero vivamente che scorporino la sezione RT dalla GPU.
Potrebbero pure immettere sul mercato modelli di serie 3000 in versione RTX o GTX per chi magari non è interessato al RT o non lo è inizialmente, per poi prendere una scheda ADD-on successivamente.
TigerTank
15-06-2020, 12:44
no tiger non mi hai capito.. sula stessa RTX serie 3000 potrà essere presente il doppio chip, non è che dobbiamo comprare due schede.. Questo comporterebbe alla produzione di chip meno complessi, meno caldi e più economici perchè le rese sarebbero maggiori. Discorso della scheda aggiuntiva, sarebbe per nVidia un' opportunità di vendere a chi non ha una RTX o a chi ha magari una serie 2000 non a prova di futuro per i titoli RT.
Io spero vivamente che scorporino la sezione RT dalla GPU.
Potrebbero pure immettere sul mercato modelli di serie 3000 in versione RTX o GTX per chi magari non è interessato al RT o non lo è inizialmente, per poi prendere una scheda ADD-on successivamente.
Ah capito. Ne dubito Thunder...imho si danneggerebbero da soli perchè rischierebbero di ritrovarsi con la maggioranza dei clienti che si accontenterebbe delle prestazioni raster delle varianti meno costose. A molti dell'rt importa poco, anche in fascia alta :)
Secondo me uscirà un unico tipo di scheda e stop. E credo poco anche nella scheda aggiuntiva. Se le prestazioni RT aumenteranno su tutta la linea, in parallelo ad un DLSS più evoluto, spingeranno sull'upgrade alla nuova generazione partendo da una rtx3060 ben più valida anche in tale ambito rispetto alle corrispondenti di generazione turing :)
Imho ovviamente.
In poche parole, vedo poco senso per una scheda aggiuntiva da affiancare ad una scheda vecchia se si fa prima a prendere direttamente già una 3060-3070, con comparti rt comunque più evoluti.
MrBrillio
15-06-2020, 12:45
Sapete che non ce la vedo proprio Nvidia a tirare fuori un'add-on per l'RTX?
Questo porterebbe potenziali nuovi clienti a rimanere sulle attuali e comprare solo la "schedina" per il raytracing.
Invece sono molto curioso per la questione chip rtx staccato dal PCB principale...anche se non oso immaginare come si possa liquidare una VGA del genere :cry:
Avremo magari soluzioni ibride? Magari basta una ventolina a raffreddare un'eventuale "chippino" così...ma forse no se hanno messo una ventolona del genere.
Tanta curiosità, ma anche tanto timore per cosa ci troveremo davanti tra qualche mese.
AceGranger
15-06-2020, 13:59
no tiger non mi hai capito.. sula stessa RTX serie 3000 potrà essere presente il doppio chip, non è che dobbiamo comprare due schede.. Questo comporterebbe alla produzione di chip meno complessi, meno caldi e più economici perchè le rese sarebbero maggiori. Discorso della scheda aggiuntiva, sarebbe per nVidia un' opportunità di vendere a chi non ha una RTX o a chi ha magari una serie 2000 non a prova di futuro per i titoli RT.
Io spero vivamente che scorporino la sezione RT dalla GPU.
fra il fatto di avere un chip separato e farci una scheda aggiuntiva ne passa di acqua sotto i ponti; le conclusioni di quella news mi sembrano un po fantasiose.
come le colleghi le 2 schede ?
con il PCI-EX ?
e la lag dova la mettiamo ? sarebbe peggiore che con lo SLI vito che il dato dovrebbe fare avanti e indietro almeno 2 volte prima di trasformarsi in frame.
con nVlink ?
ma la fascia bassa e media al 99% non avranno nVlink
Potrebbero pure immettere sul mercato modelli di serie 3000 in versione RTX o GTX per chi magari non è interessato al RT o non lo è inizialmente, per poi prendere una scheda ADD-on successivamente.
a questo punto avrebbe avuto piu senso fare questa cosa con Turing e non con Ampere.....
mi sembra veramente strano che facciano una cosa del genere; il loro scopo è vendere piu schede possibili con il loro RTX per aumentare la massa critica; schede separate significherebbe avere molte meno RTX in giro; cosa non buona per far diffondere il loro "pacchetto"
fraussantin
15-06-2020, 14:22
Avere un processore a parte per il raytracing potrebbe veramente segnale la svolta , dare finalmente le prestazioni che servono a tale scopo e spingere le feature.
Il tutto tornerebbe anche con il fatto che la Tesla é senza rtcore
Quello che non mi torna é l'averlo posizionato dietro.
A meno che scaldi veramente poco non vedo come si possa raffreddare decentemente un chip grosso a quel modo , almeno a vedere i disegni che peró immagino siano di fantasia.
Poi c'é il discorso prezzo, assodato che il chip davanti sarà enorme , quello dietro va solo a sommarsi ai costi di silicio e assemblaggio del tutto.
Vedremo. Ma ci sono un po' troppe cose strane .
mikael84
15-06-2020, 14:33
Se ci pensi, l'idea del coprocessore non è cosi' bislacca: Nvidia ha detto che vuol portare il raytracing anche sulle GPU di fascia bassa, che non ci saranno più GTX ma solo RTX, e l'unico modo per farlo a mio avviso e lasciare prestazioni che possano essere adeguate è quello di slegare gli RT dal resto della GPU, e questa cosa con il coprocessore esterno potrebbe essere fatta, ovviamente ritagliandolo in funzione della GPU a cui si appoggia.
Questo consentirebbe anche di avere una migliore distribuzione del calore e quindi una dissipazione migliore, oltre ad un costo per resa più favorevole ad Nvidia, proprio anche nella logica di una riduzione dei prezzi. Che potrebbe essere compensata anche dall'immisione di schede dedicate per chi ha uno slot libero nel case ma non vuole cambiare scheda perché non ha abbastanza soldi.
Insomma, in una certa logica commerciale e tecnica la cosa torna, non la vedo tanto fuori dal mondo...
Anzi, direi che ne potremmo beneficiare tutti...
Un chip apposito via pciexpress non puoi farlo, ed nvlink nelle fasce basse non ci sarà. Senza considerare che connettori vari su quelle fasce, sarebbero un bel problema.
C'è anche un altro parametro. Gli RT core, così come i tensor core, devono lavorare a stretto contato con FP ed INT.
Separando gli RT core vai incontro a pesante overhead , al punto tale che i vantaggi sarebbero davvero minimi.
Quello che si dovrebbe fare, è massimizzare le risorse disponibili.
Thunder-74
15-06-2020, 14:57
indubbiamente schede ADD-ON presenterebbero il problema della connessione come giustamente facevate osservare... vabbè, andremo magari di multi chip su PCB... stile questa 3dFX Voodoo5 9000 a 32GPU :sofico:
https://i.imgur.com/Pgbdkb0.png
LINK VIDEO (https://www.youtube.com/watch?v=_3iHV0NvLPI)
mikael84
15-06-2020, 15:07
indubbiamente schede ADD-ON presenterebbero il problema della connessione come giustamente facevate osservare... vabbè, andremo magari di multi chip su PCB... stile questa 3dFX Voodoo5 9000 a 32GPU :sofico:
:sofico: :sofico:
Cmq è lo stesso, non puoi mettere a parte RT core da soli, andresti in pieno overhead. Questi devono lavorare a stretto contato con FP ed INT, istruzioni, cache.
O nvidia si è inventata qualcosa di assurdo, ma per ora non riusciva a cavarne piede neppure con i chip classici MCM.:p
Avere un processore a parte per il raytracing potrebbe veramente segnale la svolta , dare finalmente le prestazioni che servono a tale scopo e spingere le feature.
Il tutto tornerebbe anche con il fatto che la Tesla é senza rtcore
Quello che non mi torna é l'averlo posizionato dietro.
A meno che scaldi veramente poco non vedo come si possa raffreddare decentemente un chip grosso a quel modo , almeno a vedere i disegni che peró immagino siano di fantasia.
Poi c'é il discorso prezzo, assodato che il chip davanti sarà enorme , quello dietro va solo a sommarsi ai costi di silicio e assemblaggio del tutto.
Vedremo. Ma ci sono un po' troppe cose strane .
Come le sicure Gddr6x a 21 gb/s, ma da dove sono uscite...mai sentite.:sofico:
Micron dopo 2 anni, è appena passata ai 16gb/s, che le ha fatte a fare, per nulla...
Ah capito. Ne dubito Thunder...imho si danneggerebbero da soli perchè rischierebbero di ritrovarsi con la maggioranza dei clienti che si accontenterebbe delle prestazioni raster delle varianti meno costose. A molti dell'rt importa poco, anche in fascia alta :)
Secondo me uscirà un unico tipo di scheda e stop. E credo poco anche nella scheda aggiuntiva. Se le prestazioni RT aumenteranno su tutta la linea, in parallelo ad un DLSS più evoluto, spingeranno sull'upgrade alla nuova generazione partendo da una rtx3060 ben più valida anche in tale ambito rispetto alle corrispondenti di generazione turing :)
Imho ovviamente.
In poche parole, vedo poco senso per una scheda aggiuntiva da affiancare ad una scheda vecchia se si fa prima a prendere direttamente già una 3060-3070, con comparti rt comunque più evoluti.
Considerando che le gaming sono scarti pro... :D
thunderforce83
15-06-2020, 16:02
indubbiamente schede ADD-ON presenterebbero il problema della connessione come giustamente facevate osservare... vabbè, andremo magari di multi chip su PCB... stile questa 3dFX Voodoo5 9000 a 32GPU :sofico:
https://i.imgur.com/Pgbdkb0.png
LINK VIDEO (https://www.youtube.com/watch?v=_3iHV0NvLPI)
bellissima questa foto:D
comunque la roardmap di nvidia per le prossime uscite dovrebbe essere questa...
Fase Descrizione Finestra temporale
BOM Distinta base /Maggio / giugno
EVT Test di convalida tecnica /Giugno
DVT Test di convalida del design /Giugno / luglio
WS Prototipi operativi /Luglio
EMI Test Test di Compatibilità Elettromagnetica /Luglio
PVT Test di convalida della produzione /Fine luglio, inizio agosto
PPBIOS Versione stabile del BIOS /Inizio agosto
MP Avvio produzione di massa /Agosto
Uscita Presentazione + benchmark ufficiali /Settembre
Non credo nel chip venduto a parte onestamente, innanzitutto con le esigenze di miniaturizzazione del mercato ti tagli fuori una bella fetta di clienti che usano sistemi mini itx che hanno a disposizione poco spazio e un solo slot, per quanto riguarda un sistema con coprocessore per calcoli ray tracing è un'idea allettante che non mi aspettavo e non mi aspetto in questa generazione, ma in quella successiva di cui già si parlava di un sistema a chiplet o a core simile a quello delle cpu, ma sempre non un unità separata, immagino quella ventola posteriore lasci adito a molte idee fantasiose
TigerTank
15-06-2020, 16:40
indubbiamente schede ADD-ON presenterebbero il problema della connessione come giustamente facevate osservare... vabbè, andremo magari di multi chip su PCB... stile questa 3dFX Voodoo5 9000 a 32GPU :sofico:
Passiamo tutti ai banchetti XXL
:sofico:
Comunque chiaro che il messaggio sarà: tu ti compri la scheda completa e la paghi. Poi se per motivi tuoi non vuoi arrancare usando l'RT, vai pure in raster e divertiti ma intanto l'RTX ce l'hai pagato :asd:
Considerando che le gaming sono scarti pro... :D
Ahahahah Mike, qui sei in veste di fucile a piombini che tenta di colpire la scimmia virtuale cronica :asd:
SPARTANO93
15-06-2020, 18:14
Se veramente rtx 3090 avrà un tdp di 350w che tdp potrebbero avere circa le rtx 3070/3080?
Inviato dal mio SM-G973F utilizzando Tapatalk
Se veramente rtx 3090 avrà un tdp di 350w che tdp potrebbero avere circa le rtx 3070/3080?
Inviato dal mio SM-G973F utilizzando Tapatalk
Per la 3080 molto probabilmente circa 250w.
Per la 3070 in base ai rumor sarà un chippetto molto più piccolo quindi intorno ai 180w.
Il problema è che dalle recenti info, sembra non ci sarà un GA103 ciò porta a un vuoto non indifferente tra 3070 e 3080, e mi sembra strano vedere un cut ancora più aggressivo di GA102 per farne una 3070ti...
Vedremo...
scorpion73
15-06-2020, 18:39
indubbiamente schede ADD-ON presenterebbero il problema della connessione come giustamente facevate osservare... vabbè, andremo magari di multi chip su PCB... stile questa 3dFX Voodoo5 9000 a 32GPU :sofico:
https://i.imgur.com/Pgbdkb0.png
LINK VIDEO (https://www.youtube.com/watch?v=_3iHV0NvLPI)
Quando ha acceso il PC è decollato... :D
Poi bellissimo il vento sul foglietto.. al posto del phon dopo la doccia ha acceso il PC :D :D
SPARTANO93
15-06-2020, 18:47
Per la 3080 molto probabilmente circa 250w.
Per la 3070 in base ai rumor sarà un chippetto molto più piccolo quindi intorno ai 180w.
Il problema è che dalle recenti info, sembra non ci sarà un GA103 ciò porta a un vuoto non indifferente tra 3070 e 3080, e mi sembra strano vedere un cut ancora più aggressivo di GA102 per farne una 3070ti...
Vedremo...Ok grazie, l'importante è che non consumino troppo anche se credo che già per una 3080 dovrò cambiare l'alimentatore perché 550w potrebbero essere pochi, dipenderà anche dai prezzi perché se saranno ancora più alti delle nvidia turing non andrò oltre alla 3070
Inviato dal mio SM-G973F utilizzando Tapatalk
indubbiamente schede ADD-ON presenterebbero il problema della connessione come giustamente facevate osservare... vabbè, andremo magari di multi chip su PCB... stile questa 3dFX Voodoo5 9000 a 32GPU :sofico:
https://i.imgur.com/Pgbdkb0.png
LINK VIDEO (https://www.youtube.com/watch?v=_3iHV0NvLPI)
:sofico: :sofico:
fraussantin
15-06-2020, 18:50
Ok grazie, l'importante è che non consumino troppo anche se credo che già per una 3080 dovrò cambiare l'alimentatore perché 550w potrebbero essere pochi, dipenderà anche dai prezzi perché se saranno ancora più alti delle nvidia turing non andrò oltre alla 3070
Inviato dal mio SM-G973F utilizzando Tapatalk
Considera che il tuo sistema non consuma troppo.
Secondo me con un 550 buono se non fai overclock strani ci stai dentro con una GPU da 250w.
Poi se non c'è la fa aspetti una occasione e con un centone pigli un 750 decente e non ci pensi piú.
mikael84
15-06-2020, 19:00
Passiamo tutti ai banchetti XXL
:sofico:
Comunque chiaro che il messaggio sarà: tu ti compri la scheda completa e la paghi. Poi se per motivi tuoi non vuoi arrancare usando l'RT, vai pure in raster e divertiti ma intanto l'RTX ce l'hai pagato :asd:
Ahahahah Mike, qui sei in veste di fucile a piombini che tenta di colpire la scimmia virtuale cronica :asd:
Lo sai che quella non si può fermare.:p
Certo che a livello puramente tecnico, vedere come JHH ha ridotto la 3080...In un solo colpo ha buttato giù GPC, TPC, 2 partizioni cache, 16 rop's, ed un canale non l'ha neppure chiuso nella top.:sofico:
Se veramente rtx 3090 avrà un tdp di 350w che tdp potrebbero avere circa le rtx 3070/3080?
Inviato dal mio SM-G973F utilizzando Tapatalk
3080 320watt.
La 3070 dovrebbe essere una 2080 super pompata
Il problema è che dalle recenti info, sembra non ci sarà un GA103 ciò porta a un vuoto non indifferente tra 3070 e 3080, e mi sembra strano vedere un cut ancora più aggressivo di GA102 per farne una 3070ti...
Vedremo...
La differenza è tanta, la stessa che corre tra 2080s e 2080ti, ma la 2080 super, se la gioca tra clock e scaling pessimo dei 6 TPC.
Bastava buttare giù mezzo chip HPC, rasterizzare a 32 (128 rop's/4096cc) e collegare a 2 HBM flashbolt per 820 gb/s.:sofico: :sofico:
Nessun canale a vuoto, minori consumi, e colli di bottiglia dimezzati.
Si ma la 2080ti è castrata quindi per la 2080s è facile prenderla, in questo caso o la 3080 sarà anch'essa molto castrata e quindi scordati un chip sbloccato a 320w ed è più probabile ci si tenga sui 250w (almeno per le varianti ufficiali, poi eventuali custom faranno storia a se) oppure c'è un vuoto consistente tra le due soluzioni e la 3070 dovrà avere dei boost clock decisamente notevoli per essere competitiva.
OrazioOC
15-06-2020, 19:22
Io ho come l'impressione che questa mossa sia propedeutica ad un altro aumento dei prezzi a parità di fascia.
Una 3070 potrebbe benissimo sostituire una 2080 e partire da 599 dollari, facendo gioco forza su performance simil 2080 ti che ad oggi costa 999 dollari, e la 3080 potrebbe sostituirla a quella cifra.
Lasciando alla 3090 il compito di sostituire la 2080 ti e la titan a 1500/2000 dollari.
mikael84
15-06-2020, 19:25
Si ma la 2080ti è castrata quindi per la 2080s è facile prenderla, in questo caso o la 3080 sarà anch'essa molto castrata e quindi scordati un chip sbloccato a 320w ed è più probabile ci si tenga sui 250w (almeno per le varianti ufficiali, poi eventuali custom faranno storia a se) oppure c'è un vuoto consistente tra le due soluzioni e la 3070 dovrà avere dei boost clock decisamente notevoli per essere competitiva.
320 è quanto dichiarato (speculato), altro non si sa. Chiaro che è il valore di riferimento del chippone full.
Riguardo 2080ti e 2080, ci passano gli stessi shader, ma la 3080 ha in rapporto meno rop's e BW.
Chiaro, parte con un centinaio di mhz di base in più, ma i veri problemi sono di natura scaling.
Il chip a 4 TPC è sicuramente meno problematico.
Io ho come l'impressione che questa mossa sia propedeutica ad un altro aumento dei prezzi a parità di fascia.
Una 3070 potrebbe benissimo sostituire una 2080 e partire da 599 dollari, facendo gioco forza su performance simil 2080 ti che ad oggi costa 999 dollari, e la 3080 potrebbe sostituirla a quella cifra.
Lasciando alla 3090 il compito di sostituire la 2080 ti e la titan a 1500/2000 dollari.
Preoccupa sopratutto che TU104 verrà rimpiazzato da GA104, questo potrebbe essere un problema.
Preoccupa sopratutto che TU104 verrà rimpiazzato da GA104, questo potrebbe essere un problema.
E' proprio ciò che fa storcere di più il naso, c'è molta ambiguità a riguardo.
E' come se la 2080ti venisse sostituita dalla 3080 tecnologicamente e i chip maggiori (3080ti e 3090) rappresentassero una fascia ulteriore...
SPARTANO93
15-06-2020, 20:10
Considera che il tuo sistema non consuma troppo.
Secondo me con un 550 buono se non fai overclock strani ci stai dentro con una GPU da 250w.
Poi se non c'è la fa aspetti una occasione e con un centone pigli un 750 decente e non ci pensi piú.È vero che avendo un ryzen 3600 che consuma pochissimo ho più watt da parte per la scheda video, però vedremo all'uscita i dati reali, poi anche un cambio alimentatore ci può stare, uso questo xfx da 550w da almeno 7-8 anni quindi il suo lavoro l'ha fatto
Inviato dal mio SM-G973F utilizzando Tapatalk
OrazioOC
15-06-2020, 20:15
Preoccupa sopratutto che TU104 verrà rimpiazzato da GA104, questo potrebbe essere un problema.
Mi preoccupa che sto ga104 sarebbe un sostituto di tu106 per die size, ok che con turing hanno sfornato delle belle pizze e che tu106 sia grosso praticamente come gp102, ma i prezzi a parità di fascia si sono comunque alzati.
mikael84
15-06-2020, 23:35
E' proprio ciò che fa storcere di più il naso, c'è molta ambiguità a riguardo.
E' come se la 2080ti venisse sostituita dalla 3080 tecnologicamente e i chip maggiori (3080ti e 3090) rappresentassero una fascia ulteriore...
Di certo, qualche preoccupazione c'è, però dovrebbe rispondere anche AMD a sto giro. Vedremmo.
Il problema è che AMD aspetta la mossa, poi spara il clock, tensioni per rispondere, e si adegua.
Qualcuno spara 999$ anche per AMD.
Mi preoccupa che sto ga104 sarebbe un sostituto di tu106 per die size, ok che con turing hanno sfornato delle belle pizze e che tu106 sia grosso praticamente come gp102, ma i prezzi a parità di fascia si sono comunque alzati.
Abbiamo visto polaris a 232mm2 a 229$ e Navi, 251mm2 a 449$ la bin e 399$ la classica.
Igor stima un 627mm2 per la full, praticamente 90mm2 a GPC, ma è da levare un collegamento. Quindi il GPC potrebbe stare sui o appena sotto gli 85mm2.
Da tenere presente che GA104 avrà 4 TPC e non 6 e 2 collegamenti in meno, mentre GA106 un TPC in meno.:)
Da non sottovalutare l'nvlink nel chip top.
ninja750
16-06-2020, 08:14
E' come se la 2080ti venisse sostituita dalla 3080 tecnologicamente e i chip maggiori (3080ti e 3090) rappresentassero una fascia ulteriore...
noo nvidia non farebbe mai una cosa simile
TigerTank
16-06-2020, 09:20
Sì beh, se nvidia dovesse di nuovo fare un salto di fascia arrivando ad una situazione ancora più esosa, quasi quasi mollerei il il pc e andrei di console :asd: o scalerei ad una x70. Perchè va bene tutto ma spendere cifre a 3 zeri per delle vga per poi giocare in prevalenza a dei porting copia-incolla farciti di effetti ed effettini non avrebbe più senso.
Si sta pure parlando di FarCry 6, tra ambientazioni esotiche e chi parla addirittura di un ritorno di Vaas. Se così fosse sarà di sicuro originalissimo, non si sono mai viste delle isole esotiche nei Far Cry. A questo giro per cambiare qualcosa potrebbero magari mettere pure i sottomarini pilotabili :asd:
Tanto varrebbe facessero una remastered del primo.
Per dire che per giustificare l'esborso per le nuove schede ci dev'essere anche la ciccia, non solo discorsi tecnici o calcoli su boost prestazionali raster ed rt.
razor820
16-06-2020, 09:23
Nel mio caso una ps5, visto il prezzo che costerà, 1/3 di una 3080ti, sicuramente la prenderò e la affiancherò al pc sia perché le ho avute tutte e 4 in passato sia perché un lettore Blu-ray con quelle caratteristiche ci vogliono 2 o 3 centoni :D
MrBrillio
16-06-2020, 09:30
CUT
Cyberpunk2077?
:D
In più sicuramente in questa gen ci sarà molta ciccia da giocare, Microsoft ha assorbito 16 studi, quindi sicuramente anche lato PC vedremo roba interessante da giocare.
Predator_1982
16-06-2020, 09:38
Sì beh, se nvidia dovesse di nuovo fare un salto di fascia arrivando ad una situazione ancora più esosa, quasi quasi mollerei il il pc e andrei di console :asd: o scalerei ad una x70. Perchè va bene tutto ma spendere cifre a 3 zeri per delle vga per poi giocare in prevalenza a dei porting copia-incolla farciti di effetti ed effettini non avrebbe più senso.
in realtà la soluzione è più semplice, non acquistare al day one, del resto al momento si gioca egregiamente con la serie 2000. In ogni caso mi aspetto anche una risposta da parte di AMD che crei anche delle valide alternative su cui ripiegare, nel caso i verdi sparassero numeri assurdi...
TigerTank
16-06-2020, 09:58
Cyberpunk2077?
:D
In più sicuramente in questa gen ci sarà molta ciccia da giocare, Microsoft ha assorbito 16 studi, quindi sicuramente anche lato PC vedremo roba interessante da giocare.
Non è che questo mi entusiasmi :fagiano:
in realtà la soluzione è più semplice, non acquistare al day one, del resto al momento si gioca egregiamente con la serie 2000. In ogni caso mi aspetto anche una risposta da parte di AMD che crei anche delle valide alternative su cui ripiegare, nel caso i verdi sparassero numeri assurdi...
Quello per me ormai sempre. Dopo l'esperienza delle prime turing che morivano da sole credo che sia meglio andarci un pò più con i piedi di piombo e lasciarle rodare :D
ninja750
16-06-2020, 10:18
Microsoft ha assorbito 16 studi, quindi sicuramente anche lato PC vedremo roba interessante da giocare.
si, flight simulator 2020 che occuperà 1.5TB per girare a 24fps in 4k (e 40 in 1080p) con una 3090ti :stordita: :D
MrBrillio
16-06-2020, 10:25
si, flight simulator 2020 che occuperà 1.5TB per girare a 24fps in 4k (e 40 in 1080p) con una 3090ti :stordita: :D
no ma che, ci sono in ballo un po' di esclusive per la prossima gen, quindi secondo me di roba da giocare ce ne sarà parecchia (non che ora tra arretrati e roba mai finita e mollata lì in libreria, ci sia poco da fare eh :D ).
Predator_1982
16-06-2020, 10:28
si, flight simulator 2020 che occuperà 1.5TB per girare a 24fps in 4k (e 40 in 1080p) con una 3090ti :stordita: :D
è il titolo che aspetto con più ansia...:D
Sì beh, se nvidia dovesse di nuovo fare un salto di fascia arrivando ad una situazione ancora più esosa, quasi quasi mollerei il il pc e andrei di console :asd: o scalerei ad una x70. Perchè va bene tutto ma spendere cifre a 3 zeri per delle vga per poi giocare in prevalenza a dei porting copia-incolla farciti di effetti ed effettini non avrebbe più senso.
Si sta pure parlando di FarCry 6, tra ambientazioni esotiche e chi parla addirittura di un ritorno di Vaas. Se così fosse sarà di sicuro originalissimo, non si sono mai viste delle isole esotiche nei Far Cry. A questo giro per cambiare qualcosa potrebbero magari mettere pure i sottomarini pilotabili :asd:
Tanto varrebbe facessero una remastered del primo.
Per dire che per giustificare l'esborso per le nuove schede ci dev'essere anche la ciccia, non solo discorsi tecnici o calcoli su boost prestazionali raster ed rt.
Più che altro questi chip sono decisamente tirati e tra la 3070 e 3080 c'è una bella differenza in HW.
Come gerarchia dei chip, sembra esserci una struttura simile a quella di Kepler.
GTX 770 (GK104): 1536cc | 256bit | 2GB => GTX 3070 (GA104): 3072cc | 256bit | 8GB
GTX 780 (GK110): 2304cc | 384bit | 3GB => GTX 3080 (GA102): 4352cc | 320bit | 10GB
GTX 780ti (GK110): 2816cc | 384bit | 3GB => GTX 3080ti (GA102): ???cc | 384bit | 12GB
TITAN#2 (GK110): 2816cc | 384bit | 6GB => GTX 3090 (GA102): 5376cc | 384bit | 24GB
Tralasciando che al tempo di kepler la 770 fu prodotta anche in versione 4GB, cosi come la 780 6GB a fine ciclo di vita, quindi è possibile che alcune schede ricevano nelle varianti custom memorie a doppia densità.
thunderforce83
16-06-2020, 10:51
Io ho come l'impressione che questa mossa sia propedeutica ad un altro aumento dei prezzi a parità di fascia.
Una 3070 potrebbe benissimo sostituire una 2080 e partire da 599 dollari, facendo gioco forza su performance simil 2080 ti che ad oggi costa 999 dollari, e la 3080 potrebbe sostituirla a quella cifra.
Lasciando alla 3090 il compito di sostituire la 2080 ti e la titan a 1500/2000 dollari.
Esattamente, io gia' lo dissi un po' di tempo fa' che nvidia secondo me alzera' ancora il tiro dei prezzi, ma comunque e' ancora tutto da vedere...se pensiamo al passato comunque le schede amd non sono piu' state competitive come una volta, anche le ultime che ha cacciato ultimamente erano sulla stessa fascia di prezzo dell equivalente nvidia,
secondo me sanno che una fetta di super appassionati compreranno la 3080ti a qualsiasi prezzo uscira' (pur di vendere un rene) poi la stragrande maggioranza fara' acquisti accurati,tipo prende la 3080/3070/3060 e pace, ma comunque alla fine i chipmaker hanno capito che per massimizzare gli introiti devono spremere il piu' possibile la clientela.
Predator_1982
16-06-2020, 10:56
Esattamente, io gia' lo dissi un po' di tempo fa' che nvidia secondo me alzera' ancora il tiro dei prezzi, ma comunque e' ancora tutto da vedere...se pensiamo al passato comunque le schede amd non sono piu' state competitive come una volta, anche le ultime che ha cacciato ultimamente erano sulla stessa fascia di prezzo dell equivalente nvidia,
secondo me sanno che una fetta di super appassionati compreranno la 3080ti a qualsiasi prezzo uscira' (pur di vendere un rene) poi la stragrande maggioranza fara' acquisti accurati,tipo prende la 3080/3070/3060 e pace, ma comunque alla fine i chipmaker hanno capito che per massimizzare gli introiti devono spremere il piu' possibile la clientela.
mi verrebbe da dire...a tirar la corda prima o poi si spezza. Ok il fatto che siamo tutti super appassionati di hw e di pc, ma tra poco presentano console con (finalmente) un hw di nuova generazione e che consentirà, grazie alle ottimizzazioni che nulla hanno a che vedere con quelle (non) fatte su pc, di far girare giochi dal comparto grafico notevole. Ciò potrebbe spostare una certa fascia di utenza a preferirle, con risparmi mica da poco.
Spero dunque non sia questa realmente la politica, 800 euro per una scheda come 3080 dovrebbero essere più che sufficienti.
OrazioOC
16-06-2020, 10:57
Esattamente, io gia' lo dissi un po' di tempo fa' che nvidia secondo me alzera' ancora il tiro dei prezzi, ma comunque e' ancora tutto da vedere...se pensiamo al passato comunque le schede amd non sono piu' state competitive come una volta, anche le ultime che ha cacciato ultimamente erano sulla stessa fascia di prezzo dell equivalente nvidia,
secondo me sanno che una fetta di super appassionati compreranno la 3080ti a qualsiasi prezzo uscira' (pur di vendere un rene) poi la stragrande maggioranza fara' acquisti accurati,tipo prende la 3080/3070/3060 e pace, ma comunque alla fine i chipmaker hanno capito che per massimizzare gli introiti devono spremere il piu' possibile la clientela.
Amd se la dorme da anni nella fascia alta, nvidia sta correndo da sola.
Sono troppi gli anni in cui se vuoi il top esiste solo nvidia, ed è qui che nasce il rincaro.
Nvidia con ampere punta tranquillamente a vendere una 3060 sopra i 350 dollari, un chippettino che fa tenerezza con quelle specifiche.:rolleyes:
Ma anche nella fascia media amd non è più tutta questa alternativa economica, alla presentazione della 5700 xt prezzata a 449 dollari applaudivano veramente in pochi. :rotfl: :rotfl: :rotfl:
Giovamas
16-06-2020, 11:00
no ma che, ci sono in ballo un po' di esclusive per la prossima gen, quindi secondo me di roba da giocare ce ne sarà parecchia (non che ora tra arretrati e roba mai finita e mollata lì in libreria, ci sia poco da fare eh :D ).
concordo e scusate l'OT ma a me interessa solo questo :)
https://www.rpgitalia.net/rpg-world/161143-baldurs-gate-3-in-accesso-anticipato-ad-agosto/
ninja750
16-06-2020, 11:10
le schede amd non sono piu' state competitive come una volta, anche le ultime che ha cacciato ultimamente erano sulla stessa fascia di prezzo dell equivalente nvidia
sotto più o meno, sopra la 5700xt costa un centone meno della equivalente 2070s
Nvidia con ampere punta tranquillamente a vendere una 3060 sopra i 350 dollari, un chippettino che fa tenerezza con quelle specifiche.:rolleyes:
il problema della 3060 è che verrà presentata al solito per ultima, ma avesse prestazioni da 2070s con un consumo uguale o minore non sarebbe un cattivo acquisto a quel prezzo, sempre aspettando RDNA2 cosa farà in quella fascia
OrazioOC
16-06-2020, 11:16
sotto più o meno, sopra la 5700xt costa un centone meno della equivalente 2070s
il problema della 3060 è che verrà presentata al solito per ultima, ma avesse prestazioni da 2070s con un consumo uguale o minore non sarebbe un cattivo acquisto a quel prezzo, sempre aspettando RDNA2 cosa farà in quella fascia
Non se hai un chip che sarebbe il sostituto di tu116 della 1660 super/ti, e non se due anni dopo la 2060 la batti di un 20% allo stesso prezzo.
mikael84
16-06-2020, 11:34
Sì beh, se nvidia dovesse di nuovo fare un salto di fascia arrivando ad una situazione ancora più esosa, quasi quasi mollerei il il pc e andrei di console :asd: o scalerei ad una x70. Perchè va bene tutto ma spendere cifre a 3 zeri per delle vga per poi giocare in prevalenza a dei porting copia-incolla farciti di effetti ed effettini non avrebbe più senso.
Si sta pure parlando di FarCry 6, tra ambientazioni esotiche e chi parla addirittura di un ritorno di Vaas. Se così fosse sarà di sicuro originalissimo, non si sono mai viste delle isole esotiche nei Far Cry. A questo giro per cambiare qualcosa potrebbero magari mettere pure i sottomarini pilotabili :asd:
Tanto varrebbe facessero una remastered del primo.
Per dire che per giustificare l'esborso per le nuove schede ci dev'essere anche la ciccia, non solo discorsi tecnici o calcoli su boost prestazionali raster ed rt.
Io dopo il declassamento a x70, non scendo a 3060 super, aspetto direttamente la prox, salvo qualche occasione seria.:D
Meno male che c'è AMD, che senza scheda pronta ci da già i risultati.:asd:
https://i.ibb.co/F8Q4ys3/Immagine.jpg
OrazioOC
16-06-2020, 11:36
Io dopo il declassamento a x70, non scendo a 3060 super, aspetto direttamente la prox, salvo qualche occasione seria.:D
Meno male che c'è AMD, che senza scheda pronta ci da già i risultati.:asd:
https://i.ibb.co/F8Q4ys3/Immagine.jpg
:rotfl:.
Io dopo il declassamento a x70, non scendo a 3060 super, aspetto direttamente la prox, salvo qualche occasione seria.:D
Meno male che c'è AMD, che senza scheda pronta ci da già i risultati.:asd:
Quindi confermato che la 6900XT si porrà a cavallo tra 3070 e 3080, e nvidia potrà fare i prezzi che vuole per i chipponi...
OTTIMO...
Probabilmente ciò spiega la sparizione di GA103, non valeva neanche la pena scomodare un chip dedicato, basterà riciclare gli scarti degli scarti di GA102.
amon.akira
16-06-2020, 12:38
Quindi confermato che la 6900XT si porrà a cavallo tra 3070 e 3080, e nvidia potrà fare i prezzi che vuole per i chipponi...
OTTIMO...
Probabilmente ciò spiega la sparizione di GA103, non valeva neanche la pena scomodare un chip dedicato, basterà riciclare gli scarti degli scarti di GA102.
ma non era lo scarto dello scarto del ga102 perchè temeva amd? quindi la concorrenza ci ha fatto peggiorare, se non c era si andava con il migliore ga103 rispetto allo scarto dello scarto?
:doh:
mikael84
16-06-2020, 12:42
Quindi confermato che la 6900XT si porrà a cavallo tra 3070 e 3080, e nvidia potrà fare i prezzi che vuole per i chipponi...
OTTIMO...
Probabilmente ciò spiega la sparizione di GA103, non valeva neanche la pena scomodare un chip dedicato, basterà riciclare gli scarti degli scarti di GA102.
Quel leak è fake, non hanno ancora le schede pronte. Sarà qualche sparata di stime di adored tv.:p
TigerTank
16-06-2020, 12:45
Io dopo il declassamento a x70, non scendo a 3060 super, aspetto direttamente la prox, salvo qualche occasione seria.:D
Meno male che c'è AMD, che senza scheda pronta ci da già i risultati.:asd:
https://i.ibb.co/F8Q4ys3/Immagine.jpg
Miscredente...le sacre pietre veggenti vedono tutto :O
https://lh3.googleusercontent.com/proxy/dwhMQQXiIJh5YLF3uI_JDL6pl0L6Qckmu8BowkFTuJYHxplRXn1dzEkwtWqVTwjJaMBFOszdGZl-tLUVvXGZRHUNor6a2Hdd-9BaQ4UfCBI
Quel leak è fake, non hanno ancora le schede pronte. Sarà qualche sparata di stime di adored tv.:p
Si ma ero ironico, lo mettiamo nel cassetto insieme le GDDR6 a 21 Gbps :fagiano:
mikael84
16-06-2020, 14:23
ma non era lo scarto dello scarto del ga102 perchè temeva amd? quindi la concorrenza ci ha fatto peggiorare, se non c era si andava con il migliore ga103 rispetto allo scarto dello scarto?
:doh:
No no, il GA103 era teoricamente più snello, ma con meno shader.
I leak riportavano 3840cc su un 320bit.
Con il chip iper devastato, avrà le stesse specifiche finali in uscita, ma 4352cc.
Per farla semplice, è come se la 2080 fosse uno scarto degli scarti del TU102, quindi 3584cc/320bit e 10gb.:)
Miscredente...le sacre pietre veggenti vedono tutto :O
:asd:
Si ma ero ironico, lo mettiamo nel cassetto insieme le GDDR6 a 21 Gbps :fagiano:
Quello che non capisco, è il perchè nessuna testata di livello, si sia fatto questa domanda.
micron da un mese è riuscita ad aggiornare a 16 gb/s.
672 gb/s su un 256bit, magari :sofico:
Quello che non capisco, è il perchè nessuna testata di livello, si sia fatto questa domanda.
micron da un mese è riuscita ad aggiornare a 16 gb/s.
672 gb/s su un 256bit, magari :sofico:
Credo per l'assenza di info...
Per ora di sicuro ci sono solo le 16, manco le 18 si hanno conferme concrete che siano disponibili e usabili, quindi è difficile scriverci qualsiasi cosa su...
Al contrario se devi sparare grosso sui chip c'è sempre qualcosa da dire :sofico:
Comunque penso che a fine mese si avranno rumors più solidi.
Ale55andr0
16-06-2020, 14:38
Io dopo il declassamento a x70, non scendo a 3060 super, aspetto direttamente la prox, salvo qualche occasione seria.:D
Meno male che c'è AMD, che senza scheda pronta ci da già i risultati.:asd:
https://i.ibb.co/F8Q4ys3/Immagine.jpg
non avranno prototipi funzionanti a qualche mese dal lancio dici? :confused:
Ale55andr0
16-06-2020, 14:40
Quel leak è fake, non hanno ancora le schede pronte. Sarà qualche sparata di stime di adored tv.:p
ah, come pensavo...ma ci sarebbe da sperarlo, un 16-20% su certi titoli non mi pare mica un risultato da elogiare
amon.akira
16-06-2020, 14:44
No no, il GA103 era teoricamente più snello, ma con meno shader.
I leak riportavano 3840cc su un 320bit.
Con il chip iper devastato, avrà le stesse specifiche finali in uscita, ma 4352cc.
Per farla semplice, è come se la 2080 fosse uno scarto degli scarti del TU102, quindi 3584cc/320bit e 10gb.:)
appunto nn capisco il malcontento
3584 》2944/3072
4352 》 3840
E' proprio ciò che fa storcere di più il naso, c'è molta ambiguità a riguardo.
E' come se la 2080ti venisse sostituita dalla 3080 tecnologicamente e i chip maggiori (3080ti e 3090) rappresentassero una fascia ulteriore...
2080TI/3080 OK! Ma 3080TI e 3090 ? io vedo o una o l'altra Full ad un prezzo intorno ai 1500/1700€ se non di piu..
Io ho come l'impressione che questa mossa sia propedeutica ad un altro aumento dei prezzi a parità di fascia.
Una 3070 potrebbe benissimo sostituire una 2080 e partire da 599 dollari, facendo gioco forza su performance simil 2080 ti che ad oggi costa 999 dollari, e la 3080 potrebbe sostituirla a quella cifra.
Lasciando alla 3090 il compito di sostituire la 2080 ti e la titan a 1500/2000 dollari.
Quote ;)
in realtà la soluzione è più semplice, non acquistare al day one, del resto al momento si gioca egregiamente con la serie 2000. In ogni caso mi aspetto anche una risposta da parte di AMD che crei anche delle valide alternative su cui ripiegare, nel caso i verdi sparassero numeri assurdi...
Specialmente a questo giro, se AMD sarà vicina alla 3080 e si tiene sugli 800€ ci può stare.. lasciare 1200/1700€ mi rode un po a dire il vero, nel mio caso, dovrei pensare ad un upgrade anche del monitor 2k vs 4k decente..
Thunder-74
16-06-2020, 14:54
Però voi vi siete fermati sulla slide più stupida...
Attivare il RT su RDNA2 costerà poco in termini di performaces
https://overclock3d.net/gfx/articles/2020/06/16062042995s.jpg
e tutto sto popò di roba a meno di 1000 dollari.. mia al DEIUANNE !!! :sofico:
https://overclock3d.net/gfx/articles/2020/06/16062041940s.jpg
mikael84
16-06-2020, 15:09
Credo per l'assenza di info...
Per ora di sicuro ci sono solo le 16, manco le 18 si hanno conferme concrete che siano disponibili e usabili, quindi è difficile scriverci qualsiasi cosa su...
Al contrario se devi sparare grosso sui chip c'è sempre qualcosa da dire :sofico:
Comunque penso che a fine mese si avranno rumors più solidi.
Si quando ci saranno i primi sample funzionanti. Solitamente un mese prima, spuntano i bench.
ah, come pensavo...ma ci sarebbe da sperarlo, un 16-20% su certi titoli non mi pare mica un risultato da elogiare
Beh considera lo scaling sui chip grandi, altrimenti la 2080ti decollava.
Cmq i primi sample funzionanti, almeno 2 mesi prima.
Dopo la fonderia ci sono alcuni mesi da effettuare per vari aspetti, come la produzione dei sample, debug del silicio, correzione dei bug, test di convalida. Quando i chip sono perfetti di tutto, si passa ai driver, bios etc.
Bisogna vedere a che punto è AMD in questo.
appunto nn capisco il malcontento
3584 》2944/3072
4352 》 3840
Il malcontento generale, è che si rischia un nuovo salto di fascia. Ad esempio il GA104, sarà la 3070.:)
A livello di chip ci si aspetta una nuova 780 più devastata.:)
Però voi vi siete fermati sulla slide più stupida...
Attivare il RT su RDNA2 costerà poco in termini di performaces
e tutto sto popò di roba meno di 1000 dollari..
Io mi sono fermato a 14gb di ram:p
Cmq anche qua, tralasciando quel dato, sparano 384bit a 21 gb/s, ma dove le avranno prese ste ram.:fagiano:
Inoltre hanno preso il clock di PS5, ed elevato ad 80cu, che neppure si chiamano più così, ma DCU.
Inoltre nessuna menzione al RT, potenza di picco, RT core etc.
Ale55andr0
16-06-2020, 15:23
Io mi sono fermato a 14gb di ram:p
Cmq anche qua, tralasciando quel dato, sparano 384bit a 21 gb/s, ma dove le avranno prese ste ram.:fagiano:
Inoltre hanno preso il clock di PS5, ed elevato ad 80cu, che neppure si chiamano più così, ma DCU.
Inoltre nessuna menzione al RT, potenza di picco, RT core etc.
il clock di ps5, per quei 30s che lo tiene comunque è 2.23 non 2.22 :O
non si sono nemmeno impegnati a far combaciare i tflop in modo coerente col clock e le CU
amon.akira
16-06-2020, 15:32
Il malcontento generale, è che si rischia un nuovo salto di fascia. Ad esempio il GA104, sarà la 3070.:)
A livello di chip ci si aspetta una nuova 780 più devastata.:)
780 649$
780Ti 699$
980 549$
980Ti 649$
1080 599$
1080Ti 699$
2080 699$
2080Ti 999$
praticamente la x80 dal 2013 ha subito +50$ (comprata una 2080 palit gaming pro fine ottobre 2018 a 720€)
la Ti ha sostituito la titan perchè è uscita subito e con 754mm, questo è stato lo sbalzo...di solito le altre Ti uscivano da 6 a 10mesi dopo.
questa volta secondo me potrebbero partire anche con uno street price di -50$ rispetto a turing.
mikael84
16-06-2020, 15:46
il clock di ps5, per quei 30s che lo tiene comunque è 2.23 non 2.22 :O
non si sono nemmeno impegnati a far combaciare i tflop in modo coerente col clock e le CU
Ah ecco.:p
780 649$
780Ti 699$
980 549$
980Ti 649$
1080 599$
1080Ti 699$
2080 699$
2080Ti 999$
praticamente la x80 dal 2013 ha subito +50$ (comprata una 2080 palit gaming pro fine ottobre 2018 a 720€)
la Ti ha sostituito la titan perchè è uscita subito e con 754mm, questo è stato lo sbalzo...di solito le altre Ti uscivano da 6 a 10mesi dopo.
questa volta secondo me potrebbero partire anche con uno street price di -50$ rispetto a turing.
E' qui che casca l'asino. La GPU di riferimento x04 era la 680 a 500$.
La 780 costava tanto proprio perchè era una derivazione del chippone, come dovrebbe essere la 3080, infatti i prezzi sono -50 dalla TI..:)
Questo ovviamente non si era mai più ripetuto.
E' come se turing avesse un'ulteriore cut a 899 o a 949$.
concordo e scusate l'OT ma a me interessa solo questo :)
https://www.rpgitalia.net/rpg-world/161143-baldurs-gate-3-in-accesso-anticipato-ad-agosto/
I miei giochi preferiti sono I 2 BG. Ma questo BG3 non lo comprerò mai... Dovevano chiamarlo in altro modo, così è voler sfruttare solo un nome mitico....
Detto questo la mia 2080Ti mi sa che la terrò ancora un anno :D
Spero che AMD attacchi il mercato GPU come ha fatto con le CPU
amon.akira
16-06-2020, 15:57
E' qui che casca l'asino. La GPU di riferimento x04 era la 680 a 500$.
La 780 costava tanto proprio perchè era una derivazione del chippone, come dovrebbe essere la 3080, infatti i prezzi sono -50 dalla TI..:)
Questo ovviamente non si era mai più ripetuto.
E' come se turing avesse un'ulteriore cut a 899 o a 949$.
vedremo ad agosto...ricordo anche un commento non so se era jensen o altro responsabile nvidia che cmq esprimeva la volontà di abbassare il prezzo rispetto a turing, il pubblico confronterebbe 2080 vs 3080 non tu104 vs ga102
non posso neanche dire "felice di sbagliarmi", in questo caso spero ti sbagli tu :D
mikael84
16-06-2020, 17:28
vedremo ad agosto...ricordo anche un commento non so se era jensen o altro responsabile nvidia che cmq esprimeva la volontà di abbassare il prezzo rispetto a turing, il pubblico confronterebbe 2080 vs 3080 non tu104 vs ga102
non posso neanche dire "felice di sbagliarmi", in questo caso spero ti sbagli tu :D
Sui prezzi non mi sono mai sbilanciato di preciso, al massimo, ho fatto qualche ragionamento, dopo questi leak. Ovviamente fanno riflettere un pochino.:p
Nel caso spero che sia l'opposto.:D
1500 una GPU da gaming è fuori dal mondo, stiamo esagerando, e per cosa poi? Per giocare giochi console con gli effetti ad ultra? Almeno prima avevi la scusa del 4k
1500 una GPU da gaming è fuori dal mondo, stiamo esagerando, e per cosa poi? Per giocare giochi console con gli effetti ad ultra? Almeno prima avevi la scusa del 4k
Mi trovi perfettamente d'accordo :)
Io cmq continuo a sperare in una riduzione dei prezzi, anche se poi sarà più difficile vendere la 2080Ti
Mi trovi perfettamente d'accordo :)
Io cmq continuo a sperare in una riduzione dei prezzi, anche se poi sarà più difficile vendere la 2080Ti
Onestamente non credo che una volta lanciata la nuova gamma di gpu ti preoccupi di vendere la vecchia, basta ridurne il prezzo resta solo una questione di smaltimento, ma ad esempio oggi una 1080TI chi se la compra? solo usata, e forse nuova manco la trovi piu', non ne ho idea.Di sicuro qui come anche altrove non stiamo aspettando ampere per comprarci una turing, manco a prezzo ribassato. quando escono le nuove console si rimescolano sempre un po le carte, innanzitutto l'evoluzione tecnologica sta rallentando, poi per creare il gap incredibile che c'e ad oggi tra una PS4 e una Turing ce ne vogliono di generazioni GPU. A dicembre usciranno i nuovi fermacarte che muovono giochi a 4k a 30/60 fps e con quale coraggio nvidia ti sparerebbe una GPU che offre prestazioni di poco superiori a 1200$, cioe' il prezzo ridicolo di una 2080ti ad ora? Almeno fino all'unveil delle console next gen se ti compravi una turning potevi provare in anteprima qualche gioco ray tracing o spararti RDR2 a 4k ultra, ma ora il senso?
razor820
16-06-2020, 22:04
Il vecchio fermacarte come lo chiami, ovvero la PS4, ha 10 anni o giù per li, e guarda fino ad ora i miracoli che ha fatto...
Figurati la nuova generazione di consolle cosa riuscirà a fare...Anzi non mi aspetto altro, così nvidia ci penserà più di una volta prima di far uscire le nuove gpu e stabilire il prezzo.. Anzi son sicuro che L uscita sarà o anticipata in estate o L ipotesi anche più probabile dopo Natale.. Farle uscire in concomitanza con L uscita della ps5 sarebbe un suicidio
amon.akira
16-06-2020, 22:27
Il vecchio fermacarte come lo chiami, ovvero la PS4, ha 10 anni o giù per li, e guarda fino ad ora i miracoli che ha fatto...
Figurati la nuova generazione di consolle cosa riuscirà a fare...Anzi non mi aspetto altro, così nvidia ci penserà più di una volta prima di far uscire le nuove gpu e stabilire il prezzo.. Anzi son sicuro che L uscita sarà o anticipata in estate o L ipotesi anche più probabile dopo Natale.. Farle uscire in concomitanza con L uscita della ps5 sarebbe un suicidio
novembre 2013, fa 7 anni all uscita della ps5 ma è vero ne dimostra 10+ :asd: , ieri ho visto resident evil 3 sulla liscia...mamma mia se è giocare quello....oltre al fatto che sembrava di avere una turbina in stanza.
Ci sono certi titoli che siamo al limite della denuncia...non puoi giocare a 15frame con quella grafica e divertirti...solo le esclusive sono diciamo giocabili e godibili.
Tant'è vero che per la prima volta sono uscite le versioni mid gen proprio per colmare un gap che era diventato enorme
mikael84
16-06-2020, 23:29
novembre 2013, fa 7 anni all uscita della ps5 ma è vero ne dimostra 10+ :asd: , ieri ho visto resident evil 3 sulla liscia...mamma mia se è giocare quello....oltre al fatto che sembrava di avere una turbina in stanza.
Ci sono certi titoli che siamo al limite della denuncia...non puoi giocare a 15frame con quella grafica e divertirti...solo le esclusive sono diciamo giocabili e godibili.
Se giocare è questo...anche no
https://www.youtube.com/watch?v=clQfCP3NFuc
Nella maggior parte giravano come una 750ti.
Nei giochi pro sony, si spingono ad un livello molto, molto basso, ed impiegano anni, quindi i giochi partono più curati.
Ora con Vulkan nvidia viaggia di lusso, hanno provato ad imbottire di FP16 i giochi, per favorire un'architettura, ma ora con i tensor, hai voglia di FP16.
Crysis era next gen per davvero, F.e.a.r, oblivion, quake4, call of juarez, scendendo ancora, far cry, doom3, non queste minestre riscaldate.
Nessun gioco mi ha colpito, poi visti così è tutto dire, ricordo ancora i video di watch dogs, e la serie finale.:sofico:
amon.akira
16-06-2020, 23:39
si nelle esclusive migliora il lv di programmazione generalmente (tempo a disposizione), ma c'è molta piu cura per i dettagli artistici, che io chiamo "man power" quindi olio di gomito x rileccare cose che non richiedono potenza hw... ma poi vedi produzioni grosse come red dead multi e tutto si ridimensiona, capisci che l hw è quello e non si scappa, non c'è nessuna salsa segreta :)
mikael84
17-06-2020, 00:04
si nelle esclusive migliora il lv di programmazione generalmente (tempo a disposizione), ma c'è molta piu cura per i dettagli artistici, che io chiamo "man power" quindi olio di gomito x rileccare cose che non richiedono potenza hw... ma poi vedi produzioni grosse come red dead multi e tutto si ridimensiona, capisci che l hw è quello e non si scappa, non c'è nessuna salsa segreta :)
Bravissimo, assolutamente vero. Prima avevano anche il vantaggio del basso livello, ora lo vediamo ciò che succede anche li, non a caso red dead è vulkan.
Inoltre spesso c'è pure il trucchetto, nella scena renderizzata, ciuffetto d'erba, meno foglie, lod etc, ad occhio neppure te ne accorgi. Meno male che qualcuno si sta prendendo la briga di osservare a puntino tutto.:)
Penare che nvidia non venda le schede per ste console è assurdo.
Con hopper saremmo punto e a capo.
Le console sono un po' storia a sé, alla fine la PS4 mi pare monti qualcosa di paragonabile a una 7790 mentre PS4 pro circa RX 570.
Qualche miglioramento c'è rispetto a un PC analogo ma nulla che gridi al miracolo videoludico, forse solo per le esclusive c'è una cura maggiore, ma li stai sviluppando un titolo chiuso su una piattaforma ben definita e puoi fare tutti i magheggi che vuoi...
Forse i maggiori miracoli dei porting sono stati visti su Nintendo Switch se si pensa che monta una Maxwell da 256cc a 1000/1267mhz e una CPU ARM64 neanche tra le migliori visto che monta 4xA57@1.9ghz, e ovviamente analizzando dal punto di vista tecnico i giochi complessi perdono tanto graficamente ma essendo una console portatile che oscilla sui 7/13w la cosa passa in secondo piano.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Thunder-74
17-06-2020, 07:38
Per me si commette sempre i solito errore di paragonare console e PC, quando in realtà sono indirizzati a target differenti. Chi è abituato a giocare su console non se lo pone il problema del framerate. Sinceramente per molto tempo ho giocato con Playstation e Xbox 360 e per me il PC era per fare dell'altro. Tant'è che davo più importanza alla CPU che non alla VGA, mai mi sarei sognato di spenderci tanto su questo componente.
Ovvio che poi se entri nel mondo del gaming PC, ti accorgi di tante cose e difficilmente torni indietro. Però posso dirvi che alcune esclusive console meritano di essere giocate e come dicevate, sono molto più curate rispetto alla maggior parte dei titoli multi piattaforma. Ho preso una PS4 per alcuni di questi e anche se ho dovuto sottostare ai 30fps, vi posso dire che ne è valsa la pena. Grazie a cielo titoli in terza persona, fossero stati FPS, avrei dovuto trovare il modo di fare Overclock anche li :D
In conclusione, non condanno le console perchè mi rendo conto che danno modo a molti di poter giocare con un costo contenuto e per molti anni. Il PC gaming di un certo livello, è un lusso alla fine.
Legolas84
17-06-2020, 08:29
Bravissimo, assolutamente vero. Prima avevano anche il vantaggio del basso livello, ora lo vediamo ciò che succede anche li, non a caso red dead è vulkan.
Inoltre spesso c'è pure il trucchetto, nella scena renderizzata, ciuffetto d'erba, meno foglie, lod etc, ad occhio neppure te ne accorgi. Meno male che qualcuno si sta prendendo la briga di osservare a puntino tutto.:)
Penare che nvidia non venda le schede per ste console è assurdo.
Con hopper saremmo punto e a capo.
Si ma questo non toglie che NVIDIA e AMD sono dei ladracci. Uscisse Steam per console, addio. Non comprerei più nemmeno una vite per il PC.
E non proviamo a giustificare questi prezzi eh.... che non c'è un bel niente da giustificare. Silicio, tecnologia.... ricordo che G80 che era rivoluzionario almeno quanto Turing costava 700 euro, non il doppio.
Se giocare è questo...anche no
https://www.youtube.com/watch?v=clQfCP3NFuc
Nella maggior parte giravano come una 750ti.
Nei giochi pro sony, si spingono ad un livello molto, molto basso, ed impiegano anni, quindi i giochi partono più curati.
Ora con Vulkan nvidia viaggia di lusso, hanno provato ad imbottire di FP16 i giochi, per favorire un'architettura, ma ora con i tensor, hai voglia di FP16.
Crysis era next gen per davvero, F.e.a.r, oblivion, quake4, call of juarez, scendendo ancora, far cry, doom3, non queste minestre riscaldate.
Nessun gioco mi ha colpito, poi visti così è tutto dire, ricordo ancora i video di watch dogs, e la serie finale.:sofico:
quel titolo non smette di stupire.
Ho penato per farlo andare in hdr alla fine è andato. Warhead sembra un gioco odierno ha dato meno problemi.
2 e 3 stupendi le console posso solo mangiar polvere 4k hdr filtri attivi.
Non ce partita con una gloria del passato a 28, le nuove Ampere sono iperspazio per sony e microsoft.
Chi vede qualcosa di interessante in una console è piu interessato a giocare che appassionato di elettronica hardware.
albero77
17-06-2020, 09:05
Davvero state paragonando una console da 5/600 euro con pc di fascia media dove, se va bene, SOLO il comparto video costa quanto la console stessa?
razor820
17-06-2020, 09:11
Per me si commette sempre i solito errore di paragonare console e PC, quando in realtà sono indirizzati a target differenti. Chi è abituato a giocare su console non se lo pone il problema del framerate. Sinceramente per molto tempo ho giocato con Playstation e Xbox 360 e per me il PC era per fare dell'altro. Tant'è che davo più importanza alla CPU che non alla VGA, mai mi sarei sognato di spenderci tanto su questo componente.
Ovvio che poi se entri nel mondo del gaming PC, ti accorgi di tante cose e difficilmente torni indietro. Però posso dirvi che alcune esclusive console meritano di essere giocate e come dicevate, sono molto più curate rispetto alla maggior parte dei titoli multi piattaforma. Ho preso una PS4 per alcuni di questi e anche se ho dovuto sottostare ai 30fps, vi posso dire che ne è valsa la pena. Grazie a cielo titoli in terza persona, fossero stati FPS, avrei dovuto trovare il modo di fare Overclock anche li :D
In conclusione, non condanno le console perchè mi rendo conto che danno modo a molti di poter giocare con un costo contenuto e per molti anni. Il PC gaming di un certo livello, è un lusso alla fine.
Straquoto mi hai tolto le parole di bocca
devAngnew
17-06-2020, 09:42
Si ma questo non toglie che NVIDIA e AMD sono dei ladracci. Uscisse Steam per console, addio. Non comprerei più nemmeno una vite per il PC.
E non proviamo a giustificare questi prezzi eh.... che non c'è un bel niente da giustificare. Silicio, tecnologia.... ricordo che G80 che era rivoluzionario almeno quanto Turing costava 700 euro, non il doppio.
:O e con la crisi economica mondiale all'orizzonte a voglia a giustificare i prezzi al rialzo :rolleyes:
bagnino89
17-06-2020, 09:51
Si ma questo non toglie che NVIDIA e AMD sono dei ladracci. Uscisse Steam per console, addio. Non comprerei più nemmeno una vite per il PC.
E non proviamo a giustificare questi prezzi eh.... che non c'è un bel niente da giustificare. Silicio, tecnologia.... ricordo che G80 che era rivoluzionario almeno quanto Turing costava 700 euro, non il doppio.
Assolutamente d'accordo. Di certo il fatto che adesso Nvidia sviluppi GPU con raster + tensor + RT, di certo non aiuta a tenere bassi i prezzi.
Quanto vorrei una simil 2080S/2080 Ti con solo CUDA core, senza orpelli tensor e RT; costerebbe molto meno, scalderebbe e consumerebbe molto meno, e sarebbe una furia.
Io sulla switch speravo in un supporto a Steam link o Rainway ma nada... Hanno persino boicottato le app di streaming come Netflix o Prime Video...
Sony e Microsoft sono più aperte di Nintendo e sui loro store ci sono spesso promo di vecchi titoli e alcuni anche offerti gratuitamente ma un'apertura totale delle piattaforme é improbabile nel breve termine...
Sono ecosistemi molto diversi...
Personalmente preferisco il PC in genere sia per le performance che per la possibilità di portarmi dietro la galleria di giochi anche sul notebook ovunque sia...
La switch la presi per la portatilitá ma alla fine sto giocando solo le esclusive che devo dire sono decisamente appaganti, i titoli cross platform costano una ladrata e non vale neanche molto la pena preferisco goderneli su PC.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Predator_1982
17-06-2020, 11:39
:O e con la crisi economica mondiale all'orizzonte a voglia a giustificare i prezzi al rialzo :rolleyes:
non so se avete letto del nuovo trailer per un gioco stategico di prossima uscita: Inkulinati
Nessun titolo si addice meglio di questo, per noi, nell'attuale mercato delle schede grafiche per PC
Thunder-74
17-06-2020, 11:45
Trovata la mia prossima VGA... :sofico:
https://i.imgur.com/Oe2s5x2l.jpg
OrazioOC
17-06-2020, 11:48
Trovata la mia prossima VGA... :sofico:
Ma che figata. :eek: :eek:
mikael84
17-06-2020, 12:15
Si ma questo non toglie che NVIDIA e AMD sono dei ladracci. Uscisse Steam per console, addio. Non comprerei più nemmeno una vite per il PC.
Scontato, e di molto pure. Poi se ci metti il cartello, guarda navi che ha combinato.
E non proviamo a giustificare questi prezzi eh.... che non c'è un bel niente da giustificare. Silicio, tecnologia.... ricordo che G80 che era rivoluzionario almeno quanto Turing costava 700 euro, non il doppio.
G80 era rivoluzionario, ma non avevano ancora scalato di fascia, ricordi la questione 680 e 7970, li il mercato incominciò ad impazzire. La 580 era ancora ben posizionata.
G80 per 700 euro aveva il core della 2070, ed i costi di silicio non erano così cari.
Con questo non voglio giustificare nulla, ma bisogna pure valutare il tutto, anche a livello tecnico.
Inutile accanirsi quando al d1 compravi le 1080 in sli, silici da 314mm2 (roba quasi ai livelli della 1660).
quel titolo non smette di stupire.
Ho penato per farlo andare in hdr alla fine è andato. Warhead sembra un gioco odierno ha dato meno problemi.
2 e 3 stupendi le console posso solo mangiar polvere 4k hdr filtri attivi.
Non ce partita con una gloria del passato a 28, le nuove Ampere sono iperspazio per sony e microsoft.
Chi vede qualcosa di interessante in una console è piu interessato a giocare che appassionato di elettronica hardware.
Con reshade non invecchia mai.:p
TigerTank
17-06-2020, 13:33
Trovata la mia prossima VGA... :sofico:
I Lego tutto possono :cool: :D
https://overclock3d.net/gfx/articles/2020/06/16062041940s.jpg
Ahi ahi ahi, ancora l'AIO di fabbrica. Sarà mica un forno.
TigerTank
17-06-2020, 14:14
EDIT: doppio post.
mikael84
17-06-2020, 14:28
Ahi ahi ahi, ancora l'AIO di fabbrica. Sarà mica un forno.
No è un fake, pari a quello della BFG da 24gb.:sofico:
Legolas84
17-06-2020, 14:31
Scontato, e di molto pure. Poi se ci metti il cartello, guarda navi che ha combinato.
G80 era rivoluzionario, ma non avevano ancora scalato di fascia, ricordi la questione 680 e 7970, li il mercato incominciò ad impazzire. La 580 era ancora ben posizionata.
G80 per 700 euro aveva il core della 2070, ed i costi di silicio non erano così cari.
Con questo non voglio giustificare nulla, ma bisogna pure valutare il tutto, anche a livello tecnico.
Inutile accanirsi quando al d1 compravi le 1080 in sli, silici da 314mm2 (roba quasi ai livelli della 1660).
Con reshade non invecchia mai.:p
eppure a me sembra che spesso (anche in questo tuo ultimo post) si cerca di giustificare in qualche modo i prezzi di queste schede... eh ma il livello tecnico, eh ma i mm2, eh ma il silicio, eh ma 680 vs 7970....
Il punto è che se volessero, potrebbero tranquillamente vendere 2080ti a 750 euro, 2080 a 600, 2070 a 450, 2060 a 300..... e ci guadagnerebbero comunque il giusto. Invece sti furboni ci stanno semplicemente lucrando più del dovuto.
Paradossalmente gli unici prezzi giusti per queste VGA si trovano ogni tanto su Amazon Warehouse il che è tutto dire....
AMD e NVIDIA non stanno nemmeno usando la vasellina, e sembra piaccia così.... :D
TigerTank
17-06-2020, 14:46
No è un fake, pari a quello della BFG da 24gb.:sofico:
Ah ok, mi sembravano un pò strani quei numeri :D
mikael84
17-06-2020, 15:02
eppure a me sembra che spesso (anche in questo tuo ultimo post) si cerca di giustificare in qualche modo i prezzi di queste schede... eh ma il livello tecnico, eh ma i mm2, eh ma il silicio, eh ma 680 vs 7970....
Beh legolas, non è proprio giustificare, un chip da 754mm2 non è proprio semplice da realizzare, se non fosse per il mercato pro, non l'avresti mai visto. Un G80 così, non l'avresti visto a 700 euro.
Su questo punto non si può sorvolare e fare finta di niente.
Ci stanno lucrando, si, senza concorrenza, hanno alzato di una fascia con turing, dopo quella famosa della 680 che ha scombussolato il mercato.:)
Il punto è che se volessero, potrebbero tranquillamente vendere 2080ti a 750 euro, 2080 a 600, 2070 a 450, 2060 a 300..... e ci guadagnerebbero comunque il giusto. Invece sti furboni ci stanno semplicemente lucrando più del dovuto.
Quando sei in monopolio puoi fare tutto. Anche io farei così, anche tu.
Nvidia va aggredita, non mi stancherò mai di ripeterlo, ricordi che successe alla 780? Se la concorrente, si adegua, i prezzi continueranno ad aumentare.
Pensa se ora GA 104 (3070) prende il posto di TU104.
In AMD dicono, se le prezza nvidia, le prezzo pure io così, con la gioia dei fan, che di AMD non comprano nulla però.
Paradossalmente gli unici prezzi giusti per queste VGA si trovano ogni tanto su Amazon Warehouse il che è tutto dire....
AMD e NVIDIA non stanno nemmeno usando la vasellina, e sembra piaccia così.... :D
Non dirlo a me, che per colpa di questo mercato, sono andato a pescare una mid.
Quando ho provato a spiegare, che AMD con navi poteva realmente fare male ad nvidia in maniera tecnica, analizzando il layout, non sparando due numeri a tombola, mettevano faccine varie, senza conoscere minimamente la questione.
Quindi, accontentiamoci del cartello, che ti devo dire.:)
OrazioOC
17-06-2020, 15:09
Quando sei in monopolio puoi fare tutto. Anche io farei così, anche tu.
Nvidia va aggredita, non mi stancherò mai di ripeterlo, ricordi che successe alla 780? Se la concorrente, si adegua, i prezzi continueranno ad aumentare.
Pensa se ora GA 104 (3070) prende il posto di TU104.
In AMD dicono, se le prezza nvidia, le prezzo pure io così, con la gioia dei fan, che di AMD non comprano nulla però.
Triste realtà, su molte fasce tutt'ora nvidia dorme sogni beatamente già con turing, se rdna 2 non si dimostrerà all'altezza della situazione mi aspetto prezzi allarmanti.
Già ad oggi siamo quasi al ridicolo, 2060 a 350 euro, 2070 super a quasi 600, o anche 1660 super a quasi 300, sono prezzi che fanno ribrezzo.:rolleyes:
Non dirlo a me, che per colpa di questo mercato, sono andato a pescare una mid.
Quando ho provato a spiegare, che AMD con navi poteva realmente fare male ad nvidia in maniera tecnica, analizzando il layout, non sparando due numeri a tombola, mettevano faccine varie, senza conoscere minimamente la questione.
Quindi, accontentiamoci del cartello, che ti devo dire.:)
Ma no dai, è meglio postare slides palesemente fake piuttosto che prendersi la briga di analizzare veramente i chip e trarre qualche conclusione verosimile. :asd:
AceGranger
17-06-2020, 15:12
Il punto è che se volessero, potrebbero tranquillamente vendere 2080ti a 750 euro, 2080 a 600, 2070 a 450, 2060 a 300..... e ci guadagnerebbero comunque il giusto. Invece sti furboni ci stanno semplicemente lucrando più del dovuto.
si ma è un punto senza senso... non sono prodotti del mercato etico... puoi fare quel ragionamento per ogni prodotto sulla faccia della terra.
come dire che a te potrebbero anche dare uno stipendio ridotto e ridurti le vacanze, cosi, perchè alcuni pensano che guadagneresti e avresti comunque le "giuste" giornate di riposo :asd:
il giusto prezzo di un prodotto è il massimo al quale è possibile venderlo sostenendo i volumi di vendita previsti, ne piu ne meno.
tu la vedi che paghi di piu, io la vedo che pago molto meno :stordita:
Legolas84
17-06-2020, 15:15
Beh legolas, non è proprio giustificare, un chip da 754mm2 non è proprio semplice da realizzare, se non fosse per il mercato pro, non l'avresti mai visto. Un G80 così, non l'avresti visto a 700 euro.
Su questo punto non si può sorvolare e fare finta di niente.
Ci stanno lucrando, si, senza concorrenza, hanno alzato di una fascia con turing, dopo quella famosa della 680 che ha scombussolato il mercato.:)
Quando sei in monopolio puoi fare tutto. Anche io farei così, anche tu.
Nvidia va aggredita, non mi stancherò mai di ripeterlo, ricordi che successe alla 780? Se la concorrente, si adegua, i prezzi continueranno ad aumentare.
Pensa se ora GA 104 (3070) prende il posto di TU104.
In AMD dicono, se le prezza nvidia, le prezzo pure io così, con la gioia dei fan, che di AMD non comprano nulla però.
Non dirlo a me, che per colpa di questo mercato, sono andato a pescare una mid.
Quando ho provato a spiegare, che AMD con navi poteva realmente fare male ad nvidia in maniera tecnica, analizzando il layout, non sparando due numeri a tombola, mettevano faccine varie, senza conoscere minimamente la questione.
Quindi, accontentiamoci del cartello, che ti devo dire.:)
Sul primo punto perdonami ma non sono d'accordo. Resto dell'idea che potrebbero vendere la 2080Ti tra i 650 e i 750 euro e guadagnarci tranquillamente. Quella di piazzarla a 1300 è una scelta dettata dall'ingordigia e non dal fatto che a loro la scheda costa 1000 euro e devono rientrarci. Testimone anche il fatto che i risultati finanziari di NVIDIA sono sempre più stellari.
Per il resto è il solito discorso.... AMD non ha aggredito un bel niente e si è adeguata facendo cartello. Ma di fatti io resto basito anche a vedere la gente contenta di comprare una 5700 ai prezzi cui viene proposta....
Io attualmente comprerei solo nell'usato di Amazon Warehouse.... perchè detto francamente una 2070 nemmeno la vorrei nel case. Ma a volte spuntano le 2080 Ti a 800 euro e a quelle giusto un pensiero lo puoi fare..... Anche se l'amaro in bocca resta sempre....
Sono curioso di vedere a quanto mettono la 3080Ti.... eh ma ha il super RT, eh ma 10000mm2...... bahhhm 1600 Euro.... :asd:
Guarda, credimi, sono contento di divertirmi con la Remastered di C&C.
E ti dirò un'altra cosa.... tra fare 20 fps in Assassin's Credd e pagare una VGA più di 1000 euro.... scelgo la prima. E sai che sono uno che ha sempre voluto il massimo nel suo PC.
Legolas84
17-06-2020, 15:16
si ma è un punto senza senso... non sono prodotti del mercato etico... puoi fare quel ragionamento per ogni prodotto sulla faccia della terra.
come dire che a te potrebbero anche dare uno stipendio ridotto e ridurti le vacanze, cosi, perchè alcuni pensano che guadagneresti e avresti comunque le "giuste" giornate di riposo :asd:
il giusto prezzo di un prodotto è il massimo al quale è possibile venderlo sostenendo i volumi di vendita previsti, ne piu ne meno.
tu la vedi che paghi di piu, io la vedo che pago molto meno :stordita:
Ma infatti è giusto, speriamo che le prossime costino ancora di più anzi :asd:
amon.akira
17-06-2020, 15:19
si ma è un punto senza senso... non sono prodotti del mercato etico... puoi fare quel ragionamento per ogni prodotto sulla faccia della terra.
come dire che a te potrebbero anche dare uno stipendio ridotto e ridurti le vacanze, cosi, perchè alcuni pensano che guadagneresti e avresti comunque le "giuste" giornate di riposo :asd:
il giusto prezzo di un prodotto è il massimo al quale è possibile venderlo sostenendo i volumi di vendita previsti, ne piu ne meno.
tu la vedi che paghi di piu, io la vedo che pago molto meno :stordita:
esatto :)
edit basta polemiche inutili
compratevi quello che potete permettervi
TigerTank
17-06-2020, 15:28
Ma infatti è giusto, speriamo che le prossime costino ancora di più anzi :asd:
https://www.youtube.com/watch?v=OnB1TgxgwEA :D
amon.akira
17-06-2020, 15:33
il bello è che spendono un fottio in schede madri super costose e cpu hedt per fare 1frame di piu, per poi lamentarsi di non avere piu budget per le vga...praticamente vogliono tutto il pc top al prezzo che dicono loro.
Legolas84
17-06-2020, 15:37
il bello è che spendono un fottio in schede madri super costose e cpu hedt per fare 1frame di piu, per poi lamentarsi di non avere piu budget per le vga...praticamente vogliono tutto il pc top al prezzo che dicono loro.
Ma no ma infatti il mio discorso vale anche per le schede madri.... che hanno raggiunto prezzi da follia quando una volta con 150-200 euro prendevi praticamente il top.
Si sono accorti che un pò tutto il mercato del PC Gaming è da spremere e lo stanno facendo. E ripeto io in passato ho anche avuto una Hydra Desk custom full liquid.... quindi ci ho speso davvero un mucchio di soldi nel PC in vita mia.
Ma con Turing - RDNA per me l'avventura del PC Enthusiast finisce qui perchè non mi va di farmi prendere per il culo. Case rigorosamente non finestrato e dentro pezzi del WareHouse se va bene.
mikael84
17-06-2020, 15:55
Triste realtà, su molte fasce tutt'ora nvidia dorme sogni beatamente già con turing, se rdna 2 non si dimostrerà all'altezza della situazione mi aspetto prezzi allarmanti.
Già ad oggi siamo quasi al ridicolo, 2060 a 350 euro, 2070 super a quasi 600, o anche 1660 super a quasi 300, sono prezzi che fanno ribrezzo.:rolleyes:
Ma no dai, è meglio postare slides palesemente fake piuttosto che prendersi la briga di analizzare veramente i chip e trarre qualche conclusione verosimile. :asd:
Eppure basta davvero poco.
https://www.hwupgrade.it/news/skvideo/nuovi-prezzi-per-le-schede-nvidia-geforce-gtx-780-e-770_49421.html
Con navi per dire un layout 2x la 5500xt (270mm2) a 349/399$ (2080/s), avrebbe fatto crollare tutto il castello di nvidia.
270mm2:) ora poi con le 16 gb/s, gli levavi pure parte dei freni.
E' solo un'esempio, ma si poteva pure realizzare, seguendo il layout un 3584st, con magari un 320bit e poco più di 300mm2.
Sul primo punto perdonami ma non sono d'accordo. Resto dell'idea che potrebbero vendere la 2080Ti tra i 650 e i 750 euro e guadagnarci tranquillamente. Quella di piazzarla a 1300 è una scelta dettata dall'ingordigia e non dal fatto che a loro la scheda costa 1000 euro e devono rientrarci. Testimone anche il fatto che i risultati finanziari di NVIDIA sono sempre più stellari.
Nvidia ci guadagna sempre, ma non si può paragonare un 754mm2, ad un 400mm2.
TU102 è un chip pensato per il pro, ed adattato a game.
Per i pro TU102 è valido, vedi nvlink, tensor etc.
Nvidia ha pensato ai pro, e lo ha fatto anche per Ampere, ai giocatori gli da gli scarti.
I costi di un chip di quelle dimensioni son quasi 4 volte quelle di un mid.;)
Per il resto è il solito discorso.... AMD non ha aggredito un bel niente e si è adeguata facendo cartello. Ma di fatti io resto basito anche a vedere la gente contenta di comprare una 5700 ai prezzi cui viene proposta....
Infatti, però questo offre il mercato.:D
Quasi un 2x rispetto a polaris, vedi il cartello, come funziona.
Sono curioso di vedere a quanto mettono la 3080Ti.... eh ma ha il super RT, eh ma 10000mm2...... bahhhm 1600 Euro.... :asd:
Per come hanno pompato il pro, niente è da escludere. tanto gliele comprano lo stesso. Ed io, ne tu possiamo farci niente, se no, non comprargliele.
E ti dirò un'altra cosa.... tra fare 20 fps in Assassin's Credd e pagare una VGA più di 1000 euro.... scelgo la prima. E sai che sono uno che ha sempre voluto il massimo nel suo PC.
No io ne scelgo una terza, non gioco proprio:p
Per il resto, si ti conosco bene, e so che cerchi il top, come lo cerco io, infatti, hai sempre avallato la politica di nvidia, come le 2 1080 in sli quasi al D1, se quello non è un furto.
Cmq per fare 20fps su AC, meglio farli pagando meno il software e prendere una scheda da 100 euro.;)
Io attualmente comprerei solo nell'usato di Amazon Warehouse.... perchè detto francamente una 2070 nemmeno la vorrei nel case. Ma a volte spuntano le 2080 Ti a 800 euro e a quelle giusto un pensiero lo puoi fare..... Anche se l'amaro in bocca resta sempre....
Io invece l'ho pressa più di un anno fa e la differenza con la 970 che avevo pure io era tale da giustificare l'esborso.
Legolas84
17-06-2020, 16:05
Io invece l'ho pressa più di un anno fa e la differenza con la 970 che avevo pure io era tale da giustificare l'esborso.
Sicuramente. Io ho la 970 solo perchè attualmente non ho moltissimo tempo per giocare e quindi non ho più aggiornato il PC. Cosa che farò tra due anni quando tornerò ad avere tempo da dedicare.
Prima avevo una 1080Ti che ho venduto prima che uscisse Turing.
AceGranger
17-06-2020, 16:12
Ma infatti è giusto, speriamo che le prossime costino ancora di più anzi :asd:
ah se mi danno le feature che voglio con le prestazioni che dico non ho problemi
Ma no ma infatti il mio discorso vale anche per le schede madri.... che hanno raggiunto prezzi da follia quando una volta con 150-200 euro prendevi praticamente il top.
Si sono accorti che un pò tutto il mercato del PC Gaming è da spremere e lo stanno facendo. E ripeto io in passato ho anche avuto una Hydra Desk custom full liquid.... quindi ci ho speso davvero un mucchio di soldi nel PC in vita mia.
Ma con Turing - RDNA per me l'avventura del PC Enthusiast finisce qui perchè non mi va di farmi prendere per il culo. Case rigorosamente non finestrato e dentro pezzi del WareHouse se va bene.
una volta nelle Geforce mica ti davano feature da datacenter e driver certificati :fagiano:.
che poi a te giustamente non servano è un'altro paio di maniche, ma come gia detto, non sono piu solo gaming oriented.
Ale55andr0
17-06-2020, 16:18
eppure a me sembra che spesso (anche in questo tuo ultimo post) si cerca di giustificare in qualche modo i prezzi di queste schede... eh ma il livello tecnico, eh ma i mm2, eh ma il silicio, eh ma 680 vs 7970....
Il punto è che se volessero, potrebbero tranquillamente vendere 2080ti a 750 euro, 2080 a 600, 2070 a 450, 2060 a 300..... e ci guadagnerebbero comunque il giusto. Invece sti furboni ci stanno semplicemente lucrando più del dovuto.
Paradossalmente gli unici prezzi giusti per queste VGA si trovano ogni tanto su Amazon Warehouse il che è tutto dire....
AMD e NVIDIA non stanno nemmeno usando la vasellina, e sembra piaccia così.... :D
facciamo 2080 a 500, 2070 a 380 e 2060 a 250....
devAngnew
17-06-2020, 16:50
ah se mi danno le feature che voglio con le prestazioni che dico non ho problemi
una volta nelle Geforce mica ti davano feature da datacenter e driver certificati :fagiano:.
che poi a te giustamente non servano è un'altro paio di maniche, ma come gia detto, non sono piu solo gaming oriented.
Appunto, perché a chi non interessano certe future le dovrebbe pagare ? :rolleyes:
devAngnew
17-06-2020, 16:53
Perché si parla di crisi da sempre, ma vendono lo stesso anche quando alzano i prezzi, e questo vuol dire che i soldi non mancano e la gente compra.
Quindi anche se Nvidia con queste nuove schede alzerà i prezzi ne venderà comunque a vagonate; non esisterà nessuna crisi e non è mai esistita, è tutta una fantasia :D
Se la crisi economica che sta per arrivare ti sembra la stessa di sempre allora alzo le mani.
AceGranger
17-06-2020, 17:22
Appunto, perché a chi non interessano certe future le dovrebbe pagare ? :rolleyes:
perchè secondo nVidia chi le vuole sono piu di chi non le vuole.
Ragazzi cari, se volete comprate quello che il mercato vi propone, al prezzo che vogliono (che poi e' sempre quello "giusto" per massimizzare il profitto).
Se a voi non va bene, liberissimi di non comprare o farlo ogni tot anni invece che ad ogni gen.
Questo vale per ogni bene non primario sul mercato.
Discutere dei prezzi (assurdi lo so) o addirittura lamentarsi, non serve a niente e straccia i testicoli di chi vi legge e ve lo dico con tutto l'affetto possibile da buon anticapitalista.
Siamo su un thread tecnico in fondo e non su un volantino degli sconti della Lidl. Fine OT per me, vi voglio bene e vi evito i discorsi sull'andamento potere d'acquisto degli ultimi 20 anni degli italiani e inflazione :sofico:
mikael84
17-06-2020, 17:30
Ah ok, mi sembravano un pò strani quei numeri :D
Fake ad arte. Bastava guardare le ram, quantità e velocità:)
Attualmente le più veloci sono queste. Le uniche ram montate su 2080 super (downclockate a 15,5) e su alcune 2070 super.
https://www.ilsoftware.it/public/shots/GDDR6_Samsung_schede_video.jpg
Thunder-74
17-06-2020, 17:33
EDIT: giuro che non avevo letto il post di Gello ,altrimenti quotavo il suo...
non esiste un prezzo giusto o sbagliato per un prodotto di consumo del tutto superfluo. Per questi beni il prezzo è dato dall'incontro dell'offerta con la domanda. Sono beni di lusso. Si può essere disposti a comprarli o meno. Non sono una medicina per la quale senza si muore.
Le aziende producono e cercano di massimizzare il profitto con la vendita dei loro beni. Inutile dare un valore "giusto" ad un bene basandosi su cosa è fatto e le sue caratteristiche , oppure "ma un tempo l'analogo prodotto veniva molto meno"... C'è stato un boom nel gaming PC ed è normale che che tutte le case produttrici cerchino di massimizzare. Mi fa piacere?No certo, ma alla fine posso solo togliermi il cappello davanti a Black Jacket... anche se non mi sta molto simpatico...
devAngnew
17-06-2020, 17:53
perchè secondo nVidia chi le vuole sono piu di chi non le vuole.
Scusate e chiudo anch'io OT. A adesso chi vuole i driver certificati son di più di quelli a cui non servono ? A allora, son sicuro che i numeri danno ragione a nvidia , amd , intel etc... :sofico:
Si sta pur parlando di un prodotto non necessario, non lo definirei un prodotto di lusso, comunque è qualcosa di cui si può fare a meno. Quindi quoto Gello, inutile discutere sui prezzi, non si può più leggervi :mad:
Per quel che mi riguarda, il cambio di GPU avverrà solo quando mi dedicherò a giochi che metteranno in crisi la 1660Ti in FHD e quindi aspetto una degna sostituta della suddetta scheda e soprattutto parsimoniosa di energia, il che potrebbe essere una ipotetica 3060 da 8 giga.
TigerTank
17-06-2020, 18:44
Però c'è da dire che il prezzo lo fanno anche gli scalmanati cronici disposti a tutto già in eventuale fase di preorder. E non mancherebbero nemmeno con una 3090 da 3000€ :D
In pratica, come reagisce la domanda dai loro studi supersegreti :sofico:
mikael84
17-06-2020, 19:05
Però c'è da dire che il prezzo lo fanno anche gli scalmanati cronici disposti a tutto già in eventuale fase di preorder. E non mancherebbero nemmeno con una 3090 da 3000€ :D
In pratica, come reagisce la domanda dai loro studi supersegreti :sofico:
La bomba JHH l'ha lanciata nel 2013 con la prima titan.
Le rese del GK110 erano molto scarse, ed in mano aveva un prodotto riuscito decentemente, ed uno troppo rovinato, per le tesla.
La più riuscita la buttò così nel gaming per vedere l'impatto di una GPU, allora top, a prezzi folli per l'epoca.
2 mesi dopo tirò fuori la 780, facendo esplodere la rabbia di tutti i possessori.
Quell'esperimento per JHH fu un successo e come dargli torto.:sofico:
Dei lamenti se ne sbatte, i soldi li fa sempre e come vuole. Bisogna farsene una ragione.
amon.akira
17-06-2020, 19:16
La bomba JHH l'ha lanciata nel 2013 con la prima titan.
Le rese del GK110 erano molto scarse, ed in mano aveva un prodotto riuscito decentemente, ed uno troppo rovinato, per le tesla.
La più riuscita la buttò così nel gaming per vedere l'impatto di una GPU, allora top, a prezzi folli per l'epoca.
2 mesi dopo tirò fuori la 780, facendo esplodere la rabbia di tutti i possessori.
Quell'esperimento per JHH fu un successo e come dargli torto.:sofico:
Dei lamenti se ne sbatte, i soldi li fa sempre e come vuole. Bisogna farsene una ragione.
esatto, poi 2018 c'è stato lo switch titan/2080ti e nuovo scalino con la titan...quindi credo improbabile un altro gradino dopo 2anni, piuttosto spero almeno 50euro sotto a sto giro visto che ci sarà anche amd :P
Per la cronaca visto che anche io trovo i prezzi eccessivi visto l'uso che ne faccio (non vorrei far passare il messaggio che bisogna sborsari felice i millini), ho una Titan X Pascal wubbata presa usata e saltero' pure questa gen a meno di offerte particolari sul mercatino, l'unica scelta che puo' fare il consumatore e' non comprare, se vi riesce difficile, fate finta che siano Radeon :sofico:
:sofico: quanta cattiveria
TigerTank
17-06-2020, 20:49
La bomba JHH l'ha lanciata nel 2013 con la prima titan.
Le rese del GK110 erano molto scarse, ed in mano aveva un prodotto riuscito decentemente, ed uno troppo rovinato, per le tesla.
La più riuscita la buttò così nel gaming per vedere l'impatto di una GPU, allora top, a prezzi folli per l'epoca.
2 mesi dopo tirò fuori la 780, facendo esplodere la rabbia di tutti i possessori.
Quell'esperimento per JHH fu un successo e come dargli torto.:sofico:
Dei lamenti se ne sbatte, i soldi li fa sempre e come vuole. Bisogna farsene una ragione.
Visto l'andazzo del 2020, ci mancherebbe solo il ritorno in auge del minare una qualche moneta elettronica :asd:
AceGranger
17-06-2020, 20:54
Scusate e chiudo anch'io OT. A adesso chi vuole i driver certificati son di più di quelli a cui non servono ? A allora, son sicuro che i numeri danno ragione a nvidia , amd , intel etc... :sofico:
oh, questa è la politica di nVidia, non sei obbligato a condividerla, le motivazioni per la quale costa cosi sono quelle; poi vedila un po come ti pare ;)
bagnino89
17-06-2020, 21:31
Per la cronaca visto che anche io trovo i prezzi eccessivi visto l'uso che ne faccio (non vorrei far passare il messaggio che bisogna sborsari felice i millini), ho una Titan X Pascal wubbata presa usata e saltero' pure questa gen a meno di offerte particolari sul mercatino, l'unica scelta che puo' fare il consumatore e' non comprare, se vi riesce difficile, fate finta che siano Radeon :sofico:Top :asd:
Inviato dal mio Pixel 3a utilizzando Tapatalk
scorpion73
17-06-2020, 23:04
se vi riesce difficile, fate finta che siano Radeon :sofico:
Questa è veramente Numero 1...
Top...
Fantastica...
:D :D :D :D
mikael84
17-06-2020, 23:13
esatto, poi 2018 c'è stato lo switch titan/2080ti e nuovo scalino con la titan...quindi credo improbabile un altro gradino dopo 2anni, piuttosto spero almeno 50euro sotto a sto giro visto che ci sarà anche amd :P
Si, penso che male andando, nvidia fa il prezzo ed AMD si adegua. Fa storcere il naso, il cambio di nomenclatura, perchè alcune fonti, un tantino serie parlano di 999$ AMD e prestazioni da 3080. Mentre TU 104 diventa GA104.
Ovviamente sono riflessioni, visto nvlink maggiorato per i pro, tensor pazzeschi...
nvidia avrà sample funzionanti a luglio, magari floppa, ed AMD prende il largo, o viceversa.:D
In tutta sincerità, spero la tua versione, che la mia.:)
Per la cronaca visto che anche io trovo i prezzi eccessivi visto l'uso che ne faccio (non vorrei far passare il messaggio che bisogna sborsari felice i millini), ho una Titan X Pascal wubbata presa usata e saltero' pure questa gen a meno di offerte particolari sul mercatino, l'unica scelta che puo' fare il consumatore e' non comprare, se vi riesce difficile, fate finta che siano Radeon :sofico:
:sbonk: :asd: :asd:
https://i.postimg.cc/xkX9zRt8/homer.png (https://postimg.cc/xkX9zRt8)
Si scherza...
Visto l'andazzo del 2020, ci mancherebbe solo il ritorno in auge del minare una qualche moneta elettronica :asd:
Ci manca pure quello, e siamo al completo.:p
.
Ciao a tutti, premesso che mi piace l'evoluzione tecnologica a prescindere dal marchio, anche se sono affezionato alle Radeon 😅, faccio una domanda ai guru del thtead:
Questo fantomatico chip aggiuntivo sulle prossime Nvidia, è plausibile oppure è una tavanata galattica?
Scusate ma dovrei andare dietro diversi post per capire se ne avete parlato.
Thunder-74
18-06-2020, 07:53
Ciao a tutti, premesso che mi piace l'evoluzione tecnologica a prescindere dal marchio, anche se sono affezionato alle Radeon 😅, faccio una domanda ai guru del thtead:
Questo fantomatico chip aggiuntivo sulle prossime Nvidia, è plausibile oppure è una tavanata galattica?
Scusate ma dovrei andare dietro diversi post per capire se ne avete parlato.
Ad oggi non si sa con certezza cosa sia e se realmente sarà presente . Sono rumors da confermare. Nel giro di qualche settimana usciranno probabilmente informazioni più certe
Inviato dal mio iPhone X utilizzando Tapatalk
cut
Per il resto è il solito discorso.... AMD non ha aggredito un bel niente e si è adeguata facendo cartello. Ma di fatti io resto basito anche a vedere la gente contenta di comprare una 5700 ai prezzi cui viene proposta....
cut
assolutamente solidale con la questione che hai sollevato.
Stanno devastando il mercato oggi una FE costa come la mia kingpin. un incubo.
Fin qui poteva anche starci mancano solo alcuni regolatori, fasi, sensori, qualche kilata di rame unita a qualche millimetro di pcb. robetta.
Nel 2010 pagai la 450gts (1gb ddr5 lusso) 110€ -negozio dai prezzi alti- oggi una scheda simile sarebbe prezzata non meno di 250€
Aggiungo solo sono 2 aziende americane leader mondiali del settore non si faranno mai vera concorrenza.
Ad amd interessa galleggiare con brevi picchi di successo, al giubbino nero interessa la grana e trovare una nuova unita di misura per centellinare le prestazioni delle sue vga.
Si scherza....
:asd: Ci mancherebbe! Ho pure una Radeon sul muletto (spenta), dobbiamo sdrammatizzare in previsione di emorragie del portafogli (segue risatina nervosa)
mircocatta
18-06-2020, 11:57
assolutamente solidale con la questione che hai sollevato.
Stanno devastando il mercato oggi una FE costa come la mia kingpin. un incubo.
Fin qui poteva anche starci mancano solo alcuni regolatori, fasi, sensori, qualche kilata di rame unita a qualche millimetro di pcb. robetta.
Nel 2010 pagai la 450gts (1gb ddr5 lusso) 110€ -negozio dai prezzi alti- oggi una scheda simile sarebbe prezzata non meno di 250€
Aggiungo solo sono 2 aziende americane leader mondiali del settore non si faranno mai vera concorrenza.
Ad amd interessa galleggiare con brevi picchi di successo, al giubbino nero interessa la grana e trovare una nuova unita di misura per centellinare le prestazioni delle sue vga.
edit
speriamo che intel si dia una mossa con le sue vga :D
Ad oggi non si sa con certezza cosa sia e se realmente sarà presente . Sono rumors da confermare. Nel giro di qualche settimana usciranno probabilmente informazioni più certe
Inviato dal mio iPhone X utilizzando TapatalkGrazie, quindi a parte quelle speculazioni, non ci sono indizi di sorta...
mikael84
18-06-2020, 14:20
:asd: Ci mancherebbe! Ho pure una Radeon sul muletto (spenta), dobbiamo sdrammatizzare in previsione di emorragie del portafogli (segue risatina nervosa)
Potrei scrivere un libro, che Camilleri spostati..:p
L'offerta la troveremmo lo stesso.:)
edit
speriamo che intel si dia una mossa con le sue vga :D
Con chip monolitici sempre più esosi, l'unica speranza è lo standard MCM.
Intel la adotterà, però inizialmente per HPC.
Nvidia nell'ultimo test, aveva qualche problema di latenze.
Con chip monolitici sempre più esosi, l'unica speranza è lo standard MCM.
Intel la adotterà, però inizialmente per HPC.
Nvidia nell'ultimo test, aveva qualche problema di latenze.
Una domanda da niubbo, AMD son 3 anni che rulla a bestia grazie all'Infinity Fabric con i Rizen è così diverso collegare due die CPU rispetto a collegare due die GPU?
Non capisco questi problemi di latenza, nelle GPU serve una latenza così diversa da quella raggiunta nelle CPU MCM?
mikael84
18-06-2020, 17:19
Ad oggi non si sa con certezza cosa sia e se realmente sarà presente . Sono rumors da confermare. Nel giro di qualche settimana usciranno probabilmente informazioni più certe
Inviato dal mio iPhone X utilizzando Tapatalk
Una novità c'è, ovvero un processore separato, che potrebbe essere la causa del TDP molto elevato.
https://www.hwupgrade.it/immagini/nvidia-rtx-3080-3090-traversal-coprocessor.png
Bisogna chiarire 2 cose.
Le varie testate, pensano ad un lavoro distaccato degli RT core, ma questo produrrebbe troppo overhead per essere sensato, in più questi devono lavorare a stretto contato con INT, FP e cache.
A me sembra di vedere il primo prototipo MCM per AI.
Nel disegno di sopra possiamo notare 36 puntini.:sofico:
Bene, questi non sono puntini ma mini core AI
https://i.postimg.cc/m2dx6YR0/usa.png
Ogni core integra 16 PE (Processing Elements), un core risk-VR (warp), una cache dati e 100 gb/s di I/O.
Il micro processore dovrebbe sforare i 3m transistor grazie ai WGRS ed ai 512 PE.
Questo è letteralmente votato al'AI, bisogna vedere se nvidia lo adatterà anche al RT, cercando di massimizzare le prestazioni del nucleo centrale, dove alloggiano gli RT core nei vari warp, dentro i GPC.
Il chip dovrebbe essere questo, quindi senza RT core interni, per l'overhead immenso.
Aggiungo, che 3mtransistor li hanno schede da 75watt. e grandezza che dovrebbe essere di 216mm2.
mikael84
18-06-2020, 17:49
Una domanda da niubbo, AMD son 3 anni che rulla a bestia grazie all'Infinity Fabric con i Rizen è così diverso collegare due die CPU rispetto a collegare due die GPU?
Non capisco questi problemi di latenza, nelle GPU serve una latenza così diversa da quella raggiunta nelle CPU MCM?
Nvidia ci sta provando, forse con hopper ci riesce, magari in ambito HPC.
Non è facile da spiegare in parole povere, ci sarebbe tanto da dire.
Nvidia generalmente si è ritrovata vari problemi, tra parallelismo, overhead, di cache e latenze estreme verso la ram.
I chip, si chiameranno GPM, (4 moduli ad esempio). Ogni GPM integra vari SM con una l1 ed l2, il problema sta nella comunicazione dei vari GPM, in quanto ogni GPM deve effettuare oltre 30 cicli di clock, ed è incasinato dalle cache non unificate.
per mantenere un livello di parallelizzazione, servirà molta velocità di banda.
I primi test, hanno evidenziato valori sopra i 100ns, impensabile per una GPU, avere certe latenze.
Con hopper, probabilmente si potrà vedere un avanzamento del progetto, o dei salti notevoli di progettazione, considerando che non sarà un chip grafico ma di puro calcolo ad altissima BW.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.