View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
OrazioOC
26-04-2020, 16:45
Speriamo solo non mi facciano lasciare 2000 euro di 3080TI a sto giro.
Chissà se rimarranno quelle le fasce o se avremo un altro innalzamento.
Dipenderà da Amd, se arriverà qualcosa di competitivo nei confronti della prossima rtx 3080 sarebbe plausibile almeno mantenere i prezzi a livello attuale, altrimenti ci sarà da sborsare tanto.
fraussantin
26-04-2020, 16:56
Speriamo solo non mi facciano lasciare 2000 euro di 3080TI a sto giro.
Chissà se rimarranno quelle le fasce o se avremo un altro innalzamento.Mah io non penso che possano salire ancora troppo di prezzo, giá Turing un po' ha arrancato specie all'inizio anche se tutto sommato ha venduto benino .
Potrebbero giocare sul binned come Hanno fatto con le prime Turing per alzare un po' l'asticella .. ma non penso di tanto.
Scusate, ma chi si può permettere il top di gamma non penso abbia problemi a spendere 500 euro in più, o sbaglio?
Un po' come chi può permettersi una ferrari, non sta certo a farsi domande se deve sborsare 50 mila euro in più ... diversamente se gli costasse il doppio, forse anche questi ci penserebbero su un attimino.
fraussantin
26-04-2020, 17:51
Scusate, ma chi si può permettere il top di gamma non penso abbia problemi a spendere 500 euro in più, o sbaglio?
Un po' come chi può permettersi una ferrari, non sta certo a farsi domande se deve sborsare 50 mila euro in più ... diversamente se gli costasse il doppio, forse anche questi ci penserebbero su un attimino.Ni ..
La Ferrari non é arrivabile da tutti , io per esempio anche se volessi non potrei comprarla.
2000 euro penso che li abbiamo tutti ..
Il fatto é se ci va di spenderceli o preferiamo lasciarceli per altre cose
Potrebbero anche prezzare 3000 euro e venderebbero lo stesso , ma bisogna vedere quanto. Certo senza concorrenza un piccolo balzo avanti ci sarà . Ma piccolo imho.
Se cosí non fosse costerebbero già per dire 10000 euro
PS e cmq anche su prezzi esorbitanti serve sempre una motivazione per alzare i prezzi .. ( anche se farlocca ma serve)
OrazioOC
26-04-2020, 17:53
Scusate, ma chi si può permettere il top di gamma non penso abbia problemi a spendere 500 euro in più, o sbaglio?
Un po' come chi può permettersi una ferrari, non sta certo a farsi domande se deve sborsare 50 mila euro in più ... diversamente se gli costasse il doppio, forse anche questi ci penserebbero su un attimino.
Si ma, 500 euro in più su 1200 sono il 40% in più, io voglio comprare una scheda nuova anche per avere un progresso reale a parità di fascia, se la 3080 ti supererà del 40% le performance della 2080 ti costando però il 40% in più, il progresso viene meno.
DarkNiko
26-04-2020, 18:33
2000 euro penso che li abbiamo tutti ..
Pensi male, senza offesa eh. Se poi 2000 euro li rimedi facili, buon per te, ma non è così per tutti, anzi....
Quando leggo queste cose penso che si perda troppo spesso il senso del denaro. Ok che siamo tutti appassionati, ma se questo deve far perdere il reale valore delle cose, stiamo messi male. :(
fraussantin
26-04-2020, 18:48
Pensi male, senza offesa eh. Se poi 2000 euro li rimedi facili, buon per te, ma non è così per tutti, anzi....
Quando leggo queste cose penso che si perda troppo spesso il senso del denaro. Ok che siamo tutti appassionati, ma se questo deve far perdere il reale valore delle cose, stiamo messi male. :(
Non ho capito il senso della seconda parte della frase.
É esattamente quello che intendo io ,.cioé:anche se 2000 euro sono alla portata di tutti ( gli interessati a ampere) non vuol dire che ci va di buttarli senza motivo..
Io sicuramente non lo faró ma non mi prendo manco una 3080..
DarkNiko
26-04-2020, 19:38
Non ho capito il senso della seconda parte della frase.
É esattamente quello che intendo io ,.cioé:anche se 2000 euro sono alla portata di tutti ( gli interessati a ampere) non vuol dire che ci va di buttarli senza motivo..
Io sicuramente non lo faró ma non mi prendo manco una 3080..
Intendo dire, per gli interessati ad Ampére, quand'anche la scheda che uscirà dovesse essere un mostro di potenza, alzare a oltranza l'asticella dei prezzi anche a ridosso dei 2000 euro solo per giustificare un eventuale "mostro tecnologico" non trovano alcuna ragione d'esser e non si tratta di potere o non potere spendere. Si tratta semplicemente di dare il valore alle cose. 2000 euro sono un target di spesa per un prodotto professionale, a livello aziendale.
Siamo giocatori, non lavoratori professionali di rendering (per quelli ci sono le Tesla o Quadro che non a caso necessitano di considerare cifre a 3 zeri), quindi spero che ci sia una virata verso dei costi più bilanciati, visto e considerato quanto costava (e costa ancora) una RTX 2080Ti che non vale nemmeno lontanamente i soldi che chiedono.
Mah io non penso che possano salire ancora troppo di prezzo, giá Turing un po' ha arrancato specie all'inizio anche se tutto sommato ha venduto benino .
Potrebbero giocare sul binned come Hanno fatto con le prime Turing per alzare un po' l'asticella .. ma non penso di tanto.
quello che mi preoccupa maggiormente è questo...se ha venduto benino ai prezzi che c'erano e che ci sono tutt'oggi a distanza di 2 anni fa mal sperare per le prossime.
Per carità, in fatto di passioni non sono proprio braccino, ci spenderei volentieri anche 800€ di scheda video considerando 2 anni di uso e che qualcosa si recupera dalla rivendita, ma qui si parla ancora di 2080Ti che hanno venduto benino a 1100€ mediamente :doh:
fraussantin
26-04-2020, 23:54
quello che mi preoccupa maggiormente è questo...se ha venduto benino ai prezzi che c'erano e che ci sono tutt'oggi a distanza di 2 anni fa mal sperare per le prossime.
Per carità, in fatto di passioni non sono proprio braccino, ci spenderei volentieri anche 800 di scheda video considerando 2 anni di uso e che qualcosa si recupera dalla rivendita, ma qui si parla ancora di 2080Ti che hanno venduto benino a 1100 mediamente :doh:Per me é follia spendere quella cifra in una GPU . Ma come ho detto non per mancanza di soldi , ma proprio per una cosa pissicologgica. Idem per un telefono , come 20k per un auto anzi li ê dove ci spendo il meno possibile.
Saró tirchio.
Poi sta situazione di totale incertezza per il futuro non aiuta.
Non riesco ad immaginarmi un altro balzo in avanti sui prezzi come pascal->Turing , sarebbe controproducente e assurdo , ma se Nvidia correrà sola non vedo neppure motivo di scenderli almeno su quella fascia.
Per me é follia spendere quella cifra in una GPU . Ma come ho detto non per mancanza di soldi , ma proprio per una cosa pissicologgica. Idem per un telefono , come 20k per un auto anzi li ê dove ci spendo il meno possibile.
Saró tirchio.
Poi sta situazione di totale incertezza per il futuro non aiuta.
Non riesco ad immaginarmi un altro balzo in avanti sui prezzi come pascal->Turing , sarebbe controproducente e assurdo , ma se Nvidia correrà sola non vedo neppure motivo di scenderli almeno su quella fascia.Alla fine ognuno ha un proprio budget psicologico per ogni giocattolo, quindi é inutile inveire ogni volta a riguardo, l'importante é essere consci dell'acquisto e sapere cosa si sta acquistando.
Io praticamente devo rifare un PC da 0 persino il case, che diversi anni fa avevo preso per fare sli/cross e ora vorrei qualcosa di più compatto anche perché c'è del vuoto sotto la GPU 😂
Comunque per avere maggiori info su ampere non ci resta che attendere il 14 maggio incrociando le dita su una data di uscita non troppo lontana.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
TigerTank
27-04-2020, 08:25
Alla fine ognuno ha un proprio budget psicologico per ogni giocattolo, quindi é inutile inveire ogni volta a riguardo, l'importante é essere consci dell'acquisto e sapere cosa si sta acquistando.
Io praticamente devo rifare un PC da 0 persino il case, che diversi anni fa avevo preso per fare sli/cross e ora vorrei qualcosa di più compatto anche perché c'è del vuoto sotto la GPU
Comunque per avere maggiori info su ampere non ci resta che attendere il 14 maggio incrociando le dita su una data di uscita non troppo lontana.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Non ti invidio, pessimo periodo per aggiornare il pc.
Mi sa che quest'anno anche in ambito vga sarà un "aspettando" un pò sofferto.
Alla fine ognuno ha un proprio budget psicologico per ogni giocattolo, quindi é inutile inveire ogni volta a riguardo, l'importante é essere consci dell'acquisto e sapere cosa si sta acquistando.
Io praticamente devo rifare un PC da 0 persino il case, che diversi anni fa avevo preso per fare sli/cross e ora vorrei qualcosa di più compatto anche perché c'è del vuoto sotto la GPU 😂
Comunque per avere maggiori info su ampere non ci resta che attendere il 14 maggio incrociando le dita su una data di uscita non troppo lontana.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
La presentano il 14 maggio? Mi son perso la cosa...
Non ti invidio, pessimo periodo per aggiornare il pc.
Mi sa che quest'anno anche in ambito vga sarà un "aspettando" un pò sofferto.
Tanto finchè non cambio monitor il pc cosi rimane :sofico:
Poi non sto neanche giocando molto, negli ultimi tempi vedo pochi titoli che mi coinvolgono, sto sopratutto rigiocando precedenti titoli che mi ero lasciato dietro e che con la 980ti si tirano su facili facili poi a 2560x1080 non è neanche traumatico XD
La presentano il 14 maggio? Mi son perso la cosa...
Ci sarà una diretta streaming su youtube (canale ufficiale Nvidia) che inizierà il 14 Maggio alle 15:00 in occasione del GTC 2020 anche se si legge che la data ufficiale per le news sia dal 19 Maggio per Nvidia, quindi bisogna attendere queste date per avere un riscontro pratico sulle nuove arrivate e si spera in una data ufficiale di lancio.
Ni ..
La Ferrari non é arrivabile da tutti , io per esempio anche se volessi non potrei comprarla.
2000 euro penso che li abbiamo tutti ..
Il fatto é se ci va di spenderceli o preferiamo lasciarceli per altre cose
Potrebbero anche prezzare 3000 euro e venderebbero lo stesso , ma bisogna vedere quanto. Certo senza concorrenza un piccolo balzo avanti ci sarà . Ma piccolo imho.
Se cosí non fosse costerebbero già per dire 10000 euro
PS e cmq anche su prezzi esorbitanti serve sempre una motivazione per alzare i prezzi .. ( anche se farlocca ma serve)
Intendo dire, per gli interessati ad Ampére, quand'anche la scheda che uscirà dovesse essere un mostro di potenza, alzare a oltranza l'asticella dei prezzi anche a ridosso dei 2000 euro solo per giustificare un eventuale "mostro tecnologico" non trovano alcuna ragione d'esser e non si tratta di potere o non potere spendere. Si tratta semplicemente di dare il valore alle cose. 2000 euro sono un target di spesa per un prodotto professionale, a livello aziendale.
Siamo giocatori, non lavoratori professionali di rendering (per quelli ci sono le Tesla o Quadro che non a caso necessitano di considerare cifre a 3 zeri), quindi spero che ci sia una virata verso dei costi più bilanciati, visto e considerato quanto costava (e costa ancora) una RTX 2080Ti che non vale nemmeno lontanamente i soldi che chiedono.
Alla fine ognuno ha un proprio budget psicologico per ogni giocattolo, quindi é inutile inveire ogni volta a riguardo, l'importante é essere consci dell'acquisto e sapere cosa si sta acquistando.
Appunto.
Io non penso di essere un privilegiato, ma nemmeno un nullatenente, sarà per il mio modo di vivere più da formica che da cicala (ed il fatto di non dover mantenere una famiglia) ... avrei la possibilità di farmi non solo una scheda da 2000 euro, ma anche un pc da 5000 euro se volessi. La questione è "quale peso dare a questo hobby"?
Personalmente ritengo che una spesa di 350-400 euro sia il massimo per una scheda grafica da gamer, quindi non prendo nemmeno in considerazione schede più costose al di là di quello che possono offrire.
Se poi ci sono schede che vanno via a 1200-1500 euro probabilmente è perché c'è mercato, altrimenti se non ci fosse nessuno ad acquistarle non ci sarebbero nemmeno tali schede. Quindi se anche le volessero vendere a 2000 euro non mi fa una piega. Non capisco invece quelli che si fanno il problema tra i 1200 o i 1800 euro: non vi siete posti un limite prima, perché farlo adesso? O avete vissuto prima al limite delle vostre possibilità ed ora vi fa rabbia non poterlo più fare oppure ci sono altri motivi che non capisco.
DarkNiko
27-04-2020, 10:57
Io sapevo (da quello che ho letto in rete) che il 14 Maggio parlerà il CEO NVidia ma non di GeForce o di schede destinate al gaming, bensì di tematiche legate più ad utilizzi professionali. Poi, felice di essere smentito.
DarkNiko
27-04-2020, 11:02
Non capisco invece quelli che si fanno il problema tra i 1200 o i 1800 euro: non vi siete posti un limite prima, perché farlo adesso? O avete vissuto prima al limite delle vostre possibilità ed ora vi fa rabbia non poterlo più fare oppure ci sono altri motivi che non capisco.
Non è difficile capire le ragioni, visto che non è che se uno fa una pazzia una volta, debba vedersi o sentirsi costretto a perpetuarla in eterno non credi ?
C'è anche chi pur ponendosi un limite pensa "Ma sì dai....si vive una volta sola...." e spende 1200 € una tantum, poi nel tempo rivaluta tutto e si tiene su una soglia di spesa nettamente più bassa (indipendentemente se possa o non possa più permettersi quella cifra).
Come vedi le ragioni possono essere tante e tutte legittime. Non sta a nessuno giudicare o capire quelle che sono le scelte che operiamo e cosa ci passa nella testa. Tuttavia, almeno per me, tutto ha una sua logica, magari anche irrazionale se vuoi, ma c'è.
Il problema di strapagare chip di fascia media è anche che si rinforza la corsa verso l'alto "guarda quanta gente ha speso 1000 euro per avere 30 % di fps in più". "ottimo allora possiamo venderle anche a prezzo maggiore.
Ormai anche amd con Navi mostra che non ha interesse a competere sul prezzo, al limite vende meno ma con profitti maggiori.
mikael84
27-04-2020, 11:43
Per Intel il problema è solo relativo ai tempi, in quanto dai rumors letti le soluzioni di fascia alta arriveranno solo nel 2021.
In tempo per dare un'ipotetica scossa.
Speriamo solo non mi facciano lasciare 2000 euro di 3080TI a sto giro.
Chissà se rimarranno quelle le fasce o se avremo un altro innalzamento.
I prezzi dovrebbero rimanere uguali a questa serie, ma molto dipenderà dalla concorrenza.
Purtroppo la 3080ti, sarà ancora una volta un padellone, di conseguenza verrà prezzata cara.
Io sapevo (da quello che ho letto in rete) che il 14 Maggio parlerà il CEO NVidia ma non di GeForce o di schede destinate al gaming, bensì di tematiche legate più ad utilizzi professionali. Poi, felice di essere smentito.
Si, verranno presentate le tesla, non le gaming.
Per conoscere al 100% le gaming, devono presentare anche le quadro, ma è difficile.
AceGranger
27-04-2020, 11:52
Intendo dire, per gli interessati ad Ampére, quand'anche la scheda che uscirà dovesse essere un mostro di potenza, alzare a oltranza l'asticella dei prezzi anche a ridosso dei 2000 euro solo per giustificare un eventuale "mostro tecnologico" non trovano alcuna ragione d'esser e non si tratta di potere o non potere spendere. Si tratta semplicemente di dare il valore alle cose. 2000 euro sono un target di spesa per un prodotto professionale, a livello aziendale.
Siamo giocatori, non lavoratori professionali di rendering (per quelli ci sono le Tesla o Quadro che non a caso necessitano di considerare cifre a 3 zeri), quindi spero che ci sia una virata verso dei costi più bilanciati, visto e considerato quanto costava (e costa ancora) una RTX 2080Ti che non vale nemmeno lontanamente i soldi che chiedono.
ma anche no.
TUTTE le RTX ora sono inquadrate dalla stessa nVidia anche come prodotti per determinati ambiti professionali, per le quali rilascia driver appositi.
vedasi anche tutti i notebook della linea nVidia STUDIO.
Le QUADRO e TESLA sono fascia Mission Critical a 360°, le prime specifiche per il mercato visual le seconde specifiche per il mercato computing, per esempio, io che mi occupo di grafica 3D e render, me ne batto anche gli zebedei di avere il mission critical a 360°, le certificazioni OPenGL o il paccheto driver GRID delle TESLA... e che felicemente evito di pagare, e faccio comunque il mio lavoro tranquillamente e pienamente in sicurezza a 1/4 del prezzo, a maggior ragione che ora ho pure i driver certificati direttamente da nVidia e non solo la certificazione del produttore software come avveniva negli anni passati dove gia si usavano le Geforce...
( molti software Pro hanno come base DirectX, ne piu ne meno di un videogioco. )
Che poi tu le veda solo come prodotti per gamer è giusto una tua visione, ma vivi giusto nel tuo mondo, che è ben lontano dal mondo professionale.
Secondo te, nVidia cosa lo ha tenuto a fare abilitato l'nVLink dalle 2070 Super alle 2080Ti? per giocare ?...
per te non vale il prezzo, io ne ho prese 2 perchè valeva eccome ;).
e ti diro di piu, le 2080Ti in ambito Pro stavano vendendo talmente bene che, per evitare di cannibalizzare troppo le QUADRO e bilanciare le vendite in entrambe le fasce, con la terza release dei driver hanno disabilitato la possibilita di mettere 2 coppie di 2080Ti in nVlink nello stesso PC, limitando a 2 sole GPU per computer e lasciare questa feature solo alle QUADRO, perchè la gente aveva scoperto che si potevano usare i bridge nVlink a 2 slot delle QUADRO e Tesla anche sulle Geforce, aggirando il fatto che nVidia per le GeForce ha presentato solo i bridge a 3 e 4 slot che fisicamente impediscono di montare 4 GPU a meno di non avere una MB con almeno 10 PCI-EX.
DarkNiko
27-04-2020, 12:36
ma anche no.
TUTTE le RTX ora sono inquadrate dalla stessa nVidia anche come prodotti per determinati ambiti professionali, per le quali rilascia driver appositi.
vedasi anche tutti i notebook della linea nVidia STUDIO.
Ciò che dici è vero ma è viziato da un aspetto che non hai considerato totalmente e ti spiego quale.
Da diverse generazioni di schede, prima ancora delle RTX, esistono diversi ambiti di utilizzo anche per quelle che vengono vendute e pubblicizzate per il gaming. Non a caso ci sono molti applicativi, come tu stesso hai sottolineato, che sfruttano la potenza di calcolo della GPU per utilizzi diversi da quelli puramente videoludici. Di conseguenza, che NVidia abbia inquadrato ora le RTX come schede destinate anche ad ambiti professionali è come la scoperta dell'acqua calda, senza offesa per nessuno. :)
Le QUADRO e TESLA sono fascia Mission Critical a 360°, le prime specifiche per il mercato visual le seconde specifiche per il mercato computing, per esempio, io che mi occupo di grafica 3D e render, me ne batto anche gli zebedei di avere il mission critical a 360°, le certificazioni OPenGL o il paccheto driver GRID delle TESLA... e che felicemente evito di pagare, e faccio comunque il mio lavoro tranquillamente e pienamente in sicurezza a 1/4 del prezzo, a maggior ragione che ora ho pure i driver certificati direttamente da nVidia e non solo la certificazione del produttore software come avveniva negli anni passati dove gia si usavano le Geforce...
( molti software Pro hanno come base DirectX, ne piu ne meno di un videogioco. )
Nulla da eccepire su questo.
Che poi tu le veda solo come prodotti per gamer è giusto una tua visione, ma vivi giusto nel tuo mondo, che è ben lontano dal mondo profesisonale.
A parte che è una brutta abitudine (non sei il solo purtroppo) attribuire all'interlocutore frasi o pensieri mai espressi o storpiarne, a proprio piacimento, il senso solo per dare credito a quello che è un libero pensiero, tanto il tuo quanto il mio, ma vengo al sodo:
Non ho mai detto che sono prodotti per gamer, ma se mi vendi una scheda video pubblicizzata per ambito gaming, indipendentemente dai suoi possibili ulteriori utilizzi, a 1500 euro o anche oltre, beh se permetti ci penso due volte a spendere quella cifra, per le tante considerazioni fatte in precedenza.
Quanto a vivere giusto nel mio mondo, non sei tu a dover stabilire in quale mondo debba stare, per cui ti invito gentilmente a dialogare in modo diverso, se vuoi dialogare e argomentare un discorso.
Secondo te, cosa lo ha tenuto a fare abilitato l'nVLink sulle 2070-2080 e 2080Ti? per giocare ?...
Per marketing, per tenere in vita lo SLI, non solo per gli utilizzi tuoi.
per te non vale il prezzo, io ne ho prese 2 perchè valeva eccome ;).
I soldi sono i tuoi, puoi anche buttarli dalla finestra. :D
Non è difficile capire le ragioni, visto che non è che se uno fa una pazzia una volta, debba vedersi o sentirsi costretto a perpetuarla in eterno non credi ?
C'è anche chi pur ponendosi un limite pensa "Ma sì dai....si vive una volta sola...." e spende 1200 € una tantum, poi nel tempo rivaluta tutto e si tiene su una soglia di spesa nettamente più bassa (indipendentemente se possa o non possa più permettersi quella cifra).
Come vedi le ragioni possono essere tante e tutte legittime. Non sta a nessuno giudicare o capire quelle che sono le scelte che operiamo e cosa ci passa nella testa. Tuttavia, almeno per me, tutto ha una sua logica, magari anche irrazionale se vuoi, ma c'è.
Ok, capisco il discorso (io stesso ho deciso che appena usciremo da questa quarantena mi prenderò un bel rampichino in fibra di carbonio - spesa prevista tra i 1500 e i 2000 euro - anche se non l'ho mai fatto prima).
Però per quanto riguarda le schede grafiche penso che si possa tradurre la questione nei seguenti termini: si passa dai 1080p ai 1440p e poi magari ai 2160p (lasciamo perdere gli 8k che non hanno senso), quindi ci si abitua ad avere sempre di più ed allora bisogna equipaggiarsi con una GPU adeguata, ma si sa che nel caso dei 4k i prezzi salgono di parecchio. Allora solamente chi non ha problemi economici (o chi non si pone alcun dubbio in merito) dovrebbe usufruire di tale tecnologia. Non chi ci sta dentro a malapena nei 1200 euro e poi se ne vengono richiesti 1500 cominciano le lamentele. Servirebbero maggiori capacità di giudizio e di riconoscere i propri limiti. Punto.
Nvidia e AMD vogliono vendere le future schede per il 4k a 2000 euro? Se trovano dei compratori fanno bene... chi non lo farebbe?
AceGranger
27-04-2020, 13:02
Ciò che dici è vero ma è viziato da un aspetto che non hai considerato totalmente e ti spiego quale.
Da diverse generazioni di schede, prima ancora delle RTX, esistono diversi ambiti di utilizzo anche per quelle che vengono vendute e pubblicizzate per il gaming. Non a caso ci sono molti applicativi, come tu stesso hai sottolineato, che sfruttano la potenza di calcolo della GPU per utilizzi diversi da quelli puramente videoludici. Di conseguenza, che NVidia abbia inquadrato ora le RTX come schede destinate anche ad ambiti professionali è come la scoperta dell'acqua calda, senza offesa per nessuno. :)
la differenza è che ora te lo certifica direttamente nVidia, e quindi la differenza la fa eccome, anche lato prezzi.
A parte che è una brutta abitudine (non sei il solo purtroppo) attribuire all'interlocutore frasi o pensieri mai espressi o storpiarne, a proprio piacimento, il senso solo per dare credito a quello che è un libero pensiero, tanto il tuo quanto il mio, ma vengo al sodo:
se ho interpretato male chiedo scusa ma, tu hai scritto, testuali parole:
2000 euro sono un target di spesa per un prodotto professionale, a livello aziendale.
Siamo giocatori, non lavoratori professionali di rendering (per quelli ci sono le Tesla o Quadro che non a caso necessitano di considerare cifre a 3 zeri)
Ora, la parte in grassetto, nel contesto in cui l'hai scritto, non mi pare si possa interpretare in modo differente... hai semplicemente scritto una cosa non vera, come spesso se ne leggono, dettata presumo dal fatto che non lavori nell'ambito.
Per "quelli" ora ci sono anche le RTX ed è per quello che tu ora le paghi di piu.
le RTX TU le vedi pubblicizzate solo come gaming, perchè nVidia lo ha detto chiaramente che le RTX sono anche per il mondo dei creator, quindi sono diventate a tutti gli effetti anche prodotti professionali, con loro driver specifici.
certo, tu ora mi potresti ridire: "c'erano anche prima", vero, ma oggi, a differenza della scorsa generazione c'è l'nVlink e la memoria unificata che, ti assicuro, è la feature piu importante da quanto hanno portato il render sulle GPU, perchè da la possibilita di aggirare in molte situazioni il limite piu grande del GPGPU, la dimensione della Vram.
nVidia ha fatto 1 ragionamento semplice:
- faccio uscire nuovi driver certificati
- lascio abilitate delle feature pro
- alzo un po il prezzo
- stimo che vendero meno GPU ai gamer ma compensero con vendite superiori in quella fascia del mercato PRO che non vede nelle QUADRO e TESLA delle GPU dal corretto prezzo/prestazioni/feature e gli invoglio a comprare GPU invece che CPU.
alla fine a nVidia frega ben poco a chi le vende, basta venderle al margine che vuole lei; vendere numericamente piu GPU non è sempre la soluzione piu remunerativa.
alla fine sono considerazioni che fanno ad ogni uscita, analizzano la situazione del mercato e decidono il prezzo stimando a chi venderanno e quanto questi saranno disposti a spendere.
Per marketing, per tenere in vita lo SLI, non solo per gli utilizzi tuoi.
per quello mica serviva tenere abilitata la memoria unificata, cosa che fra l'altro ne è all'oscuro il 99,999% dell'utenza gaming, visto che non credo varra mai sfruttata.
purtroppo, se si fanno ragionamenti sul prezzo, non si possono piu scindere i 2 mercati; una volta era tutto molto piu compartimentato, i driver Pro davano un vero boost, non solo stabilita, oggigiorno molti software pro si sono spostati su DX, non esistono piu i driver aggiuntivi per i boost, il pacchetto CUDA è identico sia nelle Pro sia nelle gaming e ora nelle gaming sono arrivati pure i driver certificati, senza contare che i game engine stanno entrando nel mondo Pro come veri e propri strumenti al pari dei "vecchi" e classici programmi per le restituzioni grafiche.
DarkNiko
27-04-2020, 14:16
la differenza è che ora te lo certifica direttamente nVidia, e quindi la differenza la fa eccome, anche lato prezzi.
Ok hai ragione, però alla fine è marketing, nulla di più. Entrambi abbiamo sufficiente sale in zucca per capirlo o quantomeno per aver capito che era già così da diverso tempo, certificazioni a parte.
se ho interpretato male chiedo scusa ma, tu hai scritto, testuali parole:
2000 euro sono un target di spesa per un prodotto professionale, a livello aziendale.
Siamo giocatori, non lavoratori professionali di rendering (per quelli ci sono le Tesla o Quadro che non a caso necessitano di considerare cifre a 3 zeri)
Ora, la parte in grassetto, nel contesto in cui l'hai scritto, non mi pare si possa interpretare in modo differente... hai semplicemente scritto una cosa non vera, come spesso se ne leggono, dettata presumo dal fatto che non lavori nell'ambito.
Avrò anche scritto una cosa non vera, nessuno è depositario di verità assolute, ci mancherebbe !!!! Ma la frase in grassetto è subordinata al rigo sopra, cioè se tu mi pubblicizzi una scheda video GeForce RTX, pensata e pubblicizzata principalmente per essere utilizzata in ambito gaming, pretendere oltre 1500 euro (2000 era una provocazione ovviamente) è una follia e non ci si può giustificare dicendo "Eh ma puoi anche usarla in ambiti professionali", semplicemente perché, a mio avviso, l'utenza professionale si orienterà di più a prodotti specifici, il che non significa che la RTX non lo sia, ma non viene venduta prioritariamente per quest'ultimo tipo di impiego !!
Per "quelli" ora ci sono anche le RTX ed è per quello che tu ora le paghi di piu.
le RTX TU le vedi pubblicizzate solo come gaming, perchè nVidia lo ha detto chiaramente che le RTX sono anche per il mondo dei creator, quindi sono diventate a tutti gli effetti anche prodotti professionali, con loro driver specifici.
NVidia è molto furba, o almeno crede che siamo tutti fessi con l'anello al naso, perché prima crea l'hype per i videogiocatori, poi conscia di avere una posizione dominante lato GPU dice "Guardate che le potete usare anche in ambito professionale, ve lo certifichiamo noi". E il tutto sempre nell'ottica del marketing e fanno bene a farlo perché chiaramente se oltre alla fetta di utenti enthusiast gaming, ci aggiungi anche quella che al posto delle Quadro o Tesla ha una valida alternativa (indiscutibilmente più economica pur parlando di cifre a 3 zeri) con le RTX, ecco che guadagni in un colpo solo più fette di mercato.
certo, tu ora mi potresti ridire: "c'erano anche prima", vero, ma oggi, a differenza della scorsa generazione c'è l'nVlink e la memoria unificata che, ti assicuro, è la feature piu importante da quanto hanno portato il render sulle GPU, perchè da la possibilita di aggirare in molte situazioni il limite piu grande del GPGPU, la dimensione della Vram.
Ne prendiamo atto, ma è anche vero che sono state anche scelte progettuali, al di là della indiscutibile utilità.
Come tu stesso hai scritto (non quoto per brevità), sanno fare bene i loro calcoli e, ancora una volta, il problema non è a quanto fissano l'asticella, quanto la percentuale di utenza a cui venderanno e sono scelte studiate e architettate ad arte. :)
AceGranger
27-04-2020, 15:03
Ok hai ragione, però alla fine è marketing, nulla di più. Entrambi abbiamo sufficiente sale in zucca per capirlo o quantomeno per aver capito che era già così da diverso tempo, certificazioni a parte.
si, pero a sto giro ti fornisce parte dei driver delle QUADRO, quindi alla fine vuole farsi pagare...
Avrò anche scritto una cosa non vera, nessuno è depositario di verità assolute, ci mancherebbe !!!! Ma la frase in grassetto è subordinata al rigo sopra, cioè se tu mi pubblicizzi una scheda video GeForce RTX, pensata e pubblicizzata principalmente per essere utilizzata in ambito gaming, pretendere oltre 1500 euro (2000 era una provocazione ovviamente) è una follia e non ci si può giustificare dicendo "Eh ma puoi anche usarla in ambiti professionali", semplicemente perché, a mio avviso, l'utenza professionale si orienterà di più a prodotti specifici, il che non significa che la RTX non lo sia, ma non viene venduta prioritariamente per quest'ultimo tipo di impiego !!
eh ma sta li il problema, sono le 2080Ti il prodotto specifico :stordita:....
tu le vedi pubblicizzate solo in ambito gaming perchè segui siti orientati al gaming, nei siti piu specializzati ti ritrovi pieno di pubblicita nVidia STUDIO creator e anche nei BLOG delle software house vengono pubblicizzate le RTX al pari delle QUADRO.
se io devo fare render e i miei lavori stanno nella Vram, mi sposto sulle GPU solo se mi vengono a costare meno delle CPU, le QUADRO costano cosi perchè ti danno accesso a piu Vram, quindi se il gioco vale la candela uno spende 10000 euro in QUADRO, senò ne spende 6000 per un PC con 64 core e 64 GB di ram e investe le 4000 euro in altro.
Le 2080Ti hanno un prezzo/prestazione che in determianti ambiti sono molto piu favorevoli delle CPU, le QUADRO semplicemente no.
nVidia sapendolo bene ha creato una fascia intermedia sul quale lucrare; in sostanza ha fatto diventare la 2080Ti quello che prima era la Titan; Titan che ora si è spostata come GPU per i ricercatori o laboratori che, per lo stesso discorso, non trovano nei 10K della TESLA un favorevole rapporto prezzo/prestazioni che invece trovano nei 3K delle Titan.
Come tu stesso hai scritto (non quoto per brevità), sanno fare bene i loro calcoli e, ancora una volta, il problema non è a quanto fissano l'asticella, quanto la percentuale di utenza a cui venderanno e sono scelte studiate e architettate ad arte.
d'altra parte è sempre stato cosi, solo che negli ultimi anni il mercato è cambiato e nVidia ha visto che il trend è quello che guadagnera di piu dal mercato Pro che da quello Gaming.
solo 5 anni fa il mercato Gaming era tipo 3 volte quello Pro, e si vendevano molte meno Geforce in ambito Pro, ora il mercato Pro nel suo totale è credo al 50-50 e stanno vendendo molte piu Geforce in questo mercato, quindi mi sa che a conti fatti, sanno bene che il mercato Pro/datacenter tira piu di quello Gaming.
felice di sbagliarmi, ma a naso la 3080Ti rimarra costosa e prendera nuovamente il posto della Titan, la Titan continuera ad essere ultracostosa e derivata dalla TESLA e le GPU sensate per il gaming saranno dalla 3080 in giu.
DarkNiko
27-04-2020, 16:21
Guarda, non ti nego che una 3080Ti la prenderei ben volentieri, ma indipendentemente dalle mie disponibilità economiche, non sono disposto a pagarla quanto una macchina utilitaria di II mano. :asd:
Ho già fatto la pazzia di acquistare una Titan X (Maxwell) nel lontano (tecnologicamente parlando) Maggio 2015 e spesi 1000 euro. Per carità, la VGA rulla ancora di brutto, ma se da 1000 si passa a 1500 sicuri io dico serenamente "Grazie, ma anche no !!!" e propenderei per qualcosa di inferiore, ma ugualmente potente, ad un costo più contenuto. :)
AceGranger
27-04-2020, 16:50
Guarda, non ti nego che una 3080Ti la prenderei ben volentieri, ma indipendentemente dalle mie disponibilità economiche, non sono disposto a pagarla quanto una macchina utilitaria di II mano. :asd:
ora che mi ci fai pensare, effettivamente il mio PC vale di piu della quotazione della mia macchina usata :asd:
Guarda, non ti nego che una 3080Ti la prenderei ben volentieri, ma indipendentemente dalle mie disponibilità economiche, non sono disposto a pagarla quanto una macchina utilitaria di II mano. :asd:
Ho già fatto la pazzia di acquistare una Titan X (Maxwell) nel lontano (tecnologicamente parlando) Maggio 2015 e spesi 1000 euro. Per carità, la VGA rulla ancora di brutto, ma se da 1000 si passa a 1500 sicuri io dico serenamente "Grazie, ma anche no !!!" e propenderei per qualcosa di inferiore, ma ugualmente potente, ad un costo più contenuto. :)
vedremo un po il 14 maggio come sara l'architettura base, ma non ho buoni presentimenti lato prezzi
Per me é follia spendere quella cifra in una GPU . Ma come ho detto non per mancanza di soldi , ma proprio per una cosa pissicologgica. Idem per un telefono , come 20k per un auto anzi li ê dove ci spendo il meno possibile.
Saró tirchio.
Poi sta situazione di totale incertezza per il futuro non aiuta.
Non riesco ad immaginarmi un altro balzo in avanti sui prezzi come pascal->Turing , sarebbe controproducente e assurdo , ma se Nvidia correrà sola non vedo neppure motivo di scenderli almeno su quella fascia.
Al discorso c'è anche da aggiungere l'uscita delle nuove console. Se con un 400-500 euro prendi un'intera piattaforma nuova che ti tira i giochi in "4k" non so quanti saranno disposti a sganciarne 1200 per una scheda di fascia alta.
Guarda, non ti nego che una 3080Ti la prenderei ben volentieri, ma indipendentemente dalle mie disponibilità economiche, non sono disposto a pagarla quanto una macchina utilitaria di II mano. :asd:
Ho già fatto la pazzia di acquistare una Titan X (Maxwell) nel lontano (tecnologicamente parlando) Maggio 2015 e spesi 1000 euro. Per carità, la VGA rulla ancora di brutto, ma se da 1000 si passa a 1500 sicuri io dico serenamente "Grazie, ma anche no !!!" e propenderei per qualcosa di inferiore, ma ugualmente potente, ad un costo più contenuto. :)
col nuovo crysis in uscita speriamo non ci voglia davvero un 3080ti.
Per i mille di gm200 sono stati i soldi meglio spesi visti in ottica quinquennale.
Anche schede molto vecchie come fermi gf106 supportano 1080 hdr12 croma 444 per nominare dinosauri a carbone con slot ISA. (2010 1gb gddr5)
Maxwell arriva al 4k ma solo via hdmi.
L' elettronica è leggermente piu complessa di quello che il marketing vuole fare apparire.
Un prodotto puo essere buono o meno buono a seconda delle mani in cui cade.
thunderforce83
29-04-2020, 09:35
Leggendo qua e la su qualche fonte abbastanza autorevole si vocifera che il lancio del 14 maggio sia riferito anche a tutto l emisfero di schede pro e gaming e non solo data center...il motivo e' che a quanto pare alcuni dati economici ed effettive intenzioni della concorrenza abbiano portato nvidia a velocizzare il lancio entro e non oltre il Q3 del corrente anno. Vedremo:)
OrazioOC
29-04-2020, 09:59
Leggendo qua e la su qualche fonte abbastanza autorevole si vocifera che il lancio del 14 maggio sia riferito anche a tutto l emisfero di schede pro e gaming e non solo data center...il motivo e' che a quanto pare alcuni dati economici ed effettive intenzioni della concorrenza abbiano portato nvidia a velocizzare il lancio entro e non oltre il Q3 del corrente anno. Vedremo:)
Hanno sganciato 7 miliardi per Mellanox, ovviamente da qualche parte dovevano rientrarci con le spese.
Tanto l'unico produttore che ti può far cambiare una 1080 ti o 2080 oggi è nvidia, che è ancora una volta costretta a battere se stessa.:rolleyes:
ultimate trip
29-04-2020, 10:44
Hanno sganciato 7 miliardi per Mellanox, ovviamente da qualche parte dovevano rientrarci con le spese.
Tanto l'unico produttore che ti può far cambiare una 1080 ti o 2080 oggi è nvidia, che è ancora una volta costretta a battere se stessa.:rolleyes:
chissà se una 3080 sarà un upgrade sensato per chi ha una 1080ti.
tolto il rt spero in un aumento sensibile anche lato raster
mattxx88
29-04-2020, 11:03
chissà se una 3080 sarà un upgrade sensato per chi ha una 1080ti.
tolto il rt spero in un aumento sensibile anche lato raster
il "sensato" non avendo un unità di misura quantificabile va a persona, per me che sto in 4k con una 2080ti il sensato sarebbe già un +40% di prestazioni
1080ti vs 3080 sarebbe lecito aspettarsi un +50% almeno imho (raster)
OrazioOC
29-04-2020, 11:03
chissà se una 3080 sarà un upgrade sensato per chi ha una 1080ti.
tolto il rt spero in un aumento sensibile anche lato raster
1080 ti e 2070 super per performance si eguagliano, tra la 2070 super e la 2080 ti ci passa un buon 40%, se la 3080 batterà anche solo di un 10% la ti, è un buon 50% in più di performance.
Confido che comunque la 3080 stacchi la 2080 ti di un 20%, mentre la 3070 potrebbe essere vicino alla 2080 ti, ma comunque sotto per performance in raster.
In tutto questo, spero che in amd ci sia stata la decenza di investire i soldi che stanno facendo con i ryzen nell'rtg, perchè quando gli fx non vendevano una mazza, per portare avanti il progetto zen i soldi venivano dalle radeon.
In tutto questo, spero che in amd ci sia stata la decenza di investire i soldi che stanno facendo con i ryzen nell'rtg, perchè quando gli fx non vendevano una mazza, per portare avanti il progetto zen i soldi venivano dalle radeon.
Un po' come per Intel dove i soldi delle future GPU dedicate vengono dalle CPU e dai chipset 😂
chissà se una 3080 sarà un upgrade sensato per chi ha una 1080ti.
tolto il rt spero in un aumento sensibile anche lato raster
È come dire se oggi passare da una 980ti a una 2080 super abbia senso...e direi di sì.
La 1080ti é un chip validissimo ma già al prossimo step esattamente come la 980ti oggi sarà confrontabile con i chippetti di fascia media e molto probabilmente le prenderà anche nel giro di qualche release driver e con gli engine più recenti.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
OrazioOC
29-04-2020, 11:45
Un po' come per Intel dove i soldi delle future GPU dedicate vengono dalle CPU e dai chipset 😂
Non è proprio la stessa cosa, il core business di intel sono sempre state le cpu, solo ora sta puntando da 0 ad entrare nel settore delle dgpu, certo aveva anche delle produzioni secondarie come chipset, periferiche, software vari, ma lato gpu sempre a zero è rimasta.
Mentre amd dopo aver acquisito ati ha avuto in mano sia un solido business nel reparto cpu che in quello gpu.
NewEconomy
29-04-2020, 11:46
Speriamo tirino fuori aggiornamenti di GPU specifiche per Machine Learning!
Non è proprio la stessa cosa, il core business di intel sono sempre state le cpu, solo ora sta puntando da 0 ad entrare nel settore delle dgpu, certo aveva anche delle produzioni secondarie come chipset, periferiche, software vari, ma lato gpu sempre a zero è rimasta.
Mentre amd dopo aver acquisito ati ha avuto in mano sia un solido business nel reparto cpu che in quello gpu.Ma forse all'inizio, ma già dopo la generazione 5000/6000 le ultime targate ati anche AMD ha dovuto reiniziare i progetti da 0 con l'architettura GCN.
Intel é nella stessa situazione oggi e non é nuova nel settore GPU, le iris hanno sempre avuto basi solidissime e alla fine si tratta di assumere ingegneri e avviare un team per espandere i progetti.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
fraussantin
29-04-2020, 11:49
Ho paura che amd con i soldi dei ryzen debba e convenga spingere i ryzen pensando a ddr5 e prepararsi alla risposta di Intel . Intel ha toppato con i 10nm è indietro con i 7 , ma non è improbabile che stia già pensando oltre per anticipare amd con ddr5.
In ogni caso con navi amd ha venducchiato bene e con buon margine. Poi non so quanto possa aver ricavato e se sono sufficenti per avanzare.
Deve darsi una svegliata però con i driver , non è possibile lasciare un prodotto sui primis mesi di vita con bug grossi.
Riguardo il raytracing secondo me avrà ancora una gen di respiro prima che diventi necessario e potrebbe sfruttare questa cosa per stare più bassa col prezzo vendere incassare e portare avanti la ricerca ( Intendo gen di GPU non di console)
La 5700xt ha venduto benino e avrebbe venduto moto meglio senza bug, perchè costava 100 euro meno della 2070super.
Secondo me c'ê la possibilità di farsi spazio nel mercato dominato da Nvidia , ma serve ragionare con la testa..
thunderforce83
29-04-2020, 12:09
Hanno sganciato 7 miliardi per Mellanox, ovviamente da qualche parte dovevano rientrarci con le spese.
Tanto l'unico produttore che ti può far cambiare una 1080 ti o 2080 oggi è nvidia, che è ancora una volta costretta a battere se stessa.:rolleyes:
hanno anche aumentato gli stipendi a tutti i dipendenti...ma si alla fine questo virus ha fatto si che le richieste per pc,cpu,gpu sia aumentato esponenzialmente.
io sono sicuro che conviene sempre cambiare, aevoglia a dire che uno con la scheda sta apposto per anni,secondo me proprio perche' tra svalutazione,miglioramento della potenza di calcolo, ottimizzazione e minor consumo conviene sempre rivendere,rimetterci un po' ed avere sempre la macchina aggiornata, a meno che sei uno che gioca veramente pochissimo e non ti frega poi tanto di portare avanti questa passione li e' un altro discorso.
Sono proprio curioso di vedere intel, insieme alle nuove schede amd, ma sopratutto huawei che a breve lancera' gpu per datacenter.
si prevede un autunno caldo, e forse fors gia' a partire da agosto:D
OrazioOC
29-04-2020, 13:35
https://www.guru3d.com/news-story/rumor-nvidia-geforce-rtx-3070-and-3080-coming-q3-2020-specs.html
mikael84
29-04-2020, 14:51
In ogni caso con navi amd ha venducchiato bene e con buon margine. Poi non so quanto possa aver ricavato e se sono sufficenti per avanzare.
Deve darsi una svegliata però con i driver , non è possibile lasciare un prodotto sui primis mesi di vita con bug grossi.
La 5700xt ha venduto benino e avrebbe venduto moto meglio senza bug, perchè costava 100 euro meno della 2070super.
Il problema di AMD è lo scaling, a poco mi serve risparmiare 100 euro, se poi, su 10 giochi, in 3 mi avvicino alla 2070s, in 4 vado come una 2060s/2070liscia, ed in 3 unreal peggiori vado come una 1070ti.
A parer mio, classificarla come 2070s a 100 euro in meno, lascia il tempo che trova.;)
https://www.guru3d.com/news-story/rumor-nvidia-geforce-rtx-3070-and-3080-coming-q3-2020-specs.html
E' fake.
Il chip con 8196st sarà il chip Tesla GA100 con HBM non la 3080ti.
Un chip del genere doppierebbe la 2080ti.:p
La 3080 viene descritta come una 2080ti a doppio RT e clock maggiorati (2,2 circa).
Questo con i 7nm si può pure fare, ma con i 7.
La 3070 invece batterebbe la 2080ti di poco.
OrazioOC
29-04-2020, 15:03
E' fake.
Il chip con 8196st sarà il chip Tesla GA100 con HBM non la 3080ti.
Un chip del genere doppierebbe la 2080ti.:p
La 3080 viene descritta come una 2080ti a doppio RT e clock maggiorati (2,2 circa).
Questo con i 7nm si può pure fare, ma con i 7.
La 3070 invece batterebbe la 2080ti di poco.
Anche secondo me è falsa la tabella, però il fatto che nvidia possa quantomeno arrivare con delle specifiche reali e definitive per ampere anche da gaming già il 14 maggio è verosimile.
nessuno29
29-04-2020, 15:11
Il problema di AMD è lo scaling, a poco mi serve risparmiare 100 euro, se poi, su 10 giochi, in 3 mi avvicino alla 2070s, in 4 vado come una 2060s/2070liscia, ed in 3 unreal peggiori vado come una 1070ti.
A parer mio, classificarla come 2070s a 100 euro in meno, lascia il tempo che trova.;)
Il problema però è di AMD o dei vecchi motori grafici dx11?
Perchè in quelli nuovi sta sempre sopra la 2070.
mikael84
29-04-2020, 15:13
Anche secondo me è falsa la tabella, però il fatto che nvidia possa quantomeno arrivare con delle specifiche reali e definitive per ampere anche da gaming già il 14 maggio è verosimile.
Basterebbe vedere la linea quadro, uno volta che hai quella, il gioco è fatto.:)
Le gaming possono presentarle al computex o al siggraph.
Cmq a partire dalle tesla, si potranno vedere i vari miglioramenti interni.
Il chip turing, salvo gli RT core, deriva dalle tesla.
Ovviamente con la decurtazione FP64 e collegamenti HBM.
Ton90maz
29-04-2020, 15:15
Alla fine ognuno ha un proprio budget psicologico per ogni giocattolo, quindi é inutile inveire ogni volta a riguardo, l'importante é essere consci dell'acquisto e sapere cosa si sta acquistando.
Ho il sospetto che la stragrande maggioranza non sappia cosa stia acquistando.
Ho decine e decine di screen di gente convinta che la loro bella scheda fiammante, pagata pure +150 euro del prezzo di listino (perché c'è scritto strix e c'ha le lucine), sia qualcosa che straccerà qualunque console presente e futura. Pochi si rendono conto che la loro 2070 super da 650 euro (perché colorata...) probabilmente, anzi sicuramente, sarà inferiore alla console microsoft.
Hanno pure il coraggio di bombardare di insulti, non riescono neanche a capire come farebbe una console ad avere una scheda video da "650 euro" all'interno. Molti non sono nemmeno consapevoli di che effetti abbia un nuovo processo produttivo. Non si rendono conto che la loro "nuova" scheda video, in realtà, è "vecchia".
Là fuori la gente non è così sveglia e informata.
OrazioOC
29-04-2020, 15:15
Basterebbe vedere la linea quadro, uno volta che hai quella, il gioco è fatto.:)
Le gaming possono presentarle al computex o al siggraph.
Cmq a partire dalle tesla, si potranno vedere i vari miglioramenti interni.
Il chip turing, salvo gli RT core, deriva dalle tesla.
Ovviamente con la decurtazione FP64 e collegamenti HBM.
Il problema è che il computex è slittato a fine settembre, nvidia se vuole spingere un po' per vendere meglio queste rtx non può andare così tanto a ridosso delle prossime console.
mikael84
29-04-2020, 15:24
Il problema però è di AMD o dei vecchi motori grafici dx11?
Perchè in quelli nuovi sta sempre sopra la 2070.
Il problema principale non sono i dx11 in se, ma motori come unreal ed altri, dove AMD non riceve una corretta programmazione driver, e lascia in idle varie unità di calcolo.
In alcuni tripla A, dx11, spesso va piuttosto bene, in quanto hanno aggiunto gli shader intrinsic, che simulano un lavoro a basso livello.
Nei vulkan mediamente, sta li li con la 2070 liscia, in quanto ha perso il vantaggio degli fp16, che con turing vengono eseguiti dai più potenti tensor.
fraussantin
29-04-2020, 15:26
Il problema di AMD è lo scaling, a poco mi serve risparmiare 100 euro, se poi, su 10 giochi, in 3 mi avvicino alla 2070s, in 4 vado come una 2060s/2070liscia, ed in 3 unreal peggiori vado come una 1070ti.
A parer mio, classificarla come 2070s a 100 euro in meno, lascia il tempo che trova.;)
figurati se io difendo amd , ma ti dico che l'ho provata e va bene come prestazioni , è cmq più veloce della mia 2070 liscia occata nei giochi che abbiamo in comune col mio amico anche se non di tanto
E venduta sulle 420 in versione custom decente è un prezzo buono( lui ha preso la nitro a qualche decina di euro in più). Non ha raytracing , scalda e consuma , ma almeno il prezzo c'è. forse paragonarla alla 2070 super è sbagliato ok è sicuramente preferibile , ma è una via di mezzo tra tra 2060s e 2070s che è diventa appetibile.
per me non la prenderei mai sia chiaro ,ci sono cosa in nvidia a cui rinuncio male , ma molti l'hanno fatto , ilproblema è che poi molti l'hanno anche resa.
Uno se ogni volta che installa un gioco nuovo o arriva un update o si sveglia male , da schermate blu , nere , verdi si spegne il pc , si riavvia a cazzo una la restituisce , e in tanti l'hanno fatto.
Adesso amd è arrivata alla pace coi driver, il mio amico non sta avendo più problemi , ma cavolo son passati mesi , io stesso gli avevo consigliato di restituirla e prendere una 2060s poi fra il monitor freesync , la fattura e il resto ha deciso di tenerla e gli è andata bene. !!
Ho il sospetto che la stragrande maggioranza non sappia cosa stia acquistando.
Ho decine e decine di screen di gente convinta che la loro bella scheda fiammante, pagata pure +150 euro del prezzo di listino (perché c'è scritto strix e c'ha le lucine), sia qualcosa che straccerà qualunque console presente e futura. Pochi si rendono conto che la loro 2070 super da 650 euro (perché colorata...) probabilmente, anzi sicuramente, sarà inferiore alla console microsoft.
Hanno pure il coraggio di bombardare di insulti, non riescono neanche a capire come farebbe una console ad avere una scheda video da "650 euro" all'interno. Molti non sono nemmeno consapevoli di che effetti abbia un nuovo processo produttivo. Non si rendono conto che la loro "nuova" scheda video, in realtà, è "vecchia".
Là fuori la gente non è così sveglia e informata.C'è da dire che le stesse GPU di Xbox e Ps5 sono da considerarsi chip di fascia media nella prossima gen quindi confrontabili con un eventuale 3060 e la ps5 anche meno forse 3050ti o come vorranno chiamarla.
Le stesse CPU lavorano a clock relativamente bassi, anche se un 8 core per via dei clock é paragonabile già oggi al 3600x come potenza complessiva e da quanto si legge l'smt potrebbe anche essere disattivo a discrezione dell'engine per incrementare i boost clock e avere un lieve margine in ST e a breve avremo anche i ryzen 4000 che incrementeranno il divario.
In sostanza che il costo si aggiri sui 500€ mi sembra nella norma e nulla di così estremo considerando il salto generazionale, alla fine mettendo tutto sulla bilancia il confronto con il PC é sempre quello, Turing ha quasi 2 anni sul groppone mi sembra un paragone infelice con una console ancora non uscita e che uscirá solo tra un anno.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
mikael84
29-04-2020, 15:51
figurati se io difendo amd , ma ti dico che l'ho provata e va bene come prestazioni , è cmq più veloce della mia 2070 liscia occata nei giochi che abbiamo in comune col mio amico anche se non di tanto
E venduta sulle 420 in versione custom decente è un prezzo buono( lui ha preso la nitro a qualche decina di euro in più). Non ha raytracing , scalda e consuma , ma almeno il prezzo c'è. forse paragonarla alla 2070 super è sbagliato ok è sicuramente preferibile , ma è una via di mezzo tra tra 2060s e 2070s che è diventa appetibile.
A livello di potenza c'è, se fossero tutti tripla A ben ottimizzati, si potrebbe persino paragonarla.
Il problema è appunto lo scaling con alcuni motori che è pessimo. Per chi gioca a 360°, essendo per l'appunto appestati di unreal engine ed altri motori...
Sono il primo a dire che a livello architetturale se ben sfruttata è un buon chip, che come nvidia non si vale quei soldi, essendo la diretta sostituta di polaris.:)
per me non la prenderei mai sia chiaro ,ci sono cosa in nvidia a cui rinuncio male , ma molti l'hanno fatto , ilproblema è che poi molti l'hanno anche resa.
Uno se ogni volta che installa un gioco nuovo o arriva un update o si sveglia male , da schermate blu , nere , verdi si spegne il pc , si riavvia a cazzo una la restituisce , e in tanti l'hanno fatto.
Adesso amd è arrivata alla pace coi driver, il mio amico non sta avendo più problemi , ma cavolo son passati mesi , io stesso gli avevo consigliato di restituirla e prendere una 2060s poi fra il monitor freesync , la fattura e il resto ha deciso di tenerla e gli è andata bene. !!
Purtroppo nei prodotti nuovi si perde, poi quando carbura gli riesce bene. Mi ricordo le varie 5970/7970 che ho avuto.
Ora cmq vediamo come si comporterà nvidia con la GPU equivalente a 7nm, qua servirebbe uno scossone.
C'è da dire che le stesse GPU di Xbox e Ps5 sono da considerarsi chip di fascia media nella prossima gen quindi confrontabili con un eventuale 3060 e la ps5 anche meno forse 3050ti o come vorranno chiamarla.
Le stesse CPU lavorano a clock relativamente bassi, anche se un 8 core per via dei clock é paragonabile già oggi al 3600x come potenza complessiva e da quanto si legge l'smt potrebbe anche essere disattivo a discrezione dell'engine per incrementare i boost clock e avere un lieve margine in ST e a breve avremo anche i ryzen 4000 che incrementeranno il divario.
In sostanza che il costo si aggiri sui 500€ mi sembra nella norma e nulla di così estremo considerando il salto generazionale, alla fine mettendo tutto sulla bilancia il confronto con il PC é sempre quello, Turing ha quasi 2 anni sul groppone mi sembra un paragone infelice con una console ancora non uscita e che uscirá solo tra un anno.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Sulle console è ben diversa la situazione, per chi acquista a larga scala si ritrova con prezzaci. Oppure vendono in piccola perdita, tanto si rifanno con altro.
E' a noi che costano molto di più, pensiamo alla 1080 venduta a 800 euro inizialmente, con un die di 314mm2.
Un die da 300mm2 a 7nm o poco oltre, se gli costa 100$ è tanto.
Inoltre come dicevi giustamente, molti non accettano il fatto che quel chip (ora 2070-2080) sarà una fascia medio-bassa.
Ricordo nella scorsa gen, dopo un anno, si trovavano le 290 a 230 euro, schede decisamente superiori alle scorse console.
Si ma credo che il discorso di non accettare che dopo una gen il proprio chippone venga declassato mi sembra assurdo.
Capisco che vedere un chip da 1000-1200€ svalutato è paragonato a un chip che costerà meno della meta possa lasciare l'amaro in bocca ma se il costo e la svalutazione sono un problema è bene essere consci della cosa è mettersi dei limiti.
Alla fine per giocare non è che siano fondamentali questi chip uber costosi, chi li acquista lo fa per passione e null'altro escludendo ovviamente chi ci lavora dove ovviamente ha un ritorno e fa storia a se.
thunderforce83
29-04-2020, 17:54
Il problema di AMD è lo scaling, a poco mi serve risparmiare 100 euro, se poi, su 10 giochi, in 3 mi avvicino alla 2070s, in 4 vado come una 2060s/2070liscia, ed in 3 unreal peggiori vado come una 1070ti.
A parer mio, classificarla come 2070s a 100 euro in meno, lascia il tempo che trova.;)
E' fake.
Il chip con 8196st sarà il chip Tesla GA100 con HBM non la 3080ti.
Un chip del genere doppierebbe la 2080ti.:p
La 3080 viene descritta come una 2080ti a doppio RT e clock maggiorati (2,2 circa).
Questo con i 7nm si può pure fare, ma con i 7.
La 3070 invece batterebbe la 2080ti di poco.
quotonone :) se scrivi qualcosa del genere sul forum amd nonostante glielo spieghi in tutti i modi quelli ti diranno sempre che la 5700xt e' una scheda fantastica,che la gente che compra nvidia non capisce nulla ecc ecc:D
quando vado li solo a leggere le cavolate che scrivono mi faccio un sacco di risate:p
C'è da dire che le stesse GPU di Xbox e Ps5 sono da considerarsi chip di fascia media nella prossima gen quindi confrontabili con un eventuale 3060 e la ps5 anche meno forse 3050ti o come vorranno chiamarla.
Le stesse CPU lavorano a clock relativamente bassi, anche se un 8 core per via dei clock é paragonabile già oggi al 3600x come potenza complessiva e da quanto si legge l'smt potrebbe anche essere disattivo a discrezione dell'engine per incrementare i boost clock e avere un lieve margine in ST e a breve avremo anche i ryzen 4000 che incrementeranno il divario.
In sostanza che il costo si aggiri sui 500€ mi sembra nella norma e nulla di così estremo considerando il salto generazionale, alla fine mettendo tutto sulla bilancia il confronto con il PC é sempre quello, Turing ha quasi 2 anni sul groppone mi sembra un paragone infelice con una console ancora non uscita e che uscirá solo tra un anno.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
quoto in pieno, ma rassegnati tanto qui ci sara' sempre chi ti fa i conti in tasca e pensa di essere meglio di te solo perche' non spende troppo per una vga:D certo sono meglio le console...noi pcisti siamo arretrati e stupidi che spendiamo tanto per una scheda video:D un altro messiah che e' piu' intelligente e meglio di tutti, eppoi a me le lucine piacciono...:sofico:
OvErClOck82
29-04-2020, 18:35
quotonone :) se scrivi qualcosa del genere sul forum amd nonostante glielo spieghi in tutti i modi quelli ti diranno sempre che la 5700xt e' una scheda fantastica,che la gente che compra nvidia non capisce nulla ecc ecc:D
quando vado li solo a leggere le cavolate che scrivono mi faccio un sacco di risate:p
quoto in pieno, ma rassegnati tanto qui ci sara' sempre chi ti fa i conti in tasca e pensa di essere meglio di te solo perche' non spende troppo per una vga:D certo sono meglio le console...noi pcisti siamo arretrati e stupidi che spendiamo tanto per una scheda video:D un altro messiah che e' piu' intelligente e meglio di tutti, eppoi a me le lucine piacciono...:sofico:
aaah, la masterrace :asd:
Direi che la potete finire.
>bYeZ<
Ton90maz
30-04-2020, 04:50
C'è da dire che le stesse GPU di Xbox e Ps5 sono da considerarsi chip di fascia media nella prossima gen quindi confrontabili con un eventuale 3060 e la ps5 anche meno forse 3050ti o come vorranno chiamarla.
Le stesse CPU lavorano a clock relativamente bassi, anche se un 8 core per via dei clock é paragonabile già oggi al 3600x come potenza complessiva e da quanto si legge l'smt potrebbe anche essere disattivo a discrezione dell'engine per incrementare i boost clock e avere un lieve margine in ST e a breve avremo anche i ryzen 4000 che incrementeranno il divario.
In sostanza che il costo si aggiri sui 500€ mi sembra nella norma e nulla di così estremo considerando il salto generazionale, alla fine mettendo tutto sulla bilancia il confronto con il PC é sempre quello, Turing ha quasi 2 anni sul groppone mi sembra un paragone infelice con una console ancora non uscita e che uscirá solo tra un anno.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Posso credere a una 3060 con prestazioni da 2080 ma una 3050 ti nella zona 2070/2070s mi sembra oltre ogni più rosea aspettativa.
Non è un vero confronto, il punto del discorso è un altro. Se ci fosse tutta questa consapevolezza della vecchiaia di turing, non ci sarebbe così tanta gente che ancora si chiede che magie usino i produttori di console o non ci sarebbe chi nega la realtà aspettandosi che le console andranno quanto la 2060 o la 2080 max q.
Posso credere a una 3060 con prestazioni da 2080 ma una 3050 ti nella zona 2070/2070s mi sembra oltre ogni più rosea aspettativa.
Ma infatti la Xbox avrà una GPU con 3328sp (52CU) paragonabile a quella di 2070/s o futura 3060, mentre la ps5 é molto sottodimensionata con circa 2304sp (36CU) entriamo quindi nel range di una 2060 liscia ergo futura 3050ti...
Non è un vero confronto, il punto del discorso è un altro. Se ci fosse tutta questa consapevolezza della vecchiaia di turing, non ci sarebbe così tanta gente che ancora si chiede che magie usino i produttori di console o non ci sarebbe chi nega la realtà aspettandosi che le console andranno quanto la 2060 o la 2080 max q.
Onestamente di cosa le gente pensa e cosa fa, mi farei ben pochi problemi ed eviterei di costruire polemiche su ciò...
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
OrazioOC
30-04-2020, 09:09
3080? (https://pbs.twimg.com/media/EWyq11vU0AETTSz?format=jpg&name=small)
thunderforce83
30-04-2020, 09:39
3080? (https://pbs.twimg.com/media/EWyq11vU0AETTSz?format=jpg&name=small)
speriamo di no...mi piacerebbe veder su scritto 7nm e non 8:O
OrazioOC
30-04-2020, 09:47
speriamo di no...mi piacerebbe veder su scritto 7nm e non 8:O
Anche pcie 4 se possibile, anche se quello dipenderà dalla piattaforma dove sarà montata la scheda.
Anche pcie 4 se possibile, anche se quello dipenderà dalla piattaforma dove sarà montata la scheda.
Deve esserci anche il supporto da parte della GPU, ma quasi sicuramente le prossime gpu di nvidia supporteranno il PCIE 4.0 che ovviamente richiederà z490 o ryzen 3000 utile sopratutto per il multigpu dove uno sli 4.0 x8 avrà la medesima bw di uno sli 3.0 x16
OrazioOC
30-04-2020, 10:02
Deve esserci anche il supporto da parte della GPU, ma quasi sicuramente le prossime gpu di nvidia supporteranno il PCIE 4.0 che ovviamente richiederà z490 o ryzen 3000.
Comet lake al momento non sembra supportare il pcie 4.
Comet lake al momento non sembra supportare il pcie 4.
Io avevo letto che supporterà il pci-e 4.0: https://www.hwupgrade.it/news/skmadri/schede-madre-intel-z490-con-supporto-pci-express-40-dormiente_88808.html
illidan2000
30-04-2020, 10:11
Si ma credo che il discorso di non accettare che dopo una gen il proprio chippone venga declassato mi sembra assurdo.
Capisco che vedere un chip da 1000-1200€ svalutato è paragonato a un chip che costerà meno della meta possa lasciare l'amaro in bocca ma se il costo e la svalutazione sono un problema è bene essere consci della cosa è mettersi dei limiti.
Alla fine per giocare non è che siano fondamentali questi chip uber costosi, chi li acquista lo fa per passione e null'altro escludendo ovviamente chi ci lavora dove ovviamente ha un ritorno e fa storia a se.
ce le siamo godute per un paio d'anni però dai... (io esattamente 1, poiché all'inizio erano introvabili)
Free Gordon
30-04-2020, 10:18
Purtroppo la 3080ti, sarà ancora una volta un padellone, di conseguenza verrà prezzata cara.
Padellone quanto? Secondo te..
OrazioOC
30-04-2020, 10:54
Io avevo letto che supporterà il pci-e 4.0: https://www.hwupgrade.it/news/skmadri/schede-madre-intel-z490-con-supporto-pci-express-40-dormiente_88808.html
Anche zen 2 se montato sulle b450(addirittura a320 in certi casi) avrebbe la compatibilità con il pcie 4, ma se la cpu non lo supporta, ed è il caso di comet lake secondo i leaks, il pcie 4 semplicemente non c'è.
C'è chi parla di un prossimo supporto con rocket lake, ma è tutto da verificare.
https://cdn.videocardz.com/1/2020/04/Intel-10th-Gen-Core-S-Series-Comet-Lake-Pricing-Specs-6.jpg
mircocatta
30-04-2020, 11:40
per quanto riguarda il prezzo delle ampere io ho il mio pensiero
se, e solo se, nvidia anticipa tutti (e per tutti intendo amd e console) allora si, potrà fare il bello e cattivo tempo, "amalgamando" la serie Ampere con la serie turing, come ha fatto con turing su pascal (dove hanno condiviso per mesi il mercato con perf/prezzi tutto sommato simili, 2080ti a parte) vuoi il top? (3080ti) allora lo strapagherai, tanto il "pollo" (quando ce vo' ce vo') che la compra solo per giocare c'è. e la cosa peggiore è che successivamente rdna2 si adeguerà a questi ipotetici prezzi folli, come ha fatto con rdna vs turing/pascal
in caso contrario, se esce prima amd con rdna2, forse vedremo un mercato più umano, come ai vecchi tempi con le mid fascia 250-300€... entrerebbe in un mercato fatto di gpu vecchie dove, con prezzi aggressivi, potrebbe finalmente recuperare quote di mercato (di cui ha estremo bisogno)
è quello che tutti dovremmo sperare, perchè successivamente Ampere dovrà attenersi ai prezzi fatti da amd o poco più (quei 50-100€ in più dovuti al fatto che si chiama nvidia), tutti felici e contenti, sia loro ma soprattutto noi.
amd, a memoria, disse: con rdna2 vogliamo fare quello che ryzen ha fatto nel mercato cpu.. e cosa ha fatto nel mercato cpu? ha raddoppiato il numero dei core a pari prezzo dei processori intel, dimezzando di fatto il costo/performance che avevamo prima, ma questo lo riesci a fare solo se giochi di anticipo imho.
in ogni caso, che gli piaccia o no, quando usciranno le console entrambe le case di gpu discrete dovranno giocoforza "umanizzare" i prezzi, perchè rispetto a prima queste console avranno un hardware nuovo e decisamente apprezzabile.. sono pc gamer da 20 anni ma sticazzi, se per rifarmi il pc almeno a livello xbox X (vorrei cambiare tutto, non solo la gpu) devo spendere almeno 500€ per la gpu (attuale prezzo della fascia "media", come media sarà la gpu della xbox), 300€ di cpu (ovviamente finchè ci sono ne prendo una decente, anche più potente di quella di xbox/ps5, ma che a conti fatti resterà inutilizzata nei game, cascando nel tranello del marketing), 250€ di mobo, 150€ di ram , 120€ di SSD + altri 100€/150€ di spese accessorie (waterblock ecc ecc) per una spesa totale intorno ai 1400€, tolgiendo al massimo 500€ per l'attuale hardware che potrei rivendere .... a quel punto tengo il pc che ho in firma per giochi indie e competitivi, ci affianco una console rinunciando alla comodità della tastiera su certi giochi spendendo i 500/650€ che chiederanno e tanti saluti a questi schifosi cartelli di amd/intel/nvidia.. sarò strano io? da quel che si legge in giro non credo di essere l'unico ad aver fatto questo ragionamento
Anche zen 2 se montato sulle b450(addirittura a320 in certi casi) avrebbe la compatibilità con il pcie 4, ma se la cpu non lo supporta, ed è il caso di comet lake secondo i leaks, il pcie 4 semplicemente non c'è.
C'è chi parla di un prossimo supporto con rocket lake, ma è tutto da verificare.
https://cdn.videocardz.com/1/2020/04/Intel-10th-Gen-Core-S-Series-Comet-Lake-Pricing-Specs-6.jpg
Tecnicamente sul primo slot pcie collegato alla cpu avresti anche sulle b350 il PCI-E 4.0 con gli Zen 2 e superiori, cosa impossibile per gli altri slot pci che invece richiedono il chipset 5xx.
Comunque dalle info che sappiamo z490 supporterà il PCIE 4.0, sulle cpu comet lake è da vedere.
per quanto riguarda il prezzo delle ampere io ho il mio pensiero
se, e solo se, nvidia anticipa tutti (e per tutti intendo amd e console) allora si, potrà fare il bello e cattivo tempo, "amalgamando" la serie Ampere con la serie turing, come ha fatto con turing su pascal (dove hanno condiviso per mesi il mercato con perf/prezzi tutto sommato simili, 2080ti a parte) vuoi il top? (3080ti) allora lo strapagherai, tanto il "pollo" (quando ce vo' ce vo') che la compra solo per giocare c'è. e la cosa peggiore è che successivamente rdna2 si adeguerà a questi ipotetici prezzi folli, come ha fatto con rdna vs turing/pascal
in caso contrario, se esce prima amd con rdna2, forse vedremo un mercato più umano, come ai vecchi tempi con le mid fascia 250-300€... entrerebbe in un mercato fatto di gpu vecchie dove, con prezzi aggressivi, potrebbe finalmente recuperare quote di mercato (di cui ha estremo bisogno)
è quello che tutti dovremmo sperare, perchè successivamente Ampere dovrà attenersi ai prezzi fatti da amd o poco più (quei 50-100€ in più dovuti al fatto che si chiama nvidia), tutti felici e contenti, sia loro ma soprattutto noi.
amd, a memoria, disse: con rdna2 vogliamo fare quello che ryzen ha fatto nel mercato cpu.. e cosa ha fatto nel mercato cpu? ha raddoppiato il numero dei core a pari prezzo dei processori intel, dimezzando di fatto il costo/performance che avevamo prima, ma questo lo riesci a fare solo se giochi di anticipo imho.
in ogni caso, che gli piaccia o no, quando usciranno le console entrambe le case di gpu discrete dovranno giocoforza "umanizzare" i prezzi, perchè rispetto a prima queste console avranno un hardware nuovo e decisamente apprezzabile.. sono pc gamer da 20 anni ma sticazzi, se per rifarmi il pc almeno a livello xbox X (vorrei cambiare tutto, non solo la gpu) devo spendere almeno 500€ per la gpu (attuale prezzo della fascia "media", come media sarà la gpu della xbox), 300€ di cpu (ovviamente finchè ci sono ne prendo una decente, anche più potente di quella di xbox/ps5, ma che a conti fatti resterà inutilizzata nei game, cascando nel tranello del marketing), 250€ di mobo, 150€ di ram , 120€ di SSD + altri 100€/150€ di spese accessorie (waterblock ecc ecc) per una spesa totale intorno ai 1400€, tolgiendo al massimo 500€ per l'attuale hardware che potrei rivendere .... a quel punto tengo il pc che ho in firma per giochi indie e competitivi, ci affianco una console rinunciando alla comodità della tastiera su certi giochi spendendo i 500/650€ che chiederanno e tanti saluti a questi schifosi cartelli di amd/intel/nvidia.. sarò strano io? da quel che si legge in giro non credo di essere l'unico ad aver fatto questo ragionamento
Si ma se ragioni con i componenti attualmente sul mercato è come dici tu dove per farti un pc analogo c'è da sborsare non poco ma tra un anno un pc analogo alle console sarà formato da un Ryzen 4600 liscio + 3060 nulla di cosi estremo in relazione ai tempi sopratutto se faranno un chip minore x60 in stile 1660ti...
Tecnicamente sul primo slot pcie collegato alla cpu avresti anche sulle b350 il PCI-E 4.0 con gli Zen 2 e superiori, cosa impossibile per gli altri slot pci che invece richiedono il chipset 5xx.
.
scusa, fonte di sta roba che mi giunge nuova? E della quale non potrei essere che felicissimo, se lo fanno sulle B450 non vedo perchè non dovrebbe essere vero sulla mia X470...grassieeeee
ultimate trip
30-04-2020, 12:06
Tecnicamente sul primo slot pcie collegato alla cpu avresti anche sulle b350 il PCI-E 4.0 con gli Zen 2 e superiori, cosa impossibile per gli altri slot pci che invece richiedono il chipset 5xx.
Comunque dalle info che sappiamo z490 supporterà il PCIE 4.0, sulle cpu comet lake è da vedere.
Si ma se ragioni con i componenti attualmente sul mercato è come dici tu dove per farti un pc analogo c'è da sborsare non poco ma tra un anno un pc analogo alle console sarà formato da un Ryzen 4600 liscio + 3060 nulla di cosi estremo in relazione ai tempi sopratutto se faranno un chip minore x60 in stile 1660ti...
ma non avevano tolto la possibilità perchè era instabile?
https://www.hwupgrade.it/news/skmadri/pci-express-40-e-vecchie-schede-madri-asus-ci-prova-ma-amd-dice-no_83397.html
mikael84
30-04-2020, 12:09
Posso credere a una 3060 con prestazioni da 2080 ma una 3050 ti nella zona 2070/2070s mi sembra oltre ogni più rosea aspettativa.
Non è un vero confronto, il punto del discorso è un altro. Se ci fosse tutta questa consapevolezza della vecchiaia di turing, non ci sarebbe così tanta gente che ancora si chiede che magie usino i produttori di console o non ci sarebbe chi nega la realtà aspettandosi che le console andranno quanto la 2060 o la 2080 max q.
Il chip base Ampere x07 dovrebbe scalare da 1024 a 1280cc x clock (quindi 1660ti circa).
Dovrebbe esserci un chip, post TU116 con 1920cc e prestazioni da 2060d/2070.
3080? (https://pbs.twimg.com/media/EWyq11vU0AETTSz?format=jpg&name=small)
Quello sarebbe il chip speculato in precedenza, e spero proprio non sia sugli 8nm.
C'è un dato sballato cmq, le rop's, che sono 64, questo significherebbe adottare un bus da 256bit e non 320.
Di positivo ci sarebbe la quasi sicura doppia densità, di negativo, troppo scarsa.
Un chip del genere sarebbe ottimale come x70.:)
speriamo di no...mi piacerebbe veder su scritto 7nm e non 8:O
Infatti.
Padellone quanto? Secondo te..
TU102 su 8nm samsung dovrebbe essere 540 circa.
GA102, secondo i rumor dovrebbe avere doppio tensor e doppia fp per RT, questo si traduce in ben 933mm2 sui 12nm. Sugli 8nm diventerebbe una padella da 660 circa.
Sui 7nm LPP oltre a guadagnare un 10% di clock aggiuntivo, TU102 diverrebbe all'incirca da 450mm2, mentre il chip speculato GA102, circa 550mm2.
Su GA102 si parla di 5376cc su 7gpc, e sarebbero giusti giusti sugli 8nm, mentre si potrebbe salire ad 8 GPC sui 7nm+, per un totale di 6144cc, potendo usufruire pure di un buon clock.:)
ma non avevano tolto la possibilità perchè era instabile?
https://www.hwupgrade.it/news/skmadri/pci-express-40-e-vecchie-schede-madri-asus-ci-prova-ma-amd-dice-no_83397.html
Si ma infatti l'ho citato solo dal punto di vista tecnico, nella realtà avrebbe poco senso anche concettualmente visto che si applicherebbe solo al primo slot della gpu quindi senza poter sfruttare gli SSD nvme 4.0 o multigpu.
E su una gpu singola siamo lontani dal saturare il 3.0 figurati il 4.0...
scusa, fonte di sta roba che mi giunge nuova? E della quale non potrei essere che felicissimo, se lo fanno sulle B450 non vedo perchè non dovrebbe essere vero sulla mia X470...grassieeeee
Purtroppo come detto su, nel concreto non servirebbe a molto.
mircocatta
30-04-2020, 12:13
Si ma se ragioni con i componenti attualmente sul mercato è come dici tu dove per farti un pc analogo c'è da sborsare non poco ma tra un anno un pc analogo alle console sarà formato da un Ryzen 4600 liscio + 3060 nulla di cosi estremo in relazione ai tempi sopratutto se faranno un chip minore x60 in stile 1660ti...
no io ho fatto il ragionamento su prezzi proprio di quelle componenti li, quanto pensi di pagarla una 3060 che andrà quasi quanto una 2080 ma con potenzialità maggiori in rt? a meno di rivoluzioni (come mi auspico) non meno di 450€ quando invece dovrebbe stare alla metà per essere competitiva alle "console"
no io ho fatto il ragionamento su prezzi proprio di quelle componenti li, quanto pensi di pagarla una 3060 che andrà quasi quanto una 2080 ma con potenzialità maggiori in rt? a meno di rivoluzioni (come mi auspico) non meno di 450€ quando invece dovrebbe stare alla metà per essere competitiva alle "console"
Onestamente non lo so, palle di cristallo non ne ho, ma la 2060 al suo esordio costava circa 350-380€ e nel giro di qualche mese capitarono anche offerte amazon sui 300-320€.
E parliamo di una GPU che tallona la 1080 che al tempo costava sopra i 600€ e con l'uscita delle 1660ti, performance da 1070/1070ti sono state rese molto più accessibili nell'under 300€...
Non vedo perchè con la futura gen non debba verificarsi una condizione simile.
OrazioOC
30-04-2020, 12:26
Tecnicamente sul primo slot pcie collegato alla cpu avresti anche sulle b350 il PCI-E 4.0 con gli Zen 2 e superiori, cosa impossibile per gli altri slot pci che invece richiedono il chipset 5xx.
Comunque dalle info che sappiamo z490 supporterà il PCIE 4.0, sulle cpu comet lake è da vedere.
Si ma non me ne faccio nulla del supporto al pcie della mobo se la cpu non lo supporta.:rolleyes:
Quello sarebbe il chip speculato in precedenza, e spero proprio non sia sugli 8nm.
C'è un dato sballato cmq, le rop's, che sono 64, questo significherebbe adottare un bus da 256bit e non 320.
Di positivo ci sarebbe la quasi sicura doppia densità, di negativo, troppo scarsa.
Un chip del genere sarebbe ottimale come x70.:)
Si ma a nvidia dubito moltissimo che gli 8nm costino quanto i 7nm di tsmc, avranno un die size più elevato sicuramente, ma tolto quello il salto dagli attuali fake 16nm ci sarà tutto.
64 rops sono il giusto per un chip di fascia medio alta, questo ga103 assomiglia sempre di più al successore di tu104 che non ad un possibile chip per una 3080 ti.
Doppia densità direi sacrosanta vedendo il generoso quantitativo di memoria delle console, tenendo conto che turing in questo senso rispetto a pascal non è stato un upgrade.
ultimate trip
30-04-2020, 12:27
no io ho fatto il ragionamento su prezzi proprio di quelle componenti li, quanto pensi di pagarla una 3060 che andrà quasi quanto una 2080 ma con potenzialità maggiori in rt? a meno di rivoluzioni (come mi auspico) non meno di 450€ quando invece dovrebbe stare alla metà per essere competitiva alle "console"
cmq ho la tua stessa scheda ed ho i tuoi stessi dubbi. un +50% auspicato dopo 2080, 2080 super, 3080 mi sembra poco.
Si ma non me ne faccio nulla del supporto al pcie della mobo se la cpu non lo supporta.:rolleyes:
Ma è sempre da vedere io non leggo nessuna info certa che dimostri che comet lake non supperterà il 4.0 e se z490 lo supporta qualche dubbio ce l'ho sulla veridicità di questa info...
Per esempio anche x79 con i sandy bridge non ha la certificazione al 3.0 per questioni di tempi, ma di fatto i driver amd lo abilitano senza problemi e per le schede nvidia basta modificare un opzione nel registro.
Quindi è da prendere con le pinze, potrebbe anche essere presente il supporto ma disabilitato per accelerare i tempi di rilascio ma comunque abilitabile per altre vie.
ultimate trip
30-04-2020, 12:40
Si ma infatti l'ho citato solo dal punto di vista tecnico, nella realtà avrebbe poco senso anche concettualmente visto che si applicherebbe solo al primo slot della gpu quindi senza poter sfruttare gli SSD nvme 4.0 o multigpu.
E su una gpu singola siamo lontani dal saturare il 3.0 figurati il 4.0...
Purtroppo come detto su, nel concreto non servirebbe a molto.
probabilmente aveva molto più senso lasciare gen 3 sulla vga e abilitare gen4 su ssd
probabilmente aveva molto più senso lasciare gen 3 sulla vga e abilitare gen4 su ssd
Da quanto ne so elettricamente è possibile solo sullo slot pci-e dedicato alla gpu, in quanto gli altri 4 slot dedicati alle unità M.2. richiederebbero altri redriver e retimer per essere stabili.
Motivo per cui AMD tramite AGESA ha probabilmente tagliato proprio la testa al toro e rimosso l'opzione, comunque con il b550 alle porte tanto vale considerare quest'ultimo se interessa una funzione nativa senza problemi e strani magheggi
fraussantin
30-04-2020, 12:54
ma non avevano tolto la possibilità perchè era instabile?
https://www.hwupgrade.it/news/skmadri/pci-express-40-e-vecchie-schede-madri-asus-ci-prova-ma-amd-dice-no_83397.html
mah da quel che si è letto e dalle prove fatte molte mobo erano stabilissime sugli slot diretti .
è stato tolto su tutte con la scusa di non fare confusione visto che alcune erano instabili , per spingere le più costose x570 dove sia amd che oem ci stanno sguazzando.
guarda caso la revisione b550 con m2 4.0 non è ancora uscita.
ed alle voci sembra che anche le z490 faranno la solita fine coi prezzi anche senza 4.0
ps cmq il 4.0 più che sul singolo ssd o sulla gpu è comodo per l'aumento di banda complessiva e diminuire almeno in parte il fenomeno dell'attacca questo e stacca quell'altro che ormai era su tutte le mobo
Ale55andr0
30-04-2020, 13:17
C'è un dato sballato cmq, le rop's, che sono 64, questo significherebbe adottare un bus da 256bit e non 320.
perchè? non dicevi qualche tmepo fa il nuemro di canali sono indipendenti dalla configurazione del chip? voglio dire, se su series x avessimo avuto doppia densità tutti i chip sarebbe stato un bus 320bit/20gb ma la gpu sempre 64 rops avrebbe avuto
Purtroppo come detto su, nel concreto non servirebbe a molto.
dimentichi le latenze ;) lato nvme invece non mi cambierebbe una pippa, anzi manco ce l'ho al momento un nvme
mikael84
30-04-2020, 14:45
Si ma a nvidia dubito moltissimo che gli 8nm costino quanto i 7nm di tsmc, avranno un die size più elevato sicuramente, ma tolto quello il salto dagli attuali fake 16nm ci sarà tutto.
Si costeranno meno, il problema è che gli 8nm sono dei 10nm ottimizzati leggermente (samsung) in area die e consumi, e per ricreare chip come GA102, servono padelloni da quasi 700mm2.
Questo non incide solo nei costi, ma anche nelle rese pessime.
Il salto dai "fake 16", di questo passo sarà il peggiore mai visto.:)
64 rops sono il giusto per un chip di fascia medio alta, questo ga103 assomiglia sempre di più al successore di tu104 che non ad un possibile chip per una 3080 ti.
Doppia densità direi sacrosanta vedendo il generoso quantitativo di memoria delle console, tenendo conto che turing in questo senso rispetto a pascal non è stato un upgrade.
Nain, nain...:sofico:
64 rop's significa anche bus da 256bit e banda da 2080 super, come la 3070.
La 2080ti rimarrebbe molto più muscle.
Inoltre significherebbe mutilare il chip di due canali per la seconda volta consecutiva.
perchè? non dicevi qualche tmepo fa il nuemro di canali sono indipendenti dalla configurazione del chip? voglio dire, se su series x avessimo avuto doppia densità tutti i chip sarebbe stato un bus 320bit/20gb ma la gpu sempre 64 rops avrebbe avuto
C'è una macroscopica differenza.
Nvidia utilizza 6 raster, e di base dovrebbe essere collegata ai 384bit e 96 rop's.
Per questioni di spazio, gli hanno mutilato due canali (che pesano circa 104mm2).
I GA103 e 104, dovrebbero utilizzare sempre il chip a 6 raster, ma la speranza era che il più grande (3080), venisse collegato a 320bit, ed 80 rop's (con un solo canale mutilato).:)
La xbox, dovrebbe avere 4 raster, ogni raster viene collegato a 16 pixel (quindi 64 rop's), solo che gli hanno collegato un canale aggiuntivo per la BW.
E'la stessa cosa fatta con nvidia sulla 2070 liscia, ha 3 raster con 48 rop's (192bit), più un canale aggiuntivo a vuoto per collegare i 256bit.
OrazioOC
30-04-2020, 15:08
Si costeranno meno, il problema è che gli 8nm sono dei 10nm ottimizzati leggermente (samsung) in area die e consumi, e per ricreare chip come GA102, servono padelloni da quasi 700mm2.
Questo non incide solo nei costi, ma anche nelle rese pessime.
Il salto dai "fake 16", di questo passo sarà il peggiore mai visto.:)
Se per questo anche i 7nm non sono dei veri e propri 7nm per densità, sono più densi degli 8nm di samsung ovviamente.
Si non mi aspetto chissà quale boost in fatto di performance, ma il chip in questione dovrebbe essere più piccolo di tu104 battendo tu102 cut, non è un risultato da buttare.
Nain, nain...:sofico:
64 rop's significa anche bus da 256bit e banda da 2080 super, come la 3070.
La 2080ti rimarrebbe molto più muscle.
Inoltre significherebbe mutilare il chip di due canali per la seconda volta consecutiva.
Con delle 16ghz, avrebbe poco meno di 600gb/s di banda, non è poco, se poi ottimizzeranno la dcc(sarebbe ora, turing sotto questo punto di vista è ben poca cosa in più rispetto a maxwell e pascal).
Se poi metteranno delle 18ghz, il problema non me lo porrei neanche.
Su un 320bit con le 16Gbps hai ben 640gb/s di bw che riduce a soli 512 gb/s su 256bit, quindi nel caso in cui si opta per un collegamento a 256bit per la 3080 credo che le 18 Gbps siano quasi d'obbligo per avere una BW decente che oscillerebbe intorno ai 576gb/s.
ultimate trip
30-04-2020, 17:29
... a quel punto tengo il pc che ho in firma per giochi indie e competitivi, ci affianco una console rinunciando alla comodità della tastiera su certi giochi spendendo i 500/650€ che chiederanno e tanti saluti a questi schifosi cartelli di amd/intel/nvidia.. sarò strano io? da quel che si legge in giro non credo di essere l'unico ad aver fatto questo ragionamento
dal canale ufficiale twitter Inside Xbox il 7 maggio (ore 17:00 italiane) presentazione di un paio di giochi per seriex.
Anche se crossgen potremo cominciare a farci un'idea del livello.
Spero ci sia HALO
mikael84
30-04-2020, 17:46
Se per questo anche i 7nm non sono dei veri e propri 7nm per densità, sono più densi degli 8nm di samsung ovviamente.
Si non mi aspetto chissà quale boost in fatto di performance, ma il chip in questione dovrebbe essere più piccolo di tu104 battendo tu102 cut, non è un risultato da buttare.
Ga103 a 12nm sarebbe di circa 684mm2 a 256bit e 740 a 320bit.
Ad 8nm (considerando che non tutto però scala perfettamente) dovresti essere a 490mm2 a 256 bit e circa 525mm2 a 320bit.
Boost, senza lavoro elettrico, 2,2 in dc.
Con i 7nm+ il boost potrebbe salire a 2350 in dc , senza lavoro elettrico, ed il chip passerebbe da 490/500 a 400mm2.
Con delle 16ghz, avrebbe poco meno di 600gb/s di banda, non è poco, se poi ottimizzeranno la dcc(sarebbe ora, turing sotto questo punto di vista è ben poca cosa in più rispetto a maxwell e pascal).
Se poi metteranno delle 18ghz, il problema non me lo porrei neanche.
con le 16gb/s vai a 512gb/s contro i 640gb/s, e le rop's 16 in meno, contro le probabili 96 di AMD.
Senza considerare che perdi anche 1/2mb di cache l2, che aiuta la compressione/dx12 etc.
Va benissimo sulla x70, ma sulla x80 insomma.
Tieni presente, come detto ad alessandro sopra, che i chip, sono pensati per i 384bit, ok risparmiare spazio su die, ma levare ancora 2 canali...:p
Se per questo anche i 7nm non sono dei veri e propri 7nm per densità, sono più densi degli 8nm di samsung ovviamente.
Quasi il doppio se facciamo 7+EUV vs 8LPP :stordita:
Un primo rumor sulla data di uscita di Ampere che sembrano previste per il Q3, quindi post estate.
https://www.tomshw.it/hardware/nvidia-ampere-le-nuove-gpu-usciranno-nel-q3-di-questanno/?amp
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
bagnino89
02-05-2020, 09:55
Un primo rumor sulla data di uscita di Ampere che sembrano previste per il Q3, quindi post estate.
https://www.tomshw.it/hardware/nvidia-ampere-le-nuove-gpu-usciranno-nel-q3-di-questanno/?amp
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Ma è vera la storia che forse Ampere si sovrapporrà a Turing nell'offerta? E che quindi i prezzi resteranno sempre alti...
ultimate trip
02-05-2020, 10:04
Un primo rumor sulla data di uscita di Ampere che sembrano previste per il Q3, quindi post estate.
https://www.tomshw.it/hardware/nvidia-ampere-le-nuove-gpu-usciranno-nel-q3-di-questanno/?amp
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
nel titolo dice q3 20, a fine articolo q1 21 :confused:
OrazioOC
02-05-2020, 10:07
Ma è vera la storia che forse Ampere si sovrapporrà a Turing nell'offerta? E che quindi i prezzi resteranno sempre alti...
Tecnicamente è successo anche con turing, 2070/80/80 ti hanno sostituito per street price 1080 ti/80/70 ti/70, ma per un bel po' 1060/1050ti/1050 sono rimaste al loro posto.
Difficile se non impossibile che ampere subentri a turing in tutte le fasce, presumo che lanceranno le 3080 e 3070 per sostituire 2080ti/80s/70s/70 e lascino tutto ciò che c'è sotto fino a quando non arriveranno le 3060s/60/50 ti.
bagnino89
02-05-2020, 10:14
Tecnicamente è successo anche con turing, 2070/80/80 ti hanno sostituito per street price 1080 ti/80/70 ti/70, ma per un bel po' 1060/1050ti/1050 sono rimaste al loro posto.
Difficile se non impossibile che ampere subentri a turing in tutte le fasce, presumo che lanceranno le 3080 e 3070 per sostituire 2080ti/80s/70s/70 e lascino tutto ciò che c'è sotto fino a quando non arriveranno le 3060s/60/50 ti.
Tanto vale sempre il solito discorso: che se AMD resta al palo... Nvidia fa come le pare.
ultimate trip
02-05-2020, 10:27
Tanto vale sempre il solito discorso: che se AMD resta al palo... Nvidia fa come le pare.
Senti in questa intervista lisa parla genericamente di datacenter, laptop (e per estensione ci butterei dentro pc) and gaming console e dice che tutto è on track.
https://www.youtube.com/watch?v=R6b31CK8WVE
tra l'altro discutono proprio del fatto che amd cresce del 25% nonostante la crisi
vediamo cmq hanno da lanciare zen 4000 e rdna2 in un periodo complicato
OrazioOC
02-05-2020, 10:27
Tanto vale sempre il solito discorso: che se AMD resta al palo... Nvidia fa come le pare.
Sono solo 4/5 anni che si ripete lo stesso copione, vendicchiano bene nella fascia media, un po' come la rx 480/580 qualche anno fa, ma il resto non esiste.:rolleyes:
Nvidia può tranquillamente tirar dritto nella fascia media tagliando i prezzi di rtx 2060 e 2060 super fino al 2021.
nel titolo dice q3 20, a fine articolo q1 21 :confused:
Ma è vera la storia che forse Ampere si sovrapporrà a Turing nell'offerta? E che quindi i prezzi resteranno sempre alti...
Credo sia proprio l'articolo scritto con i piedi...
Secondo i rumors di:
https://wccftech.com/nvidia-rtx-3000-series-q3-ampere-gpu/
https://www.techradar.com/news/nvidia-geforce-rtx-3000-seems-imminent-as-aibs-empty-stock
Si parla di vedere le prime gpu già nel Q3 di quest'anno non è chiaro quali sicuramente 3070/3080 e da verificare la 3080ti, ma le proposte di fascia media sotto la 3070 arriveranno solo successivamente nel Q1 e di conseguenza le attuali GTX dalla 1660ti a scendere continueranno a essere vendute in parallelo cosi come 2060/2070.
Wccftech però stima che per sfoltire gli scaffali nei prossimi mesi potremmo vedere qualche offerta sulla serie RTX in modo da arrivare all'uscita di ampere senza sovrabbondanza di GPU come avvenne invece con Turing dove causa mining fu incrementata la produzione delle Pascal che poi rimasero invendute dato il crollo di valore della criptomoneta.
OrazioOC
02-05-2020, 10:34
Wccftech però stima che per sfoltire gli scaffali nei prossimi mesi potremo vedere qualche offerta sulla serie RTX in modo da arrivare all'uscita di ampere senza sovrabbondanza di GPU come avvenne invece con Turing dove causa mining fu incrementata la produzione delle Pascal che poi rimasero invendute dato il crollo di valore della criptomoneta.
Possibile, anche perchè turing su certe fasce è veramente sovrapprezzato, 2060 a 370 euro, 2060 s a 450 euro, 1660 ti a 280 euro, non sono prezzi che ti invogliano all'acquisto e infatti amd giusto in quelle fasce gli sta mettendo un po' di sale sulla coda.
Possibile, anche perchè turing su certe fasce è veramente sovrapprezzato, 2060 a 370 euro, 2060 s a 450 euro, 1660 ti a 280 euro, non sono prezzi che ti invogliano all'acquisto e infatti amd giusto in quelle fasce gli sta mettendo un po' di sale sulla coda.
Costavano meno all'uscita che ora...
Credo che molto dipenda anche dalla situazione anomala generata dalla pandemia, se non erro furono fatte delle stime di vendita qualche giorno o settimana fa, dove il materiale informatico ha subito un incremento del 40-50% negli ultimi mesi ma parliamo di tutti i componenti non solo gpu, quindi siamo ben lontani dalla situazione che generò il mining nel mercato GPU.
ultimate trip
02-05-2020, 10:41
Credo sia proprio l'articolo scritto con i piedi...
Secondo i rumors di:
https://wccftech.com/nvidia-rtx-3000-series-q3-ampere-gpu/
https://www.techradar.com/news/nvidia-geforce-rtx-3000-seems-imminent-as-aibs-empty-stock
...
perfetto chiaro non avevo visto le fonti, thx
ultimate trip
02-05-2020, 10:45
Possibile, anche perchè turing su certe fasce è veramente sovrapprezzato, 2060 a 370 euro, 2060 s a 450 euro, 1660 ti a 280 euro, non sono prezzi che ti invogliano all'acquisto e infatti amd giusto in quelle fasce gli sta mettendo un po' di sale sulla coda.
C'è da augurarsi che questa navi 21 da 505 mm2 possa giocarsela bene con la 3080
OrazioOC
02-05-2020, 10:49
Costavano meno all'uscita che ora...
Credo che molto dipenda anche dalla situazione anomala generata dalla pandemia, se non erro furono fatte delle stime di vendita qualche giorno o settimana fa, dove il materiale informatico ha subito un incremento del 40-50% negli ultimi mesi ma parliamo di tutti i componenti non solo gpu, quindi siamo ben lontani dalla situazione che generò il mining nel mercato GPU.
Si il fatto che molti magazzini siano vuoti non aiuta, ma non è che siano mai state schede dal rapporto prezzo/prestazioni vantaggioso, un mio amico ha preso una 2060 s msi ventus ad ottobre con l'ultimo cod a 450 euro.
Ok che aveva cod con il battlepass incluso(quindi 50 euro glieli abboniamo), ma la 5700 xt nelle versioni più sfigatelle si trovava sui 400/410 euro andando di più.:rolleyes:
Stesso discorso per la 2060 liscia nei confronti della 5700 non xt.
mikael84
02-05-2020, 15:13
C'è da augurarsi che questa navi 21 da 505 mm2 possa giocarsela bene con la 3080
Ma è confermato questo dato?
Per ora abbiamo il dato xbox che è di 315mm2 con I/O (360 totali)
I DCU passano da 4,5mm2 a 5 mm2.
thunderforce83
02-05-2020, 16:52
Ma è confermato questo dato?
Per ora abbiamo il dato xbox che è di 315mm2 con I/O (360 totali)
I DCU passano da 4,5mm2 a 5 mm2.
amd? confermato?
con tutti i fallimenti che ha tirato fuori ultimamente credo che sia piu' facile che confermi il passaggio dalle gpu alla costruzione di scaldabagni:sofico:
adesso e' il momento dei rumor piu' totali ed insistenti, la veridicita' di tante notizie svaniranno e le verificheremo solo al lancio:)
ultimate trip
02-05-2020, 20:53
Ma è confermato questo dato?
Per ora abbiamo il dato xbox che è di 315mm2 con I/O (360 totali)
I DCU passano da 4,5mm2 a 5 mm2.
no non è confermato solo rumor per ora
https://wccftech.com/amd-radeon-rx-navi-21-gpu-2x-performance-5700-xt-die-size-rumor/
ultimate trip
02-05-2020, 21:02
amd? confermato?
con tutti i fallimenti che ha tirato fuori ultimamente credo che sia piu' facile che confermi il passaggio dalle gpu alla costruzione di scaldabagni:sofico:
adesso e' il momento dei rumor piu' totali ed insistenti, la veridicita' di tante notizie svaniranno e le verificheremo solo al lancio:)
fallimenti...il titolo è raddoppiato nell'ultimo anno. se hai in testa altri fallimenti simili ti prego di condividerli:sbonk:
OrazioOC
02-05-2020, 21:27
fallimenti...il titolo è raddoppiato nell'ultimo anno. se hai in testa altri fallimenti simili ti prego di condividerli:sbonk:
E' questione di essere competitivi in un settore, e purtroppo sono 5 anni abbondanti che nvidia corre da sola nella fascia alta, triste ma vero.
Adesso vediamo cosa potranno tirare fuori, ma per chi cerca il top oggi, esiste solo nvidia.
thunderforce83
02-05-2020, 23:18
fallimenti...il titolo è raddoppiato nell'ultimo anno. se hai in testa altri fallimenti simili ti prego di condividerli:sbonk:
non confondere settore cpu con quelle gpu...eppoi amd fa mille altre cose quindi e' da vedere da dove proviene quel fatturato, se poi penso a tutti le schede che ha tirato fuori dopo la 290 si, confermo appieno,sono stati solo fallimenti ed una prova ad inseguire nvidia che ormai l'ha stracciata su tutte le fasce sia per il rapporto prezzo prestazioni, per non parlare dei consumi e del supporto driver...e non me ne frega nulla del famboysmo perche' io compro quello che mi conviene, se amd era competitiva adesso c'era amd sulla parte gpu del mio fisso...
E' questione di essere competitivi in un settore, e purtroppo sono 5 anni abbondanti che nvidia corre da sola nella fascia alta, triste ma vero.
Adesso vediamo cosa potranno tirare fuori, ma per chi cerca il top oggi, esiste solo nvidia.
esattamente
mircocatta
02-05-2020, 23:24
non confondere settore cpu con quelle gpu...eppoi amd fa mille altre cose quindi e' da vedere da dove proviene quel fatturato, se poi penso a tutti le schede che ha tirato fuori dopo la 290 si, confermo appieno,sono stati solo fallimenti ed una prova ad inseguire nvidia che ormai l'ha stracciata su tutte le fasce sia per il rapporto prezzo prestazioni, per non parlare dei consumi e del supporto driver...e non me ne frega nulla del famboysmo perche' io compro quello che mi conviene, se amd era competitiva adesso c'era amd sulla parte gpu del mio fisso...
sei un comico nato
guarda un po chi ci sta nella parte alta della classifica:
https://tpucdn.com/review/evga-geforce-rtx-2070-super-ko/images/performance-per-dollar_1920-1080.png
https://tpucdn.com/review/evga-geforce-rtx-2070-super-ko/images/performance-per-dollar_2560-1440.png
https://tpucdn.com/review/evga-geforce-rtx-2070-super-ko/images/performance-per-dollar_3840-2160.png
spoiler: praticamente solo amd
bel rank per le ultime due Ti invece :asd:
scorpion73
02-05-2020, 23:28
no non è confermato solo rumor per ora
https://wccftech.com/amd-radeon-rx-navi-21-gpu-2x-performance-5700-xt-die-size-rumor/
Si ragazzi ma se sono quelle le dimensioni è una padella più grossa di GT102 mi pare di capire.
Consuma fra 275W e 300W a frequenza normale da quel che leggo, ci vuole un frigorifero per tenerlo buono.
E le prestazioni, pur essendo a 7nm, sarebbero vicine alla RTX 2080ti, due anni dopo.
Insomma, se stanno così le cose Nvidia cammina sul velluto...
Oirasor_84
02-05-2020, 23:42
Si ragazzi ma se sono quelle le dimensioni è una padella più grossa di GT102 mi pare di capire.
Consuma fra 275W e 300W a frequenza normale da quel che leggo, ci vuole un frigorifero per tenerlo buono.
E le prestazioni, pur essendo a 7nm, sarebbero vicine alla RTX 2080ti, due anni dopo.
Insomma, se stanno così le cose Nvidia cammina sul velluto...A quanto pare già ci sono le review delle nuove vga e me le sono perse...poi non capirò mai perché su nvidia un tdp da 270/300w è bello fresco e si raffredda con il respiro del gamer,e per lo stesso tdp su amd ci vuole un compressore con r410 +radiatore di un camion...
Inviato dal mio Mi A1 utilizzando Tapatalk
mikael84
02-05-2020, 23:48
no non è confermato solo rumor per ora
https://wccftech.com/amd-radeon-rx-navi-21-gpu-2x-performance-5700-xt-die-size-rumor/
Ok, diciamo che un die del genere a transistor dovrebbe sforare i 20m.
E' questione di essere competitivi in un settore, e purtroppo sono 5 anni abbondanti che nvidia corre da sola nella fascia alta, triste ma vero.
Adesso vediamo cosa potranno tirare fuori, ma per chi cerca il top oggi, esiste solo nvidia.
Prima non poteva proprio.
Ora con un PP di vantaggio poteva osare di più già con Navi base.
Con le potenzialità che ha quel chip, poteva inguaiare nvidia a sto giro.
Per come è disegnata poteva inserire 3584cc ed allungare il bus a 384bit con soli 320mm2, circa 500mm2 in rapporto rispetto a turing (chiaro senza RT).
Un chip del genere si sarebbe posto tra 2080 e 2080ti per magari 499$.;)
Invece si è adattata, lanciando un post polaris, fascia 229$.
Se nvidia avesse utilizzato i 7nm per Turing (esempio ipotetico), quel chip se la sarebbe giocata con le 1660/2060 sulla fascia 2/300 euro.
Un percorso simil ryzen si poteva fare. Ovviamente speculando, poi le realtà saranno state ben altre.
sei un comico nato
guarda un po chi ci sta nella parte alta della classifica:
https://tpucdn.com/review/evga-geforce-rtx-2070-super-ko/images/performance-per-dollar_1920-1080.png
https://tpucdn.com/review/evga-geforce-rtx-2070-super-ko/images/performance-per-dollar_2560-1440.png
https://tpucdn.com/review/evga-geforce-rtx-2070-super-ko/images/performance-per-dollar_3840-2160.png
spoiler: praticamente solo amd
bel rank per le ultime due Ti invece :asd:
Ma infatti ad AMD puoi criticare tutto, ma il prezzo/prestazioni proprio no :asd:
fraussantin
03-05-2020, 00:03
Con le potenzialità che ha quel chip, poteva inguaiare nvidia a sto giro.
ce lo siamo chiesti tutti il perchè.
forse le rese non troppo buone per questi 7mn.
speriamo bene per ampere .
scorpion73
03-05-2020, 10:32
A quanto pare già ci sono le review delle nuove vga e me le sono perse...poi non capirò mai perché su nvidia un tdp da 270/300w è bello fresco e si raffredda con il respiro del gamer,e per lo stesso tdp su amd ci vuole un compressore con r410 +radiatore di un camion...
Inviato dal mio Mi A1 utilizzando Tapatalk
Queste sono parole che non mi appartengono.
Ho criticato sempre il TDP di Nvidia sulle Turing, e a maggior ragione critico un TDP del genere sulle AMD, che, articolo alla mano, è peggio di quello di Turing.
Una mattonella più grossa di Turing, già difficile da raffreddare, secondo te la raffreddi soffiandoci sopra?
Per quel che riguarda le prestazioni, commento quanto scritto nell'articolo.
Mi scuso per l'OT, ma dovevo dare una risposta.
Oirasor_84
03-05-2020, 10:37
Queste sono parole che non mi appartengono.
Ho criticato sempre il TDP di Nvidia sulle Turing, e a maggior ragione critico un TDP del genere sulle AMD, che, articolo alla mano, è peggio di quello di Turing.
Una mattonella più grossa di Turing, già difficile da raffreddare, secondo te la raffreddi soffiandoci sopra?
Per quel che riguarda le prestazioni, commento quanto scritto nell'articolo.
Mi scuso per l'OT, ma dovevo dare una risposta.Le top hanno sempre avuto tdp di questo calibro,la tua critica non ha senso appunto, o pensi che con ampere la top vada a batteria???
Inviato dal mio Mi A1 utilizzando Tapatalk
nessuno29
03-05-2020, 10:57
Queste sono parole che non mi appartengono.
Ho criticato sempre il TDP di Nvidia sulle Turing, e a maggior ragione critico un TDP del genere sulle AMD, che, articolo alla mano, è peggio di quello di Turing.
Una mattonella più grossa di Turing, già difficile da raffreddare, secondo te la raffreddi soffiandoci sopra?
Per quel che riguarda le prestazioni, commento quanto scritto nell'articolo.
Mi scuso per l'OT, ma dovevo dare una risposta.
Ma guarda che le top hanno sempre avuto consumi simili, girano bios per le 2080ti da 400 watt, e non fondono mica con un buon dissipatore custom dov'è il problema?
Se la nuova 3080ti andrà il 60% in più di una 2080ti consumando uguale sarebbe ottimo comunque.
Legolas84
03-05-2020, 11:15
Ma guarda che le top hanno sempre avuto consumi simili, girano bios per le 2080ti da 400 watt, e non fondono mica con un buon dissipatore custom dov'è il problema?
Se la nuova 3080ti andrà il 60% in più di una 2080ti consumando uguale sarebbe ottimo comunque.
Su questo sono d'accordo, l'importante è che anche AMD faccia una scheda simile.... magari senza fare cartello sui prezzi come stanno facendo...
scorpion73
03-05-2020, 14:41
Le top hanno sempre avuto tdp di questo calibro,la tua critica non ha senso appunto, o pensi che con ampere la top vada a batteria???
Inviato dal mio Mi A1 utilizzando Tapatalk
Ma non è affatto vero.
Parliamo di TDP dichiarato e non reale.
La 1080ti aveva dichiarato 250W di TDP e non 275W o 300W addirittura, e uguale la 980ti, tanto è vero che avevano un connettore da 6 e uno da 8.
Una scheda che ha quel TDP dichiarato ha 2 connettori da 8 e forse manco gli basta.
la Radeon VII aveva 300W di TDP. E le Nvidia riuscite male o con un processo produttivo troppo enorme per le funzioni richieste (come le Turing).
Dopodiché i bios moddati son un'altra cosa, parliamo di bios originali.
Una 7nm max 250W la top di gamma, non di più, in linea con le precedenti gen.
Ma deve avere una potenza molto più alta delle 2080ti attuali però.
L'articolo per Big Navi parla di 275W-300W con la potenza all'incirca di una 2080ti, a me non pare un gran successo.
Se Ampere avrà un TDP così tanto alto con potenza superiore alla 2080ti di un buon 50% allora ci posso stare, sennò no, manco per Ampere, ma io sono convinto che si manterrà sui 250W dichiarati.
Ripeto, parliamo di TDP dichiarato qui, perché i 300W di Navi sull'articolo da come ho capito io sono dichiarati e non reali (ergo reale è sempre di più).
Oirasor_84
03-05-2020, 14:47
Ma non è affatto vero.
Parliamo di TDP dichiarato e non reale.
La 1080ti aveva dichiarato 250W di TDP e non 275W o 300W addirittura, e uguale la 980ti, tanto è vero che avevano un connettore da 6 e uno da 8.
Una scheda che ha quel TDP dichiarato ha 2 connettori da 8 e forse manco gli basta.
la Radeon VII aveva 300W di TDP. E le Nvidia riuscite male o con un processo produttivo troppo enorme per le funzioni richieste (come le Turing).
Dopodiché i bios moddati son un'altra cosa, parliamo di bios originali.
Una 7nm max 250W la top di gamma, non di più, in linea con le precedenti gen.
Ma deve avere una potenza molto più alta delle 2080ti attuali però.
L'articolo per Big Navi parla di 275W-300W con la potenza all'incirca di una 2080ti, a me non pare un gran successo.
Se Ampere avrà un TDP di 250W con potenza superiore alla 2080ti di un buon 50% allora ci posso stare, sennò no, manco per Ampere
Ripeto, parliamo di TDP dichiarato qui, perché i 300W di Navi sull'articolo da come ho capito io sono dichiarati e non reali (ergo reale è sempre di più).
:mc:
Come sarà secondo voi la nuova scheda serie 3xxx che avrà una potenza di calcolo pari alla 1080Ti?
scorpion73
03-05-2020, 14:48
:mc:
Comprati pure big navi, che vuoi che ti dica.
Hai poco da mettere scenette, se dichiarati avrà 300W di TDP per una potenza come la 2080ti, mi tengo quella che consuma meno paradossalmente (oltre ad essere di due anni fa)
scorpion73
03-05-2020, 14:51
Ma guarda che le top hanno sempre avuto consumi simili, girano bios per le 2080ti da 400 watt, e non fondono mica con un buon dissipatore custom dov'è il problema?
Se la nuova 3080ti andrà il 60% in più di una 2080ti consumando uguale sarebbe ottimo comunque.
Non c'è nessun problema con le percentuali che dici tu, ci mancherebbe.
Ma una Big Navi nel 2020 con la potenza di una scheda di due anni fa (2080ti) e TDP maggiore non ho capito che appeal possa avere e che beneficio possa apportare...
Oirasor_84
03-05-2020, 14:57
Comprati pure big navi, che vuoi che ti dica.
Hai poco da mettere scenette, se dichiarati avrà 300W di TDP per una potenza come la 2080ti, mi tengo quella che consuma meno paradossalmente (oltre ad essere di due anni fa)
Per quanto mi riguarda schede up to 500€ se lo possono ficcare nel c..o nvidia,amd,intel,huawei ecc...
Che poi dove è scritto che andrà come la 2080ti,stare li a sentenziare dei rumors per 25w mi pare abbastanza ridicolo tutto qua,già è no sense farlo con le vga in commercio,figurati su dei rumors di schede non uscite.
fraussantin
03-05-2020, 15:01
Non c'è nessun problema con le percentuali che dici tu, ci mancherebbe.
Ma una Big Navi nel 2020 con la potenza di una scheda di due anni fa (2080ti) e TDP maggiore non ho capito che appeal possa avere e che beneficio possa apportare...L'unica cosa che può e deve apportare è un sostanzioso risparmio in acquisto , ma non rispetto alla 2080ti , ma rispetto alla relativa 3000 .
Se ci sarà questo si creerà una fetta di mercato.
Se avrà un prezzo equiparabile allora non se la incularà nessuno.
thunderforce83
03-05-2020, 15:14
https://wccftech.com/nvidias-ampere-gpus-tsmcs-7nm-and-next-gen-hopper-gpus-samsungs-5nm-euv-rumor/
sei un comico nato
guarda un po chi ci sta nella parte alta della classifica:
https://tpucdn.com/review/evga-geforce-rtx-2070-super-ko/images/performance-per-dollar_1920-1080.png
https://tpucdn.com/review/evga-geforce-rtx-2070-super-ko/images/performance-per-dollar_2560-1440.png
https://tpucdn.com/review/evga-geforce-rtx-2070-super-ko/images/performance-per-dollar_3840-2160.png
spoiler: praticamente solo amd
bel rank per le ultime due Ti invece :asd:
meglio comico nato che fanboy estremo, senza se e senza ma:D ...per quello vi consiglio di andare a scrivere nella folta e nutrita schiera di fondamentalisti che si trovano nel forum della concorrenza...che almeno tra di voi vi capite e potete gridare al gomplotto, che le schede amd sono meglio,costano meno,rendono meglio, eppure non vendono una cippa, ah pardon...ci siete voi che le comprate...:sofico: :ciapet:
se poi queste offese gratuite le partorisci solo per dire che la tua 1080ti in firma e' la migliore di tutte per il rapporto qualita' prezzo e che sei il piu' intelligente di tutti fai pure...
e complimenti per il flame...
PS: comico nato vallo a dire agli amici tuoi...
Andy1111
03-05-2020, 15:28
Ma aspettare che escano per poi trarre ognuno le sue conclusioni no?
di Ampere si sa poco di Navi 2 ancora meno e quel poco che si sa non è nulla di ufficiale ........
https://wccftech.com/nvidias-ampere-gpus-tsmcs-7nm-and-next-gen-hopper-gpus-samsungs-5nm-euv-rumor/
meglio comico nato che fanboy estremo, senza se e senza ma:D ...per quello vi consiglio di andare a scrivere nella folta e nutrita schiera di fondamentalisti che si trovano nel forum della concorrenza...che almeno tra di voi vi capite e potete gridare al gomplotto, che le schede amd sono meglio,costano meno,rendono meglio, eppure non vendono una cippa, ah pardon...ci siete voi che le comprate...:sofico: :ciapet:
se poi queste offese gratuite le partorisci solo per dire che la tua 1080ti in firma e' la migliore di tutte per il rapporto qualita' prezzo e che sei il piu' intelligente di tutti fai pure...
e complimenti per il flame...
PS: comico nato vallo a dire agli amici tuoi...
ero già intervenuto ieri, tu hai prima postato e poi segnalato.. ne avessi fatta una giusta.. ripeto la regoletta: si segnala e si lascia al mod decidere e la cosa cmq finisce li. Invece hai dovuto dare risposta moltiplicando per 10 per avere la tua vendetta personale.
Sospeso 7gg
>bYeZ<
In giro per internet ho trovato questa:
https://i.postimg.cc/T2H96mXM/Immagine.png (https://postimg.cc/w3LJ51v0)
Ma è attendibile una 3080Ti così?:eek:
mikael84
03-05-2020, 17:09
In giro per internet ho trovato questa:
Ma è attendibile una 3080Ti così?:eek:
Fake.
GA100 sarà il chip Tesla HPC e HBM, non la 3080ti.
AceGranger
03-05-2020, 17:14
In giro per internet ho trovato questa:
https://i.postimg.cc/T2H96mXM/Immagine.png (https://postimg.cc/w3LJ51v0)
Ma è attendibile una 3080Ti così?:eek:
a 3000 euro si :asd:
Fake.
GA100 sarà il chip Tesla HPC e HBM, non la 3080ti.
A ecco, mi pareva un po' troppo esagerata rispetto alla 3080 liscia (ancora un po' e la doppia).
Comunque bel mostro la Tesla.
Grazie della info.
OrazioOC
03-05-2020, 17:36
https://videocardz.com/newz/nvidia-dgx-a100-first-ampere-based-system-spotted
mircocatta
03-05-2020, 17:39
Ma non è affatto vero.
Parliamo di TDP dichiarato e non reale.
La 1080ti aveva dichiarato 250W di TDP e non 275W o 300W addirittura, e uguale la 980ti, tanto è vero che avevano un connettore da 6 e uno da 8.
Una scheda che ha quel TDP dichiarato ha 2 connettori da 8 e forse manco gli basta.
la Radeon VII aveva 300W di TDP. E le Nvidia riuscite male o con un processo produttivo troppo enorme per le funzioni richieste (come le Turing).
Dopodiché i bios moddati son un'altra cosa, parliamo di bios originali.
Una 7nm max 250W la top di gamma, non di più, in linea con le precedenti gen.
Ma deve avere una potenza molto più alta delle 2080ti attuali però.
L'articolo per Big Navi parla di 275W-300W con la potenza all'incirca di una 2080ti, a me non pare un gran successo.
Se Ampere avrà un TDP così tanto alto con potenza superiore alla 2080ti di un buon 50% allora ci posso stare, sennò no, manco per Ampere, ma io sono convinto che si manterrà sui 250W dichiarati.
Ripeto, parliamo di TDP dichiarato qui, perché i 300W di Navi sull'articolo da come ho capito io sono dichiarati e non reali (ergo reale è sempre di più).
mah di solito il tdp dichiarati sono sempre superiori al consumo della scheda, vedi per esempio la 5700xt o radeon VII, che in game consumano meno del tdp.
come tutti sappiamo (almeno spero) il tdp non è altro il valore di watt che il design deve dissipatore può dissipare, e ci sta che sia alto per queste nuove rdna2 visto che di default pare montino dei triventola come le radeon VII (difatti anche lei ha un tdp di 295watt ma ne consuma, in game, mediamente 268)
https://www.techpowerup.com/review/evga-geforce-rtx-2070-super-ko/32.html
comunque non capisco dove leggi che andrà "solo" come una 2080ti quando nel titolo leggo "performance doppie di navi10" il che vorrebbe dire andare ben oltre quelle delle 2080ti :confused:
fidati che al prossimo giro ci sarà una bella lotta nella fascia alta, tutto a favore delle nostre tasche
A ecco, mi pareva un po' troppo esagerata rispetto alla 3080 liscia (ancora un po' e la doppia).
Comunque bel mostro la Tesla.
Grazie della info.
Se per questo anche la 3080 è esagerata con 4608cc...
E sarabbe anche strano che GA103 subisca un cut cosi ponderoso tra x70 x80.
Quindi specifiche molto campate per aria.
Secondo me è possibile che avremo questa struttura:
GA102: 384bit - 5376cc - TITAN
GA102: 384bit - 4992cc - RTX 3090
GA102: 352bit - 4608cc - RTX 3080ti
GA103: 320bit - 3840cc - RTX 3080
GA104: 256bit - 3584cc - RTX 3070
GA104: 192bit - 3072cc - RTX 3060
fraussantin
03-05-2020, 17:51
Se per questo anche la 3080 è esagerata con 4608cc...
E sarabbe anche strano che GA103 subisca un cut cosi ponderoso tra x70 x80.
Quindi specifiche molto campate per aria.
Secondo me è possibile che avremo questa struttura:
GA102: 384bit - 5376cc - TITAN
GA102: 384bit - 4992cc - RTX 3090
GA102: 352bit - 4608cc - RTX 3080ti
GA103: 320bit - 3840cc - RTX 3080
GA104: 256bit - 3584cc - RTX 3070
GA104: 192bit - 3072cc - RTX 3060Ma c'é spazio ,( e senso ) nel mercato di fare una 3090?
Non é meglio "asserbarsi" i die per un refrash ?
Ma c'é spazio ,( e senso ) nel mercato di fare una 3090?
Non é meglio "asserbarsi" i die per un refrash ?
Mi baso sui rumors, personalmente anche a me non piace l'idea di una 3090...
AceGranger
03-05-2020, 17:55
Se per questo anche la 3080 è esagerata con 4608cc...
E sarabbe anche strano che GA103 subisca un cut cosi ponderoso tra x70 x80.
Quindi specifiche molto campate per aria.
Secondo me è possibile che avremo questa struttura:
GA102: 384bit - 5376cc - TITAN
GA102: 384bit - 4992cc - RTX 3090
GA102: 352bit - 4608cc - RTX 3080ti
GA103: 320bit - 3840cc - RTX 3080
GA104: 256bit - 3584cc - RTX 3070
GA104: 192bit - 3072cc - RTX 3060
secondo me la Titan rimarra un derivato dal chip Tesla e dal costo di 3000 euro ( è un bel modo per rivendere chip Tesla non consoni e fare comuqne un pacco di soldi con gente che le Tesla non le acquisterebbero anche in assenza di Titan ); magari torneranno a dargli un connotato piu gaming, ma attualmente è una GPU in una fascia prettamente Pro.
mikael84
03-05-2020, 17:57
A ecco, mi pareva un po' troppo esagerata rispetto alla 3080 liscia (ancora un po' e la doppia).
Comunque bel mostro la Tesla.
Grazie della info.
:p
Diciamo che quei chip, tralasciando le specifiche, vanno completamente nella direzione opposta ai vecchi rumors.
Ovvero, in quello speculato sino ad ora, si parlava di doppio tensor per TPC, qua di doppio RT.
mah di solito il tdp dichiarati sono sempre superiori al consumo della scheda, vedi per esempio la 5700xt o radeon VII, che in game consumano meno del tdp.
La questione è legata al lavoro elettrico fatto da nvidia, con i chip tarati a pennello in rapporto TDP/clock/tensione.
1080ti/2080ti sono tarate a poco più di 40 watt per GPC, che è troppo poco, infatti downclockano a bestia, la 1080ti sta a 1650mhz per review.:)
AMD a 7nm spara le schede a 1,2v (un valore che utilizzava nvidia sui 28nm). Basta vedere la cut, che sotto il volt, sta a 150 watt.
Mi aspetto che nvidia con i 7nm o quello che sarà, scenderà a 1v o addirittura sotto.
mikael84
03-05-2020, 18:03
Se per questo anche la 3080 è esagerata con 4608cc...
E sarabbe anche strano che GA103 subisca un cut cosi ponderoso tra x70 x80.
Quindi specifiche molto campate per aria.
Secondo me è possibile che avremo questa struttura:
GA102: 384bit - 5376cc - TITAN (doppia densità)
GA102: 384bit - 4992cc - RTX 3090/3080ti
GA103: 320bit - 3840cc - RTX 3080
GA104: 256bit - 3072cc - RTX 3070
fix:O
fraussantin
03-05-2020, 18:07
Ecco chiamare 3090 quella che dovrebbe essere la 3080ti sarebbe un bene , si fa troppa confusione specialmente tra i meno esperti , con 2 prodotti completamente diversi.
A me interessa una 3060, ma non si azzardassero a uscirsene con una roba da meno di 8GB con tanto di RT core inutili e nemmeno utilizzabili a 1080p.
fix:O
Io avevo ipotizzato per la 3080 un chip a 6 GPC con una struttura a 5 TPC per un totale di 3840cc mentre la 3070 un possibile 4 GPC da 7 TPC quindi 3584cc totali, ma con 3072 sarebbe a sua volta un chip a se cuttato drasticamente.
scorpion73
03-05-2020, 18:21
Per quanto mi riguarda schede up to 500€ se lo possono ficcare nel c..o nvidia,amd,intel,huawei ecc...
Che poi dove è scritto che andrà come la 2080ti,stare li a sentenziare dei rumors per 25w mi pare abbastanza ridicolo tutto qua,già è no sense farlo con le vga in commercio,figurati su dei rumors di schede non uscite.
Io ho commentato solo un articolo, visto che è stato postato mi sembra possibile un commento.
Il resto sono solo film che non mi sono certo fatto io.
Che andrà in quel modo sta scritto nell'articolo, se hai la decenza di leggerlo prima di scrivere, se poi non sarà vero ne discuteremo.
E' un thread aspettando, non una disamina tecnica.
Se per questo anche la 3080 è esagerata con 4608cc...
E sarabbe anche strano che GA103 subisca un cut cosi ponderoso tra x70 x80.
Quindi specifiche molto campate per aria.
Secondo me è possibile che avremo questa struttura:
GA102: 384bit - 5376cc - TITAN
GA102: 384bit - 4992cc - RTX 3090
GA102: 352bit - 4608cc - RTX 3080ti
GA103: 320bit - 3840cc - RTX 3080
GA104: 256bit - 3584cc - RTX 3070
GA104: 192bit - 3072cc - RTX 3060
Ma così non ci sarebbe troppo "buco" fra gli 8192 di Tesla e i 5376 della Titan?
Vogli dire che le Tesla mal riuscite (con unità operative difettose) potrebbero esser meglio sfruttate con una una gamma game con più CC, oppure no?:mbe:
scorpion73
03-05-2020, 18:49
mah di solito il tdp dichiarati sono sempre superiori al consumo della scheda, vedi per esempio la 5700xt o radeon VII, che in game consumano meno del tdp.
come tutti sappiamo (almeno spero) il tdp non è altro il valore di watt che il design deve dissipatore può dissipare, e ci sta che sia alto per queste nuove rdna2 visto che di default pare montino dei triventola come le radeon VII (difatti anche lei ha un tdp di 295watt ma ne consuma, in game, mediamente 268)
https://www.techpowerup.com/review/evga-geforce-rtx-2070-super-ko/32.html
comunque non capisco dove leggi che andrà "solo" come una 2080ti quando nel titolo leggo "performance doppie di navi10" il che vorrebbe dire andare ben oltre quelle delle 2080ti :confused:
ad un certo punto dell'articolo dice questo:
"so the Navi 21 GPU could exceed the RTX 2080 SUPER's performance and even end up coming close to the RTX 2080 Ti"
fidati che al prossimo giro ci sarà una bella lotta nella fascia alta, tutto a favore delle nostre tasche
Ma figurati, io sarei il primo a esserne strafelice, più potenza a meno prezzo, ci metterei la firma ieri.
Io commento solo quel che dice l'articolo, se poi non sarà vero, meglio per tutti.
Ma se nel thread fate una levata di scudi quasi come se uno ci guadagnasse qualcosa, allora gli articoli non postateli proprio.
Ma così non ci sarebbe troppo "buco" fra gli 8192 di Tesla e i 5376 della Titan?
Vogli dire che le Tesla mal riuscite (con unità operative difettose) potrebbero esser meglio sfruttate con una una gamma game con più CC, oppure no?:mbe:
Un derivato della tesla lo vedo molto in ottica Titan V.
La vedo difficile che possa inserirsi come chip gaming, anche perchè creerebbe uno stacco ponderoso da Turing andremo praticamente a raddoppiare le performance per ogni chip che uniti all'incremento dei tensor core per TPC sarebbe qualcosa di estremo, e credo che un salto del genere non si sia mai visto.
mikael84
03-05-2020, 20:35
secondo me la Titan rimarra un derivato dal chip Tesla e dal costo di 3000 euro ( è un bel modo per rivendere chip Tesla non consoni e fare comuqne un pacco di soldi con gente che le Tesla non le acquisterebbero anche in assenza di Titan ); magari torneranno a dargli un connotato piu gaming, ma attualmente è una GPU in una fascia prettamente Pro.
Un seguito della Titan V praticamente. Potrebbero pure farla, considerando che il punto forte della Titan classica potrebbe essere colmato dalla doppia densità già da subito.
Di tesla pare ci siano alcune versioni.
Ecco chiamare 3090 quella che dovrebbe essere la 3080ti sarebbe un bene , si fa troppa confusione specialmente tra i meno esperti , con 2 prodotti completamente diversi.
Qua bisogna vedere cosa combina AMD. Se supera la 3080, è probabile un doppio cut di GA102
A me interessa una 3060, ma non si azzardassero a uscirsene con una roba da meno di 8GB con tanto di RT core inutili e nemmeno utilizzabili a 1080p.
La 3060 potrebbe essere una 2070 super a clock ben più alti e RT maggiorato (8gb)
Io avevo ipotizzato per la 3080 un chip a 6 GPC con una struttura a 5 TPC per un totale di 3840cc mentre la 3070 un possibile 4 GPC da 7 TPC quindi 3584cc totali, ma con 3072 sarebbe a sua volta un chip a se cuttato drasticamente.
Solitamente in fase tock si fa TPC per GPC x clock, quindi la 3080 così ci può stare, però così servirebbe anche una buona dose di clock e ram.
Uno shrink di TU102 ottimizzato sarebbe stato il top.
Riguardo la 3070, il rumor speculato mi pare più probabile
https://cdn.wccftech.com/wp-content/uploads/2020/02/NVIDIA-Ampere-GPU-GA104-Block-Diagram-1-Rumor-1221x1480.jpg
La 2070 attualmente è formata da 3 GPC x 6 TPC e canale monco.
Volendo si potrebbe passare a 4 GPC e 256bit, sempre da 6 TPC e ritorni a 3072cc.
Un chip da 7 TPC, in versione gaming è una schifezza oscena.:p
28 pixel, rasterizzati 16.
3,5 primitive, elaborata 1
latenze che aumentano all'interno del GPC, guarda il chip TU106 in confronto al x4.
Per avere un grosso passo in avanti, dovresti cercare di creare un GPC da 8 TPC, rasterizzare a 32 ed elaborare almeno 2 primitive.:)
Predator_1982
04-05-2020, 09:58
Ma aspettare che escano per poi trarre ognuno le sue conclusioni no?
di Ampere si sa poco di Navi 2 ancora meno e quel poco che si sa non è nulla di ufficiale ........
quoto.
Riguardo la 3070, il rumor speculato mi pare più probabile
https://cdn.wccftech.com/wp-content/uploads/2020/02/NVIDIA-Ampere-GPU-GA104-Block-Diagram-1-Rumor-1221x1480.jpg
La 2070 attualmente è formata da 3 GPC x 6 TPC e canale monco.
Volendo si potrebbe passare a 4 GPC e 256bit, sempre da 6 TPC e ritorni a 3072cc.
Un chip da 7 TPC, in versione gaming è una schifezza oscena.:p
28 pixel, rasterizzati 16.
3,5 primitive, elaborata 1
latenze che aumentano all'interno del GPC, guarda il chip TU106 in confronto al x4.
Per avere un grosso passo in avanti, dovresti cercare di creare un GPC da 8 TPC, rasterizzare a 32 ed elaborare almeno 2 primitive.:)
Si ma la struttura dei chipponi in base ai ai rumors pervenuti è data 6GPC da 7TPC per un totale complessivo di 5376cc.
Nella precedente generazione la 2070 è sostanzialmente un TU102 completamente dimezzato ed esteso a 256bit.
Di solito la struttura dei GPC dei chipponi segue anche le fasce inferiori credo che la 2080 sia stata l'unica anomalia in questi anni escludendo ovviamente i chip entry level e di fascia media.
mikael84
04-05-2020, 11:16
Si ma la struttura dei chipponi in base ai ai rumors pervenuti è data 6GPC da 7TPC per un totale complessivo di 5376cc.
Nella precedente generazione la 2070 è sostanzialmente un TU102 completamente dimezzato ed esteso a 256bit.
Di solito la struttura dei GPC dei chipponi segue anche le fasce inferiori credo che la 2080 sia stata l'unica anomalia in questi anni escludendo ovviamente i chip entry level e di fascia media.
No, sono 6 TPC per 7 GPC, esattamente l'opposto.
https://i.postimg.cc/PJbQdrTJ/chip.png
Con un collegamento simile, guadagni 1 primitiva, ed in base alla devastazione, sei quasi sicuro di non tagliare banda.
Sul dimezzamento, mi sarei aspettato un chippone da 6144cc sui 7nm+ inizialmente, però l'andazzo pare più incentrato verso l'RT, essendo derivazione pro.
fraussantin
04-05-2020, 11:22
No, sono 6 TPC per 7 GPC, esattamente l'opposto.
https://i.postimg.cc/PJbQdrTJ/chip.png
Con un collegamento simile, guadagni 1 primitiva, ed in base alla devastazione, sei quasi sicuro di non tagliare banda.
Sul dimezzamento, mi sarei aspettato un chippone da 6144cc sui 7nm+ inizialmente, però l'andazzo pare più incentrato verso l'RT, essendo derivazione pro.Ma praticamente é un chip da 8 con un settore spento.
Ma questo perché? Il silicio costa.
Sono scarti di qualcos'altro o le rese sanno già che saranno basse?
mikael84
04-05-2020, 11:35
Ma praticamente é un chip da 8 con un settore spento.
Ma questo perché? Il silicio costa.
Sono scarti di qualcos'altro o le rese sanno già che saranno basse?
No, disegnato così è proprio da 7 con il collegamento della Titan a 384bit.
Dalle speculazioni, si spenderà sul die per raddoppiare tensor o RT e fp32 (per RT).
Sui 7nm + di TSMC, io sinceramente pensavo per una chiusura ad 8 e bus maggiorato, questo pare quasi allineato ad un 8nm.
Visto così, ricorda kepler 780ti
https://i.postimg.cc/XYFyZKJP/kepler.png
No, sono 6 TPC per 7 GPC, esattamente l'opposto.
Con un collegamento simile, guadagni 1 primitiva, ed in base alla devastazione, sei quasi sicuro di non tagliare banda.
Sul dimezzamento, mi sarei aspettato un chippone da 6144cc sui 7nm+ inizialmente, però l'andazzo pare più incentrato verso l'RT, essendo derivazione pro.
Allora ci troviamo, direi confermatissima la 3070 con 3072cc.
Peccato che con 7 GPC non abbiano portato il bus a 448bit sarebbe stato più lineare.
fraussantin
04-05-2020, 11:49
No, disegnato così è proprio da 7 con il collegamento della Titan a 384bit.
Dalle speculazioni, si spenderà sul die per raddoppiare tensor o RT e fp32 (per RT).
Sui 7nm + di TSMC, io sinceramente pensavo per una chiusura ad 8 e bus maggiorato, questo pare quasi allineato ad un 8nm.
Visto così, ricorda kepler 780ti
https://i.postimg.cc/XYFyZKJP/kepler.pngNon mi ricordavo \non sapevo di Kepler .
Ma Non capisco il senso ? Sprecano silicio o tagliano i chip a "tetris"?
mikael84
04-05-2020, 11:52
Allora ci troviamo, direi confermatissima la 3070 con 3072cc.
Peccato che con 7 GPC non abbiano portato il bus a 448bit sarebbe stato più lineare.
Infatti, così, monco è pessimo, senza considerare l'aumento delle rop's a 112.
A cache devastata, male andando scendevi a 104 rop's e 416bit, lasciando però 28gb per la quadro.
Quest'ultima si ritroverebbe con la stessa ram di Turing.
Io sui 7nm avrei preferito sinceramente 6144cc su GA102 e 4608 su GA103/4 come vogliono chiamarlo, considerando che samsung non sembra un fulmine di guerra sui clock.
mikael84
04-05-2020, 12:15
Non mi ricordavo \non sapevo di Kepler .
Ma Non capisco il senso ? Sprecano silicio o tagliano i chip a "tetris"?
Diciamo che è molto più complesso.
Quando disegnano un chip devono tenere conto di innumerevoli fattori.
A 6 GPC non sarebbero rientrati nei parametri ne di rese ne di TDP.
Tecnicamente hanno avuto già molti problemi a chiuderlo a 5. Dopo vari mesi sono riusciti ad abilitare 2 smx (2688cc) e 384bit, ma le rese erano oscene, infatti, il chip di scarto perdeva ben 64bit e 128cc.
Dopo 5 mesi circa, il chip più puro fu venduto come Titan (la prima) e per il gaming lanciarono la 780, ovvero 4 GPC full.
Per contrastare la 290x, nvidia fecce un'accurata selezione, è scelse tutti i silici migliori che aveva e gli attivò l'ultimo SMX così da chiuderlo tutto (2880 /780ti). Tuttavia i consumi erano altissimi, ci volevano bios mod o sforava subito i 300watt.:)
Inoltre non aveva compressione e la BW effettiva era di appena 215 gb/s su 335 gb/s.
Discorso diverso qua con Ampere, dubito che con i 7nm, non si possa salire a 6144cc, quando già con Tesla riesce a toccare gli 8196cc.
Quindi a meno di utilizzare realmente un PP pessimo, poteva fare ben di più.
Quel chip speculato pare pronto per essere fatto su un pessimo 8nm LPP.
Infatti, così, monco è pessimo, senza considerare l'aumento delle rop's a 112.
A cache devastata, male andando scendevi a 104 rop's e 416bit, lasciando però 28gb per la quadro.
Quest'ultima si ritroverebbe con la stessa ram di Turing.
Io sui 7nm avrei preferito sinceramente 6144cc su GA102 e 4608 su GA103/4 come vogliono chiamarlo, considerando che samsung non sembra un fulmine di guerra sui clock.
Mi sa che per un 8 GPC se ne parla post Ampere solo che onestamente con 8GPC mi aspetto un chip bello grosso a 512bit farlo mezzo monco su 384bit mi sembrerebbe assurdo.
Jeetkundo
04-05-2020, 12:28
Secondo voi i rumors che parlano di una presentazione di Ampere a metà maggio sono veri? Ci metterei anche la firma, magari con una commercializzazione da settembre/ottobre in poi :D
OrazioOC
04-05-2020, 12:36
Secondo voi i rumors che parlano di una presentazione di Ampere a metà maggio sono veri? Ci metterei anche la firma, magari con una commercializzazione da settembre/ottobre in poi :D
Sarebbe leggermente ora di mandare turing in pensione, anche perchè di scorte di gpu in giro ce ne sono sempre di meno, e non penso che sia colpa solamente del covid.
Secondo voi i rumors che parlano di una presentazione di Ampere a metà maggio sono veri? Ci metterei anche la firma, magari con una commercializzazione da settembre/ottobre in poi :D
Ci sarà il GTC verranno mostrate probabilmente le proposte tesla, per un evento dedicato al gaming se parla tra qualche mese, ma incrociamo le dita che trapeli comunque qualche info durante il GTC
Predator_1982
04-05-2020, 12:45
Sarebbe leggermente ora di mandare turing in pensione, anche perchè di scorte di gpu in giro ce ne sono sempre di meno, e non penso che sia colpa solamente del covid.
bah, non credo si scapicolleranno per iniziare così presto la commercializzazione in massa. Secondo me dopo la presentazione delle GPU gaming (che non è detto faranno il 14), ne commercializzeranno pochi esemplari e inizierà una sorta di periodo di convivenza con Turing.
Complice poi anche l'emergenza sanitaria in atto non vedo quali motivi abbiano per accelerare il tutto, del resto penso terranno anche conto di un periodo economicamente non felicissimo per molta gente e hanno tutto l'interesse a garantire un lancio ottimale di una architettura sulla quale avranno investito palate di soldi.
OrazioOC
04-05-2020, 12:50
bah, non credo si scapicolleranno per iniziare così presto la commercializzazione in massa. Secondo me dopo la presentazione delle GPU gaming (che non è detto faranno il 14), ne commercializzeranno pochi esemplari e inizierà una sorta di periodo di convivenza con Turing.
Complice poi anche l'emergenza sanitaria in atto non vedo quali motivi abbiano per accelerare il tutto, del resto penso terranno anche conto di un periodo economicamente non felicissimo per molta gente e hanno tutto l'interesse a garantire un lancio ottimale di una architettura sulla quale avranno investito palate di soldi.
Quello sicuramente, non è che di punto in bianco ci ritroveremo 3080 ti/80/70/60 e 50, però bisogna iniziare a dar dei segnali che nvidia è pronta a rinnovare la propria lineup.
Perchè chi voleva una gpu rtx 2000, ha avuto quasi 2 anni per comprarla, quindi le fette di mercato che nvidia poteva accaparrarsi con questa gen sono esaurite.
Predator_1982
04-05-2020, 13:22
Perchè chi voleva una gpu rtx 2000, ha avuto quasi 2 anni per comprarla, quindi le fette di mercato che nvidia poteva accaparrarsi con questa gen sono esaurite.
Se dovessero presentare la new gen e ribassare il listino delle proposte Turing attuali credo potrebbero attirare una bella fetta di clienti ancora, quelli che vorrebbero una RTX ma che stanno attendendo un ribasso.
In ogni caso ci spero anche io, non fosse altro per la curiosità di capire cosa hanno sfornato a questo giro anche se, a mio parere, il 14 presenteranno la nuova architettura nella sua declinazione più "Datacenter" e eventuali novità dell'ecosistema a contorno che introdurrà.
Vedremo
OrazioOC
04-05-2020, 13:27
Se dovessero presentare la new gen e ribassare il listino delle proposte Turing attuali credo potrebbero attirare una bella fetta di clienti ancora, quelli che vorrebbero una RTX ma che stanno attendendo un ribasso.
In ogni caso ci spero anche io, non fosse altro per la curiosità di capire cosa hanno sfornato a questo giro anche se, a mio parere, il 14 presenteranno la nuova architettura nella sua declinazione più "Datacenter" e eventuali novità dell'ecosistema a contorno che introdurrà.
Vedremo
Il fatto è che il computex è rimandato a fine settembre, sarebbe molto a ridosso con le prossime console, non sarebbe così saggio presentarle a fine anno.
Secondo me è verosimile vedere 3080 e 3070 già a luglio, mentre per la 3080 ti si andrà verso fine anno/inizio 2021, idem per le 3060 e 3050 ti.
fraussantin
04-05-2020, 13:28
Se dovessero confermare il lancio a novembre non vedo la necessità di calare il prezzo.
ci sono sempre quelli che hanno bisogno o possibilitá adesso.
Si rompe la scheda , esce il gioco che gli interessa e la vecchia non cela fa , oppure semplicemente hanno racimolato adesso i soldi necessari.
Chi cambia per avere la gpu aggiornata di solito lo fa nei primi mesi.
Nvidia non ha mai calato i prezzi se non si é trovata con l'acqua alla gola e le poche disponibilità di GPU non lo fanno proprio pensare
Se poi dovesse uscire a luglio allora ci sta .. ma vedo piú probabile un ritardo nelle disponibilità delle nuove per smaltire quel poco che resta di turing
Secondo voi i rumors che parlano di una presentazione di Ampere a metà maggio sono veri? Ci metterei anche la firma, magari con una commercializzazione da settembre/ottobre in poi :D
solo roba pro o hpc, le gaming pare a fine anno
ps: oppure quando esce cyberpunk, più facile ritardino il gioco per metterle in bundle che non il contrario :asd:
mikael84
04-05-2020, 17:05
Mi sa che per un 8 GPC se ne parla post Ampere solo che onestamente con 8GPC mi aspetto un chip bello grosso a 512bit farlo mezzo monco su 384bit mi sembrerebbe assurdo.
Con lo standard MCM del 2022 a 5nm.
https://www.hwupgrade.it/articoli/skvideo/5709/dlss-20-e-fidelityfx-provati-con-mechwarrior-5_index.html
Bell'articolo sul DLSS2, tanta roba 25% di prestazioni mantenendo la qualità.
Voi che ne capite più di me dalle indiscrezioni uscite ci sarà un miglioramento anche sui tensorcore dedicati al DLSS o si sta puntando solo su quelli dedicati ai supermegaultraraggi dimezza prestazioni?
Predator_1982
05-05-2020, 11:42
https://www.hwupgrade.it/articoli/skvideo/5709/dlss-20-e-fidelityfx-provati-con-mechwarrior-5_index.html
Bell'articolo sul DLSS2, tanta roba 25% di prestazioni mantenendo la qualità.
Voi che ne capite più di me dalle indiscrezioni uscite ci sarà un miglioramento anche sui tensorcore dedicati al DLSS o si sta puntando solo su quelli dedicati ai supermegaultraraggi dimezza prestazioni?
Io penso che miglioreranno anche i tensor, non credo che studiando la nuova architettura non abbiano individuato dei punti di miglioramento anche su queste unità.
Io penso che miglioreranno anche i tensor, non credo che studiando la nuova architettura non abbiano individuato dei punti di miglioramento anche su queste unità.Li hanno raddoppiati per tpc, quindi il salto sarà considerevole, una 3060 potrebbe avere le performance nel RT come una 2080ti.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
fraussantin
05-05-2020, 11:49
https://www.hwupgrade.it/articoli/skvideo/5709/dlss-20-e-fidelityfx-provati-con-mechwarrior-5_index.html
Bell'articolo sul DLSS2, tanta roba 25% di prestazioni mantenendo la qualità.
Voi che ne capite più di me dalle indiscrezioni uscite ci sarà un miglioramento anche sui tensorcore dedicati al DLSS o si sta puntando solo su quelli dedicati ai supermegaultraraggi dimezza prestazioni?Secondo me Nvidia punta tutto su quello per reggere il 4k .
Upscaling di qualità.
Io continuo a preferire la potenza nuda e cruda( quindi avrei preferito piú potenza di calcolo e piú RAM) , soprattutto su certe fasce di prezzo e visto che il dlss non funziona su tutti i giochi , ma anzi su una manciata, cmq male non fa.
Vedremo poi come saranno realmente queste GPU .
Secondo me Nvidia punta tutto su quello per reggere il 4k .
Upscaling di qualità.
Io continuo a preferire la potenza nuda e cruda( quindi avrei preferito piú potenza di calcolo e piú RAM) , soprattutto su certe fasce di prezzo e visto che il dlss non funziona su tutti i giochi , ma anzi su una manciata, cmq male non fa.
Vedremo poi come saranno realmente queste GPU .
Sicuramente, poi devo essere onesto se giochi su TV ci sono alcune che hanno uno scaling interno fatto veramente bene, persino i 720p della Switch sembrano una manna, nel futuro non mi sembra stano vedere un deciso interesse nel migliorare le tecnologie di upscaling.
Poi sulla potenza in se, anche io avrei preferito qualcosa di più incisivo però dovremmo vedere l'impatto dell'RT negli engine futuri molto probabilmente già solo per la maggior densità dei tensor core potremmo già notare un netto stacco nei titoli che ne fanno uso.
mikael84
05-05-2020, 12:19
Io penso che miglioreranno anche i tensor, non credo che studiando la nuova architettura non abbiano individuato dei punti di miglioramento anche su queste unità.
Li hanno raddoppiati per tpc, quindi il salto sarà considerevole, una 3060 potrebbe avere le performance nel RT come una 2080ti.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Esatto, dovrebbero raddoppiarli, purtroppo anche nei tensor, le GPU gaming vanno a metà ratio rispetto una Tesla.
Considerando l'utilizzo monco e le probabili doppie FP, si spera di non far crollare troppo la computazionale come avviene ora (suddivisione 50:50 tra fp32/RT/ AI).
L'unico vero salto, utilizzando parte degli stadi è il 2x tflops/rays.
fraussantin
05-05-2020, 12:32
Sicuramente, poi devo essere onesto se giochi su TV ci sono alcune che hanno uno scaling interno fatto veramente bene, persino i 720p della Switch sembrano una manna, nel futuro non mi sembra stano vedere un deciso interesse nel migliorare le tecnologie di upscaling.
Poi sulla potenza in se, anche io avrei preferito qualcosa di più incisivo però dovremmo vedere l'impatto dell'RT negli engine futuri molto probabilmente già solo per la maggior densità dei tensor core potremmo già notare un netto stacco nei titoli che ne fanno uso.La mia TV Sony scala bene a patto che l'immagine di partenza sia buona.
Ci sono film in 1080p si vedono piú nitidi che del 4k di Netflix.
Ma sono TV. I monitor sono un altra storia.. almeno per mia esperienza.
Con lo standard MCM del 2022 a 5nm.
Già anche se leggevo che Hopper potrebbe essere un'architettura di mezzo come lo è stata Volta, e limitarsi all'ambito professionale.
Quindi un possibile approccio MCM potrebbe arrivare più tardi in ambito gaming, anche perchè l'approccio MCM so che porta latenza e sulle gpu se tutto non viene ben studiato potrebbe essere un problema.
mikael84
05-05-2020, 12:42
Già anche se leggevo che Hopper potrebbe essere un'architettura di mezzo come lo è stata Volta, e limitarsi all'ambito professionale.
Quindi un possibile approccio MCM potrebbe arrivare più tardi in ambito gaming, anche perchè l'approccio MCM so che porta latenza e sulle gpu se tutto non viene ben studiato potrebbe essere un problema.
Si, è da tempo che si lavora sul MCM (almeno nvidia) e purtroppo inizialmente si avevano latenze di 100ns, troppo alte.
Loro pensavano di aggirare con una l1,5 da ponte.
Non solo quello il problema, anche la l2, non più condivisa nel crossbar è un problema.
Sono passati 3 anni, non ne hanno più parlato, però sicuramente sarà il futuro anche nel gaming.
Anche a sto giro aspettiamoci padelloni.:)
OrazioOC
05-05-2020, 22:32
https://pbs.twimg.com/media/EXQx5cXUYAETccr?format=png&name=medium
Fonte digitimes.
OrazioOC
06-05-2020, 09:08
https://www.guru3d.com/news-story/nvidia-ampere-rumored-to-get-four-times-more-ray-tracing-perfno-more-gtx-either.html
mikael84
06-05-2020, 11:46
https://www.guru3d.com/news-story/nvidia-ampere-rumored-to-get-four-times-more-ray-tracing-perfno-more-gtx-either.html
Ne parlavo nel thread RTX. Come vi dicevo è del tutto naturale, anzi, non fa certo gridare al miracolo.
Considerando che la 3070 sarà più o meno allineata alla 2080ti in raster, è naturale che la superi in RT. Di conseguenza bisogna scendere di fascia per avere una potenza simil 2080ti.
Se fosse la 3060 significherebbe un miglioramento minimo, sopratutto se questa raggiunge la 2080.
In parole semplici, potrebbe essere così: 3080ti + 40% raster, 70% RT.:)
scorpion73
06-05-2020, 11:47
https://www.guru3d.com/news-story/nvidia-ampere-rumored-to-get-four-times-more-ray-tracing-perfno-more-gtx-either.html
Magari, una RTX 3080 col doppio se non triplo di performance della 2080ti in RT o una RTX 3080TI con 4 volte le performance della 2080ti in RT darebbe un sacco di potenza sfruttabile in quel contesto.
Ma permettetemi di dubitarne fino a che non lo vedo coi miei occhi.
Fino al doppio ci posso anche credere, fino al quadruplo mi pare francamente molto difficile in questa generazione.
scorpion73
06-05-2020, 11:48
Ne parlavo nel thread RTX. Come vi dicevo è del tutto naturale, anzi, non fa certo gridare al miracolo.
Considerando che la 3070 sarà più o meno allineata alla 2080ti in raster, è naturale che la superi in RT. Di conseguenza bisogna scendere di fascia per avere una potenza simil 2080ti.
Se fosse la 3060 significherebbe un miglioramento minimo, sopratutto se questa raggiunge la 2080.
In parole semplici, potrebbe essere così: 3080ti + 40% raster, 70% RT.:)
Speriamo mike, sarebbe veramente un balzo notevole quelle percentuali (in entrambi i contesti).
mikael84
06-05-2020, 12:06
Speriamo mike, sarebbe veramente un balzo notevole quelle percentuali (in entrambi i contesti).
Non sarebbe un grande balzo, alla fine è una fase tock, però fare un +20/30% su una TI, con una scheda da 5/600 euro di questi tempi non sarebbe male.
In pratica già dalle fasce basse si potrà utilizzare.
In questa news https://www.hwupgrade.it/news/skvideo/nvidia-l-ombra-di-amd-sulle-scelte-produttive-attuali-e-future_89126.html si parla già di processo produttivo a 5nm per il 2021.
In questa news https://www.hwupgrade.it/news/skvideo/nvidia-l-ombra-di-amd-sulle-scelte-produttive-attuali-e-future_89126.html si parla già di processo produttivo a 5nm per il 2021.
A questo punto penso proprio che Hopper sarà il successore di Volta a tutti gli effetti, trovo difficile che a meno di un anno si pensi di sostituire le gpu gaming, ma in ambito professionale è possibile e forse se confermato potremmo già osservare un primo approccio MCM.
In questa news https://www.hwupgrade.it/news/skvideo/nvidia-l-ombra-di-amd-sulle-scelte-produttive-attuali-e-future_89126.html si parla già di processo produttivo a 5nm per il 2021.
Il 2021 sarà sicuramente solo per il settore professionale, non certo mi aspetto la serie 4000 già il prossimo anno dato che già Ampere uscirà a fine 2020.
mikael84
06-05-2020, 14:35
In questa news https://www.hwupgrade.it/news/skvideo/nvidia-l-ombra-di-amd-sulle-scelte-produttive-attuali-e-future_89126.html si parla già di processo produttivo a 5nm per il 2021.
A questo punto penso proprio che Hopper sarà il successore di Volta a tutti gli effetti, trovo difficile che a meno di un anno si pensi di sostituire le gpu gaming, ma in ambito professionale è possibile e forse se confermato potremmo già osservare un primo approccio MCM.
Il primo lancio potrebbe essere HPC un pò come Volta, che debuttò dopo un anno e mezzo Pascal.
L'anno prossimo su HPC dovrebbe debuttare anche Intel, sempre in chiplet.
Il 2021 sarà sicuramente solo per il settore professionale, non certo mi aspetto la serie 4000 già il prossimo anno dato che già Ampere uscirà a fine 2020.
Il primo lancio potrebbe essere HPC un pò come Volta, che debuttò dopo un anno e mezzo Pascal.
L'anno prossimo su HPC dovrebbe debuttare anche Intel, sempre in chiplet.
Allora vedrò se riesco a farmi bastare la 1660Ti fino a dicembre 2022 :D
Tanto mi sono vincolato ai 1080p per molto molto tempo per via del mio Acer Predator XB241H preso poco prima dello scorso Natale.
Allora vedrò se riesco a farmi bastare la 1660Ti fino a dicembre 2022 :D
Tanto mi sono vincolato ai 1080p per molto molto tempo per via del mio Acer Predator XB241H preso poco prima dello scorso Natale.
Tanto a breve ci sarà il remaster di crysis, e forse non basterà neanche lo sli di 3080ti :fagiano:
Tanto a breve ci sarà il remaster di crysis, e forse non basterà neanche lo sli di 3080ti :fagiano:
Mai giocato a nessun Crysis (provato solo la demo del primo), sono più da RPG e action tipo Rage/Prey/Bioshock :O
E comunque, dopo il passaggio ad un g-sync posso tollerare di giocare anche a 35-40 fps ... nel 2022 :p
Era un rimando a un vecchio detto 😂
Non so se hai vissuto gli anni della consueta frase: "Ci gira Crysis?!"
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
mircocatta
06-05-2020, 17:19
Era un rimando a un vecchio detto
Non so se hai vissuto gli anni della consueta frase: "Ci gira Crysis?!"
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
ci fai sentire vecchi :(
ultimate trip
06-05-2020, 17:43
ci fai sentire vecchi :(
be umbro92 .. ci può stare :D :D :D
Per me Crysis é stato il gioco che mi ha visto passare dalla PS2 al PC, all'epoca lavorai tutta l'estate per farmi un PC decente per giocarlo, ma neanche il Q9450 e GTX 260 bastarono.
Quindi me lo porto proprio dentro, certo é incredibile siano passati già 13 anni 😲
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Era un rimando a un vecchio detto 😂
Non so se hai vissuto gli anni della consueta frase: "Ci gira Crysis?!"
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Sì, anche se "non ho partecipato" ... comunque sono classe '72 giusto per completezza :)
Sì, anche se "non ho partecipato" ... comunque sono classe '72 giusto per completezza :)
Quindi hai iniziato anche tu con le schede 3dfx? :D
razor820
06-05-2020, 19:20
Non mi fate pensare ale vecchi vodoo 3dfx per arrivare ai quasi 30fps del primo tomb raider che mi viene da piangere
Non mi fate pensare ale vecchi vodoo 3dfx per arrivare ai quasi 30fps del primo tomb raider che mi viene da piangere
VECCHI VECCHI VECCHII!!! :D :D :D :D
fraussantin
06-05-2020, 19:40
Ho trovato il primo gioco a saturarmi 8 giga in 2k.. o quanto meno a gestirle male.
Final fantasy 15 con texture hd ( grafica avanzata on) e impostate al massimo in certe situazioni vedo quasi 8 giga occupati e inizia a droppare gli fps in maniera astrusa ( da 70 a 25 alternati con scatti mostruosi)
Calando uno step di texture ( senza togliere grafica avanzata che sono le texture migliori ) cala l'uso della memoria drasticamente ( sotto i 5 giga) e il gioco torna fluido.
Visivamente cambia poco , ma un po' si vede.
Spero veramente che la favoletta degli 8 giga su ampere sia una bufala perché saranno guai grossi.
mikael84
06-05-2020, 20:15
Ho trovato il primo gioco a saturarmi 8 giga in 2k.. o quanto meno a gestirle male.
Final fantasy 15 con texture hd ( grafica avanzata on) e impostate al massimo in certe situazioni vedo quasi 8 giga occupati e inizia a droppare gli fps in maniera astrusa ( da 70 a 25 alternati con scatti mostruosi)
Calando uno step di texture ( senza togliere grafica avanzata che sono le texture migliori ) cala l'uso della memoria drasticamente ( sotto i 5 giga) e il gioco torna fluido.
Visivamente cambia poco , ma un po' si vede.
Spero veramente che la favoletta degli 8 giga su ampere sia una bufala perché saranno guai grossi.
Non è l'unico, anzi, poi se vai di 4k, ciao.
Prima o poi, dovranno implementarla.
Con Turing per via dell'arretratezza, e del contratto con Micron non le hanno messe.
Ora non hanno scuse.
Sperando, ovviamente, che Micron possa garantire sufficiente velocità, o che non le implementino in corsa a metà ciclo.:p
Vale anche per la fascia bassa, non si possono vedere schede con 4/6gb
Ho trovato il primo gioco a saturarmi 8 giga in 2k.. o quanto meno a gestirle male.
Final fantasy 15 con texture hd ( grafica avanzata on) e impostate al massimo in certe situazioni vedo quasi 8 giga occupati e inizia a droppare gli fps in maniera astrusa ( da 70 a 25 alternati con scatti mostruosi)
Calando uno step di texture ( senza togliere grafica avanzata che sono le texture migliori ) cala l'uso della memoria drasticamente ( sotto i 5 giga) e il gioco torna fluido.
Visivamente cambia poco , ma un po' si vede.
Spero veramente che la favoletta degli 8 giga su ampere sia una bufala perché saranno guai grossi.Bazzecole, se vuoi saturare davvero la vram scarica e modda Skyrim con texture in 4k e 8k.
Io con qualcosa come come 40-50gb di sole textures e modelli in alta definizione ho saturato tutti e 6gb della 980ti + altri 7-8gb di RAM e se non erro il paging aveva superato i 13-14gb e non ero neanche a risoluzioni elevate ma 2560x1080 😂
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
fraussantin
06-05-2020, 20:33
Bazzecole, se vuoi saturare davvero la vram scarica e modda Skyrim con texture in 4k e 8k.
Io con qualcosa come come 40-50gb di sole textures e modelli in alta definizione ho saturato tutti e 6gb della 980ti + altri 7-8gb di RAM e se non erro il paging aveva superato i 13-14gb e non ero neanche a risoluzioni elevate ma 2560x1080 😂
Inviato dal mio Redmi Note 4 utilizzando TapatalkSì vabbè col modding è normale .. ma io parlo di gioco stock con le sole texture aggiuntive. ( Che sono 70 giga cmq mi pare)
Per carità la mia scheda va per i 2 anni mi va bene così , come andrebbe bene per una 2060 da 6 giga per il 1080p.
( Come ho detto una tacca sotto sta a meno di 6 giga)
Ma per le nuove non ci sono storie , 8 giga non li voglio vedere nemmeno sulla 3060. Visto che costerà 400+ euro.
Purtroppo é da vedere, non é detto che montino memorie a doppia densità...
A meno che non facciano come la GTX 780 dove ne fecero una variante da 6gb a circa fine ciclo vita di Kepler, e quindi se ne escano con delle Super a doppia densità l'anno prossimo...
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
mikael84
07-05-2020, 14:48
Ma per le nuove non ci sono storie , 8 giga non li voglio vedere nemmeno sulla 3060. Visto che costerà 400+ euro.
Purtroppo é da vedere, non é detto che montino memorie a doppia densità...
A meno che non facciano come la GTX 780 dove ne fecero una variante da 6gb a circa fine ciclo vita di Kepler, e quindi se ne escano con delle Super a doppia densità l'anno prossimo...
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Vi do ottime notizie.
https://i.postimg.cc/NM0H3tvw/micron-16-gbps.png
La Micron ha aggiornato la linea, con le nuove GDDR6, doppia densità a 16 gb/s. Non ha ufficializzato la single.
Potrebbe essere un buon segno.
In ogni caso, sia Samsung che Micron, ora hanno la doppia densità a 16.
OrazioOC
07-05-2020, 14:50
Era ora.:rolleyes:
Ale55andr0
07-05-2020, 15:10
Vi do ottime notizie.
https://i.postimg.cc/NM0H3tvw/micron-16-gbps.png
La Micron ha aggiornato la linea, con le nuove GDDR6, doppia densità a 16 gb/s. Non ha ufficializzato la single.
Potrebbe essere un buon segno.
In ogni caso, sia Samsung che Micron, ora hanno la doppia densità a 16.
si ma se costeranno anche il doppio per noi è tutto fuorchè una buona notizia :asd:
fraussantin
07-05-2020, 15:18
Vi do ottime notizie.
https://i.postimg.cc/NM0H3tvw/micron-16-gbps.png
La Micron ha aggiornato la linea, con le nuove GDDR6, doppia densità a 16 gb/s. Non ha ufficializzato la single.
Potrebbe essere un buon segno.
In ogni caso, sia Samsung che Micron, ora hanno la doppia densità a 16.
ecco speriamo bene
Vi do ottime notizie.
La Micron ha aggiornato la linea, con le nuove GDDR6, doppia densità a 16 gb/s. Non ha ufficializzato la single.
Potrebbe essere un buon segno.
In ogni caso, sia Samsung che Micron, ora hanno la doppia densità a 16.
Ottimo, incrociamo le dita allora! :D
mikael84
07-05-2020, 16:16
si ma se costeranno anche il doppio per noi è tutto fuorchè una buona notizia :asd:
Può essere che una 3080 da 699 salga a 799$ (che già fanno con le FE), questo si, però prima o poi le dovranno mettere.:)
Alla fine nVidia risolverebbe anche il problema dei bus collegati a vuoto, considerando lo spazio sul die x 2gb di ram.
La 2070 ad esempio ha 216 mm2 per il calcolo e 229mm2 per collegamenti, di cui buona parte anche per quei 2giga in più, e rop's che non vede.:)
Ale55andr0
07-05-2020, 19:39
Può essere che una 3080 da 699 salga a 799$ (che già fanno con le FE), questo si, però prima o poi le dovranno mettere.:)
Alla fine nVidia risolverebbe anche il problema dei bus collegati a vuoto, considerando lo spazio sul die x 2gb di ram.
La 2070 ad esempio ha 216 mm2 per il calcolo e 229mm2 per collegamenti, di cui buona parte anche per quei 2giga in più, e rop's che non vede.:)
un'affare, aspetta che preparo la carta :asd:
TigerTank
07-05-2020, 22:27
Vi do ottime notizie.
https://i.postimg.cc/NM0H3tvw/micron-16-gbps.png
La Micron ha aggiornato la linea, con le nuove GDDR6, doppia densità a 16 gb/s. Non ha ufficializzato la single.
Potrebbe essere un buon segno.
In ogni caso, sia Samsung che Micron, ora hanno la doppia densità a 16.
Bella notizia, speriamo bene.
Comunque Mike....io so che il tuo grande amore restano le Elpida di un tempo :ciapet:
mikael84
07-05-2020, 23:06
Bella notizia, speriamo bene.
Comunque Mike....io so che il tuo grande amore restano le Elpida di un tempo :ciapet:
Infatti non mi hanno mai abbandonato, salvo la 980ti. Elpida è gruppo Micron, e si vede.:p
brutta roba le elpida. pessime esperienze.
Sulla G1 gm204 bruciai le samsung gd5 (lucky edition la sostituta aveva micron +1mhz subito lucciole sullo schermo) avevo dato un +200 i vrm completarono la frittata. pcb sportivo fino ad un certo punto.
Certo fa riflettere 5 anni +600 sulle fasi della kingpin niente frittata.Stessa workst.
Io ho sempre preferito le samsung, si occano bene e danno poche rogne :D
mattxx88
08-05-2020, 10:19
Sulle ram ddr3 le elpida hyper han fatto la storia :D
mi ci sono divertito parecchio con quei chip
fra poco ci fanno il culo con l ot mi scuso in anticipo
scorpion73
09-05-2020, 18:16
https://multiplayer.it/notizie/nvidia-gpu-rtx-architettura-hopper-5-nm-uscita-2021.html
Se fosse così non varrebbe nemmeno la pena investire su Ampere per un solo anno...
DarkNiko
09-05-2020, 18:27
https://multiplayer.it/notizie/nvidia-gpu-rtx-architettura-hopper-5-nm-uscita-2021.html
Se fosse così non varrebbe nemmeno la pena investire su Ampere per un solo anno...
Con questa filosofia non comprerai mai nulla e non varrà mai la pena alcun investimento, considerando anche i prezzi (folli a mio avviso) a cui tali prodotti verranno venduti. :rolleyes:
fraussantin
09-05-2020, 18:29
https://multiplayer.it/notizie/nvidia-gpu-rtx-architettura-hopper-5-nm-uscita-2021.html
Se fosse così non varrebbe nemmeno la pena investire su Ampere per un solo anno...Ho i miei dubbi , dissero lo stesso di Turing e poi è durato 2 anni (e forse di più ) con addirittura un refrash.
Fare una architettura costa soldi e non si possono permettere di buttarla al vento in pochi mesi.
Se Hopper arriverà il prossimo anno sarà un altra cosa come lo è stato volta.
https://multiplayer.it/notizie/nvidia-gpu-rtx-architettura-hopper-5-nm-uscita-2021.html
Se fosse così non varrebbe nemmeno la pena investire su Ampere per un solo anno...
Ottimo.
Magari ci scappa una scheda con la potenza di una 2080Ti ed il consumo della 1660Ti ... sarei a cavallo :D
Con questa filosofia non comprerai mai nulla e non varrà mai la pena alcun investimento, considerando anche i prezzi (folli a mio avviso) a cui tali prodotti verranno venduti. :rolleyes:
Non è che bisogna cambiare scheda ad ogni nuova uscita. :rolleyes:
https://multiplayer.it/notizie/nvidia-gpu-rtx-architettura-hopper-5-nm-uscita-2021.html
Se fosse così non varrebbe nemmeno la pena investire su Ampere per un solo anno...
Non è ancora confermato che quel target di GPU si riferisca al settore gaming, con molta probabilità potrebbero essere GPU in ambito professionale come lo è stato Volta a suo tempo e le proposte gaming arrivare solo successivamente nel 2022 con i canonici 18-24 mesi tra una gen e l'altra.
DarkNiko
09-05-2020, 18:45
Non è che bisogna cambiare scheda ad ogni nuova uscita. :rolleyes:
Appunto. ;)
Qualche nuovo rumors:
https://www.notebookcheck.net/NVIDIA-Ampere-to-offer-10-20-IPC-increase-over-Turing-4x-RT-performance-with-minimal-FPS-impact-up-to-2-GHz-OC-clocks-and-an-overhauled-software-stack-to-take-on-AMD-RDNA-2-0.464033.0.html
Il dato interessante é l'incremento dell'IPC che spazia tra il 10-20%, un clock su 2000mhz per le versioni OC (le FE?) che potrebbe far ben sperare in ulteriori incrementi in OC e sembra confermato il boost prestazionale con RT attivo che addirittura vede non un raddoppio ma addirittura 4x...
Sotto tono invece alcune info che sembrano smentire i rumors precedenti, dove le proposte gaming limitate a 8nm di samsung a differenza del settore HPC che saranno basate sui 7nm TSMC (probabilmente per le Tesla) e per le memorie a doppia densità.
Sembra però confermato che la 3080 avrà un bus a 320bit e 10gb vram, seguita da 3080ti con 12gb quindi nessun cut al bus e dovrebbe essere un 384bit.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
"NVIDIA Ampere 3060 could offer RTX performance equivalent to a 2080 Ti."
Sarebbe interessante capire anche quanto consumerà e su quale fascia di prezzo si assesterà.
DarkNiko
10-05-2020, 10:47
"NVIDIA Ampere 3060 could offer RTX performance equivalent to a 2080 Ti."
Sarebbe interessante capire anche quanto consumerà e su quale fascia di prezzo si assesterà.
Allo stato attuale la RTX 2080Ti costa uguale, se non di più, al prezzo di lancio (idem per le soluzioni con PCB custom).
Da questo punto di osservazione gli scenari possibili, IMHO, sono 2:
1) Ampére andrà a sostituire come fascia e prezzi le attuali soluzioni Turing.
2) Costerà di più potendo offrire di più in termini di prestazioni/efficienza.
"NVIDIA Ampere 3060 could offer RTX performance equivalent to a 2080 Ti."
Sarebbe interessante capire anche quanto consumerà e su quale fascia di prezzo si assesterà.
Parla di RTX performance, quindi confermare che sfruttando il ray tracing avrebbe quelle performance, ma nei titoli normali la 2080ti dovrebbe comunque avere molta più potenza computezionale che dai leak precedenti essere al livello di 3070 o poco su.
Per i prezzi c'è da attendere, e non sappiamo se uscirà subito, potrebbero anche uscire prima 3070-3080 (forse 3080ti) e solo dopo le altre proposte minori.
OrazioOC
10-05-2020, 10:56
10 gb di vram per una scheda che costerà 8/900 euro non sono una buona notizia, performance migliori della 2080 ti ma con 1gb in meno di vram in certi giochi/applicativi potrebbero essere controproducenti.
Per non parlare di una 3070 con 8gb o 3060 con 6gb.:rolleyes:
Si vede che nvidia fa quello che gli pare.:help:
10 gb di vram per una scheda che costerà 8/900 euro non sono una buona notizia, performance migliori della 2080 ti ma con 1gb in meno di vram in certi giochi/applicativi potrebbero essere controproducenti.
Per non parlare di una 3070 con 8gb o 3060 con 6gb.:rolleyes:
Si vede che nvidia fa quello che gli pare.:help:
Infatti fa un pò storcere il naso come scenario, però nulla vieta come anche successo in passato con la 960 4GB o la 780 6GB o soluzioni analoghe che gli stessi produttori possano presentare soluzioni con memoria a doppia densità.
Ma potrebbe anche succedere che la stessa nvidia aggiorni il comparto grafico con delle Super a doppia densità l'anno prossimo, per contrastare anche le eventuali proposte navi a 16GB.
mikael84
10-05-2020, 11:17
Qualche nuovo rumors:
https://www.notebookcheck.net/NVIDIA-Ampere-to-offer-10-20-IPC-increase-over-Turing-4x-RT-performance-with-minimal-FPS-impact-up-to-2-GHz-OC-clocks-and-an-overhauled-software-stack-to-take-on-AMD-RDNA-2-0.464033.0.html
Il dato interessante é l'incremento dell'IPC che spazia tra il 10-20%, un clock su 2000mhz per le versioni OC (le FE?) che potrebbe far ben sperare in ulteriori incrementi in OC e sembra confermato il boost prestazionale con RT attivo che addirittura vede non un raddoppio ma addirittura 4x...
Sotto tono invece alcune info che sembrano smentire i rumors precedenti, dove le proposte gaming limitate a 8nm di samsung a differenza del settore HPC che saranno basate sui 7nm TSMC (probabilmente per le Tesla) e per le memorie a doppia densità.
Sembra però confermato che la 3080 avrà un bus a 320bit e 10gb vram, seguita da 3080ti con 12gb quindi nessun cut al bus e dovrebbe essere un 384bit.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Si quello che già ci aspettavamo.
Miglioramento sulla l1, più corposa, si passa da 96kb a 128kb. Solo questo tramite TPC diretto porta ad ulteriori benefici. Su Turing l'accesso diretto tra gli SM, secondo nvidia portava al 33% sulla l1., rispetto a pascal.
Si parla, com'era prevedibile anche di un raddoppio L2.
Mentre, non è per nulla positivo, il dato che parla di una sorta di HBCC, questo significa, che malgrado sia disponibile la doppia desnità, probabilmente si opterà per la single, lasciando come di consueto la doppia alle quadro.
"NVIDIA Ampere 3060 could offer RTX performance equivalent to a 2080 Ti."
Sarebbe interessante capire anche quanto consumerà e su quale fascia di prezzo si assesterà.
Si, però RT, non raster.:)
E' naturale, considerando che via raster, una 3070 dovrebbe allinearsi alla 2080ti e superarla di conseguenza in RT.
Quindi le schede sotto andranno come la TI.
OrazioOC
10-05-2020, 11:23
Infatti fa un pò storcere il naso come scenario, però nulla vieta come anche successo in passato con la 960 4GB o la 780 6GB o soluzioni analoghe che gli stessi produttori possano presentare soluzioni con memoria a doppia densità.
Ma potrebbe anche succedere che la stessa nvidia aggiorni il comparto grafico con delle Super a doppia densità l'anno prossimo, per contrastare anche le eventuali proposte navi a 16GB.
Sulla serie 1000 e 2000 mai successo, purtroppo penso sia una direttiva nvidia per far ordine sulle fasce in base alla vram.
Una GPU da 850/900 euro con 10GB di VRAM a fine 2020 è da scaffale, IMHO.
Secondo me nel 2021 Hopper si vedrà solo in ambito professionale.
Una GPU da 850/900 è da scaffale, IMHO.
.
Fixed it for you :D
La cosa migliore sarebbe 12GB su 3080 e 16GB sulla Ti.
mikael84
10-05-2020, 11:55
10 gb di vram per una scheda che costerà 8/900 euro non sono una buona notizia, performance migliori della 2080 ti ma con 1gb in meno di vram in certi giochi/applicativi potrebbero essere controproducenti.
Per non parlare di una 3070 con 8gb o 3060 con 6gb.:rolleyes:
Si vede che nvidia fa quello che gli pare.:help:
Questa mi sembra troppo strana, dopo che lanci la 2060 da 8gb.
Di serie x60 potrebbero essercene 2. La post 1660 con 1920cc da 6gb, ed un cut della 3070 (magari 3060 super).
Una 3060 da 6gb, è utile solo come post 1660 sui 250 euro.
La cosa migliore sarebbe 12GB su 3080 e 16GB sulla Ti.
La 3070, così come la 3080 sono già predisposte per il bus da 384bit e 12gb di ram, solo che per spazio sul die, tagliano i collegamenti.
OrazioOC
10-05-2020, 12:06
Questa mi sembra troppo strana, dopo che lanci la 2060 da 8gb.
Di serie x60 potrebbero essercene 2. La post 1660 con 1920cc da 6gb, ed un cut della 3070 (magari 3060 super).
Una 3060 da 6gb, è utile solo come post 1660 sui 250 euro.
Sarebbe comunque un downgrade della vram anche in quel caso, con 1920 cc e quel boost preventivato se la giocherebbe con una 2070 custom, a ridosso della 5700 xt quindi, ma con la stessa vram della 5600 xt.
E dubito che quelle performance te le diano sulle 250, saremmo più sui 300/350 euro.
Sulla serie 1000 e 2000 mai successo, purtroppo penso sia una direttiva nvidia per far ordine sulle fasce in base alla vram.
In realtà è successo, con le GDDR5/X a frequenza maggiore sia per 1060 che 1080ti.
Poi ovviamente su turing c'è poco da fare, a parte eliminare le GDDR5 come nel caso della 1650.
Quindi è da vedere cosa farà nvidia e i produttori.
Sarebbe comunque un downgrade della vram anche in quel caso, con 1920 cc e quel boost preventivato se la giocherebbe con una 2070 custom, a ridosso della 5700 xt quindi, ma con la stessa vram della 5600 xt.
E dubito che quelle performance te le diano sulle 250, saremmo più sui 300/350 euro.
Bhè si, diciamo che la 3060 è un chip che tralasciando i tensor core andrebbe quanto una 1080ti quindi la sua naturale evoluzione sarebbe stata vederla su un 192bit con 12GB di vram, che alla fine con memorie 18Gbps anche la bw non farebbe poi cosi schifo (432gb/s)
OrazioOC
10-05-2020, 12:14
In realtà è successo, con le GDDR5/X a frequenza maggiore sia per 1060 che 1080ti.
Poi ovviamente su turing c'è poco da fare, a parte eliminare le GDDR5 come nel caso della 1650.
Quindi è da vedere cosa farà nvidia e i produttori.
Ma non è aumentata la quantità di vram, è quello il succo del discorso.:rolleyes:
Che poi una 1060 con le gddr5x se ne faceva poco o niente per la forza bruta che aveva il chip.
mikael84
10-05-2020, 12:16
Sarebbe comunque un downgrade della vram anche in quel caso, con 1920 cc e quel boost preventivato se la giocherebbe con una 2070 custom, a ridosso della 5700 xt quindi, ma con la stessa vram della 5600 xt.
E dubito che quelle performance te le diano sulle 250, saremmo più sui 300/350 euro.
Il problema però si porrebbe nel mezzo. Non penso lascino ballare un 50/60% di prestazioni tra x70 e x60. Quasi sicuramente, se non faranno un chip d'intermezzo, la 3070 verrà cuttata, generando qualche 3060, magari super.
OrazioOC
10-05-2020, 12:38
Il problema però si porrebbe nel mezzo. Non penso lascino ballare un 50/60% di prestazioni tra x70 e x60. Quasi sicuramente, se non faranno un chip d'intermezzo, la 3070 verrà cuttata, generando qualche 3060, magari super.
Si può darsi che arrivi una 3060 super con 2560 cc e 8gb di vram, una scheda che per performance potrebbe vedersela con la 2080 super, però a quel punto andremmo sulle 450/500 euro, non è una fascia media ecco.
Ma non è aumentata la quantità di vram, è quello il succo del discorso.:rolleyes:
Che poi una 1060 con le gddr5x se ne faceva poco o niente per la forza bruta che aveva il chip.
Nel caso delle GDDR5/X non potevi fisicamente farlo e non aveva neanche senso visto che le proposte erano equilibrate al massimo hanno aggiornato con memorie più veloci.
E con turing discorso analogo.
Il problema però si porrebbe nel mezzo. Non penso lascino ballare un 50/60% di prestazioni tra x70 e x60. Quasi sicuramente, se non faranno un chip d'intermezzo, la 3070 verrà cuttata, generando qualche 3060, magari super.
Questo è sicuro ma se si prende buona la tesi che la 3070 sarà un 4 GPC, un eventuale 3060 nel peggiore dei casi sullo stesso die dovrebbe avere 2304cc e 192bit quindi con uno stacco non cosi elevato siamo sul 30% in meno globalmente.
mikael84
10-05-2020, 14:12
Si può darsi che arrivi una 3060 super con 2560 cc e 8gb di vram, una scheda che per performance potrebbe vedersela con la 2080 super, però a quel punto andremmo sulle 450/500 euro, non è una fascia media ecco.
Per i prezzi bisogna vedere. I 500 euro potrebbero essere già fascia 3070. Alla fine dopo l'assestamento le 3060 super le si trovavano dai 350 euro in poi.
Questo è sicuro ma se si prende buona la tesi che la 3070 sarà un 4 GPC, un eventuale 3060 nel peggiore dei casi sullo stesso die dovrebbe avere 2304cc e 192bit quindi con uno stacco non cosi elevato siamo sul 30% in meno globalmente.
No, dai rumors speculati, la 3070 sarà uno shrink di TU104, ottimizzato (RT-cache), quindi a 6 GPC.
https://cdn.wccftech.com/wp-content/uploads/2020/02/NVIDIA-Ampere-GPU-GA104-Block-Diagram-1-Rumor-1221x1480.jpg
Con uno schema così, puoi pure levare 2 GPC, che rimani sempre a 64 rop's e 256bit.
La 3080, dovrebbe essere basata sullo stesso schema, ma con 1 TPC per GPC in più e un canale aggiuntivo per 80 rop's e 320bit.
Tra performance in raster non rivoluzionarie e, pare, la solita Nvidia che fa la tirchia con la VRAM, ste Ampere pare che esistano solamente per pompare sul RT e poco altro. Uff.
mikael84
10-05-2020, 14:18
Tra performance in raster non rivoluzionarie e, pare, la solita Nvidia che fa la tirchia con la VRAM, ste Ampere pare che esistano solamente per pompare sul RT e poco altro. Uff.
Il problema sta nel PP, tutti mini saltini.
Di per se, qualche miglioria ci sarà, sopratutto, partendo dalla presunta 3070 che offrirebbe prestazioni più o meno in linea con la TI e migliori in raster.
Con il mercato di ora, una GPU così a 5/600 euro, non è neppure male.
Certo che, vedere cosa hanno fatto con tesla 7nm+...
Il problema sta nel PP, tutti mini saltini.
Di per se, qualche miglioria ci sarà, sopratutto, partendo dalla presunta 3070 che offrirebbe prestazioni più o meno in linea con la TI e migliori in raster.
Con il mercato di ora, una GPU così a 5/600 euro, non è neppure male.
Certo che, vedere cosa hanno fatto con tesla 7nm+...
Esatto, mi aspettavo di meglio partendo da Tesla, o forse sì facevano paragoni sbagliati? Per carità, saranno sempre dei buoni prodotti, certo, i prezzi iniziano a far venire meno la pazienza e a far salire l'esigenza di chi le vuole comprare, quindi questi piccoli salti non sono equilibrati con i soldi che invece richiedono.
Per i prezzi bisogna vedere. I 500 euro potrebbero essere già fascia 3070. Alla fine dopo l'assestamento le 3060 super le si trovavano dai 350 euro in poi.
No, dai rumors speculati, la 3070 sarà uno shrink di TU104, ottimizzato (RT-cache), quindi a 6 GPC.
https://cdn.wccftech.com/wp-content/uploads/2020/02/NVIDIA-Ampere-GPU-GA104-Block-Diagram-1-Rumor-1221x1480.jpg
Con uno schema così, puoi pure levare 2 GPC, che rimani sempre a 64 rop's e 256bit.
La 3080, dovrebbe essere basata sullo stesso schema, ma con 1 TPC per GPC in più e un canale aggiuntivo per 80 rop's e 320bit.
Questa me l'ero persa, in sostanza si è mantenuto lo scherma a 6GPC per tutte con solo una variazione interna...
Sembrano chip perfetti da cuttare :sofico:
Tra performance in raster non rivoluzionarie e, pare, la solita Nvidia che fa la tirchia con la VRAM, ste Ampere pare che esistano solamente per pompare sul RT e poco altro. Uff.
Ma credo che gli engine futuri facciano un abuso di RT.
Alla fine se ben implementato qualitativamente è la soluzione più realistica e se hai delle unità HW per farlo non vai neanche a troncare le performance come accade con le attuali RTX.
mikael84
10-05-2020, 14:43
Esatto, mi aspettavo di meglio partendo da Tesla, o forse sì facevano paragoni sbagliati? Per carità, saranno sempre dei buoni prodotti, certo, i prezzi iniziano a far venire meno la pazienza e a far salire l'esigenza di chi le vuole comprare, quindi questi piccoli salti non sono equilibrati con i soldi che invece richiedono.
Con i 7nm+ potevano realmente salire a ben oltre il 50% per fascia, come sempre fatto a salto nodo.
Il vero problema è la sua natura pro, decurtata a gaming. E' vero che serviva un salto lato RT, però di questo passo, tagli troppo via raster.
L'unico modo era appunto passare ai 7nm+, in modo da maggiorare tutto, anche solo via clock.
Questa me l'ero persa, in sostanza si è mantenuto lo scherma a 6GPC per tutte con solo una variazione interna...
Sembrano chip perfetti da cuttare :sofico:
Infatti 3070 e cut, potrebbero essere i best buy ampere. :)
Questa me l'ero persa, in sostanza si è mantenuto lo scherma a 6GPC per tutte con solo una variazione interna...
Sembrano chip perfetti da cuttare :sofico:
Ma credo che gli engine futuri facciano un abuso di RT.
Alla fine se ben implementato qualitativamente è la soluzione più realistica e se hai delle unità HW per farlo non vai neanche a troncare le performance come accade con le attuali RTX.
Ma avere più RT core va benissimo per il ray tracing, ma solo quello, tutto il resto è dato alla reale potenza bruta della GPU, che dovrà sempre gestire praticamente qualsiasi altro dettaglio grafico, risoluzione, e sempre una memoria adeguata in proporzione al peso delle texture degli ultimi giochi in uscita. Poi, come detto, Ampere andrà alla grande con RT, quello si, ma non poteva essere altrimenti dato che siamo solo agli albori di questa tecnologia.
Io non mi lamento poiché un eventuale 3070 é già un salto enorme dalla 980ti anche passando a un pannello 3440x1440.
Sicuramente meno consistente il passaggio rispetto a chi ha già una RTX però se come prevedo il Ray Tracing verrà infilato anche su Pacman o Minecraft 😂, molti faranno comunque il passaggio per non vedere la propria 2080ti regredire ai livelli di 3060.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Io non mi lamento poiché un eventuale 3070 é già un salto enorme dalla 980ti anche passando a un pannello 3440x1440.
Sicuramente meno consistente il passaggio rispetto a chi ha già una RTX però se come prevedo il Ray Tracing verrà infilato anche su Pacman o Minecraft , molti faranno comunque il passaggio per non vedere la propria 2080ti regredire ai livelli di 3060.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Però dipende dal valore che vuoi dare al ray tracing, personalmente non li vale un esborso di altri 900 euro per una 3080 o più per la Ti. Ovviamente è soggettivo, ma valuta anche che dubito si vedranno chissà che effetti RT prima dell'inizio della vera next gen che avverrà tra due anni, e tra due anni si parlerà ormai di Hopper.
Però dipende dal valore che vuoi dare al ray tracing, personalmente non li vale un esborso di altri 900 euro per una 3080 o più per la Ti. Ovviamente è soggettivo, ma valuta anche che dubito si vedranno chissà che effetti RT prima dell'inizio della vera next gen che avverrà tra due anni, e tra due anni si parlerà ormai di Hopper.
Ma onestamente neanche la 2080ti vale l'esborso che costa e in RT andrebbe come una 3060, la 3080 avrebbe un distacco decisamente marcato in quel contesto, e alla fine via raster la 2080ti andrà come una 3070 quindi come rapporto performance price ci sarà comunque un abbattimento rispetto l'attuale gen.
Poi personalmente ci conto molto sull'RT già ora ci sono diversi titoli che ne fanno uso, oltre al reshade che ha anche un API che tenta di simulare alcuni effetti via SW, molte persone ci stanno lavorando e credo sia qualcosa che sarà sempre più utilizzato darlo per scontato è riduttivo.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.