View Full Version : GeForce RTX 3000, tutti i segreti dell'architettura Ampere
Redazione di Hardware Upg
05-09-2020, 07:07
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/5822/geforce-rtx-3000-tutti-i-segreti-dell-architettura-ampere_index.html
Dopo le prime informazioni dei giorni scorsi, Nvidia ha svelato maggiori dettagli sull'architettura Ampere alla base delle nuove GeForce RTX 3000. Scopriamo in che modo l'azienda non solo è riuscita ad aumentare le prestazioni con i titoli tradizionali, ma a permettere l'attivazione del ray tracing anche a dettagli elevati. Le novità toccano tutta l'architettura, dagli Streaming Multiprocessor per arrivare agli RT core di seconda generazione e i Tensor core di terza generazione.
Click sul link per visualizzare l'articolo.
Una sola parola: CHE SCHEDE!!!!! Turing e tutte le Ver.2xxx sono da cestinare rispetto a questa generazione!
Opteranium
05-09-2020, 08:48
Quand'è che si inizia a parlare di supercomputer? :D
bonzoxxx
05-09-2020, 08:50
Impressionante, la sola 3070 raddoppia, in termini di TFLOPS, la PS5 e quasi la XBOX, davvero impressionante*
*(non voglio scatenare assolutamente console vs pc war, è una mera considerazione numerica).
ghiltanas
05-09-2020, 09:06
Non vedo l'ora di leggere le recensioni!
Markus Lux
05-09-2020, 09:46
Con queste schede hanno reso le console già vecchie, davvero una bella botta.
Pandemio
05-09-2020, 10:28
Dov'è l utente "queste schede non propongono nulla di nuovo"??
Già solo la feature che accelera gli ssd nvme permettendo sulla carta caricamenti istantanei di mappe,scenari e livelli è un passo da giganti.
Il ray tracing migliorato.. Delizia per gli occhi.
Prestazioni assurde in rapporto al prezzo..
Che altro?
Gyammy85
05-09-2020, 10:28
Insomma la 3090 fa un+50% su 2080ti sia in raster che rt, con buona pace di quelli che pensavano che facesse più frame in rt che senza
Impressionante, la sola 3070 raddoppia, in termini di TFLOPS, la PS5 e quasi la XBOX, davvero impressionante*
*(non voglio scatenare assolutamente console vs pc war, è una mera considerazione numerica).
La 3070 va il 40% in più di una 5700xt, e la xsx andrà minimo il 40% in più
Insomma la 3090 fa un+50% su 2080ti sia in raster che rt, con buona pace di quelli che pensavano che facesse più frame in rt che senza
La 3070 va il 40% in più di una 5700xt, e la xsx andrà minimo il 40% in più
Forse volevi dire la 3080
Cmq schede spaziali. Alla fine da quello che si legge qui non so se abbia molto senso comprare una serie 2*** usata, una 3070 a 520euro sembra una soluzione cmq migliora anche rispetto a ad una 2080ti a 450 euro... Senza parlare della 2070 o 2060, sono diventate tutte scheda da secondo PC. Per carità non che siano da buttare (io sul fisso che ormai uso ogni morto di papa sto ancora con una 3930k e una 780ti xD), avevo intenzione di cambiare GPU per una 2060 o una 2070 ma a questo punto non ne vale più la pena, a meno di trovare un blocco am4 + GPU e RAM al prezzo di una 3070 🤣
StylezZz`
05-09-2020, 10:49
Dov'è l utente "queste schede non propongono nulla di nuovo"??
:rotfl: :rotfl: :rotfl:
Ha scritto lo stesso monologo per non so quanti thread, spero si sia calmato, magari riuscirà a vendersi la sua 2000 a buon prezzo e gli passerà.
Gyammy85
05-09-2020, 11:03
Forse volevi dire la 3080
Cmq schede spaziali. Alla fine da quello che si legge qui non so se abbia molto senso comprare una serie 2*** usata, una 3070 a 520euro sembra una soluzione cmq migliora anche rispetto a ad una 2080ti a 450 euro... Senza parlare della 2070 o 2060, sono diventate tutte scheda da secondo PC. Per carità non che siano da buttare (io sul fisso che ormai uso ogni morto di papa sto ancora con una 3930k e una 780ti xD), avevo intenzione di cambiare GPU per una 2060 o una 2070 ma a questo punto non ne vale più la pena, a meno di trovare un blocco am4 + GPU e RAM al prezzo di una 3070 🤣
No no, 3090 vs titar rtx
Beh si, se le 780 erano spaziali figuriamoci queste...l'incognita principale sono i prezzi che a quanto pare su strada saranno ben maggiori
Sono dei ladri. La 3070 consuma quanto una 2080 (220W) - non metto in dubbio che se il costo è inferiore, è certamente un buon acquisto, ma se la paragonano alle 2070, stanno prendendo per i fondelli i clienti.
mattxx88
05-09-2020, 11:59
Dov'è l utente "queste schede non propongono nulla di nuovo"??
Già solo la feature che accelera gli ssd nvme permettendo sulla carta caricamenti istantanei di mappe,scenari e livelli è un passo da giganti.
Il ray tracing migliorato.. Delizia per gli occhi.
Prestazioni assurde in rapporto al prezzo..
Che altro?
:rotfl: :rotfl: :rotfl:
Ha scritto lo stesso monologo per non so quanti thread, spero si sia calmato, magari riuscirà a vendersi la sua 2000 a buon prezzo e gli passerà.
Lasciatemi stare l' Aldo neh :O
mattxx88
05-09-2020, 12:02
Insomma la 3090 fa un+50% su 2080ti sia in raster che rt, con buona pace di quelli che pensavano che facesse più frame in rt che senza
in base a cosa visto che ad oggi sono uscite solo slide?
e quelle riportano una 3080 superiore dal 70 al 90% rispetto a una 2080ti? :rolleyes: :rolleyes:
Ale55andr0
05-09-2020, 12:12
qualcuno qui nelle news
https://i.kym-cdn.com/photos/images/original/001/354/629/25e.gif
il sistema delle ventole forse è un po preoccupante, chissà come reagiranno le cpu a vedersi arrivare un flusso d'aria bollente:eek:
in base a cosa visto che ad oggi sono uscite solo slide?
e quelle riportano una 3080 superiore dal 70 al 90% rispetto a una 2080ti? :rolleyes: :rolleyes:2080, non 2080Ti.
in base a cosa visto che ad oggi sono uscite solo slide?
e quelle riportano una 3080 superiore dal 70 al 90% rispetto a una 2080ti? :rolleyes: :rolleyes:
Quei risultati sarebbero rispetto a una 2080 liscia, non Ti.
Pandemio
05-09-2020, 12:32
Che ladri? Scusa ma non ho capito proprio il senso del tuo post, la 3070 devi paragonarla alla 2080 ti come prestazioni.
come con Intel e i Tigerlake, sembra SEMPRE di + che la strada sia specializzazione.
non più cpu e gpu multipourpose, ma diverse unità specializzate
alla fine l'ottimizzazione sta molto li
Ma il DLSS 3.0 che fine ha fatto ?
bonzoxxx
05-09-2020, 15:01
Insomma la 3090 fa un+50% su 2080ti sia in raster che rt, con buona pace di quelli che pensavano che facesse più frame in rt che senza
La 3070 va il 40% in più di una 5700xt, e la xsx andrà minimo il 40% in più
Più il 40% di una 3070?
Ammazza, ok che le console si ottimizzano meglio e con doom eternal abbiamo visto cosa significa ottimizzare, però, sempre sulla carta, una 3070 è, come potenza grezza, quasi il doppio.
Vabbè, aspettiamo, la mia curiosità troverà pace tra poco :)
come con Intel e i Tigerlake, sembra SEMPRE di + che la strada sia specializzazione.
non più cpu e gpu multipourpose, ma diverse unità specializzate
alla fine l'ottimizzazione sta molto li
Come sta facendo Apple con Silicon che, ricordiamolo, è un bel chippone considerando i 9.8 miliardi di transistor dell'a12X..
hanno lavorato bene per ottimizzare bene la logica d'uso delle varie parti del GPC, ma il problema è che con turing ne hanno sparate talmente grosse che sono stati costretti a spararne ancora più grosse con Ampere, anche se hanno ottenuto notevoli miglioramenti.
la questione si ferma a questo:
"Tutte e quattro le partizioni SM combinate possono eseguire 128 operazioni FP32 per clock, che è il doppio dell'SM di Turing"
se un SM offre 128 operazioni in virgola mobile a clock, i 68 SM di una 3080 ne offrono 8704;
se il clock è a 1710mhz, offre, in totale 14883840 milioni di operazioni al secondo, pari a 14.9TF, non 20, come dichiarato.
il marketing sta solo cercando di confondere rispetto a quanto detto precedentemente sulle altre generazioni, con una 2080 TI, da 68SM, che dichirava 16TF di computazione in operazioni in virgola mobile.
in effetti hanno migliorato enormemente il rendimento reale dell'architettura, ma i TF teorici sono diminuiti,ma, d'altra parte, a noi consumatori basta che quelli che riusciamo a sfruttare siano di più.
la questione è che oggi i cudacore di Ampere (gaming) non producono più 2 operazioni a virgola mobile a clock, come nelle passate generazioni, ma una sola.
è stato fatto perchè c'è stata la necessità di ottimizzare l'uso degli RT core, che sfruttano una sola delle operazioni consentite dai "vecchi" cudacore, e quindi, all'atto pratico, una 2080 Ti in RTX operava alla metà della sua reale potenza grafica in concomitanza con gli RT core.
ora, si ha una operazione in virgola mobile per cudacore, sfruttabile da un RT core, per ogni cudacore, ma il doppio dei cudacore, quindi il doppio dello sfruttamento.
stessa cosa quando si usava codice INT.
nvidia ha detto che mediamente si usa fino al 30% del codice su interi nei giochi di nuova concezione, ma la sua architettura offriva il 50% delle pipeline in INT.
le alu Int sono a singola operazione, quindi con Turing si aveva, per ogni ciclo di clock, o 2 operazioni su FP32 per 64 (pari ad un SM), quindi 128 operazioni in virgola mobile totale ad SM (che, se si nota, sono esattamente come quelle di Ampere, ma solo in ambito puramente FP32, non quando si usa anche RT core!), o una operazione FP32 ed una INT, quindi 64 FP per SM e 64 INT per SM, quindi 50:50.
se il 30% del codice è in INT posso usare il 60% degli SM in modalità mista, ed il 40% interamente per FP.
su una 2080 TI si ottenevano quindi circa 40SM in modalità mista e 28 in sola modalità FP... 40 SM che producevano 64 operazioni in FP più 28 SM che producevano 128 operazioni FP a clock, per un totale di 168 operazioni a clock (64*40 + 128*28) pari a 6144 operazioni in FP a clock, che a 1800mhz fanno 11.1TF; il resto erano operazioni per gli INT.
ecco quindi che quando Turing incontrava giochi che richiedevano l'uso degli INT per il 30% del codice è vero che poteva eseguirli direttamente la GPU, ma è anche vero che la sua potenza grafica in FP scendeva da dai 16TF a 11TF, come una 1080 Ti che invece scaricava tale computo solo sulla CPU (mandandola però in bottleneck se non usava core aggiuntivi per eseguire tali operazioni).
e questo quando si era in condizione di solo uso di rasterizzazione; con l'uso congiunto degli RT le FP offrivano comunque una sola operazione a ciclo, quindi i cudacore dei 28 SM rimanenti valevano comunque solo 1 e non più 2...
con Ampere, invece, alla fine fai la stessa cosa, ma il fatto di aver diviso le due operazioni a virgola mobile su due core indipendenti e di aver reso indipendente anche il core degli INT consente di gestire meglio le risorse in uso tra INT, FP e FP per RT core.
alla fine la crescita di transistors è dovuta alla separazione di questi core, che necessitano di L1/L2 e registri indipendenti (ecco perchè li hanno raddoppiati e hanno triplicato la caches; in effetti è lo stesso quantitativo, ma per singola funzionalità per rendere indipendente il calcolo una pipeline dall'altra, che sia FP o INT).
da questo anche il raddoppio delle ROPs, in quanto, per essere indipendente, devi avere tutta la filiera di calcolo sdoppiata; ma è un raddoppio non una triplicazione, quindi è questo il motivo per cui se usi gli INT hai ancora il decurtamento della metà delle unità di FP nella rasterizzazione; unità che possono comunque essere usate per i calcoli su RT o tensor core, visto che sono indipendenti dall'altra pipeline con i propri registri.. ecco cosa significava l'apporto di quell'aumento di caches).
anche quando parlano di "uso contemporaneo delle funzionalità" si esimiano dal dire che su turing, per dare massima perstazione in rasterizzazione, usavano tutto il TPG della scheda, ma quando usavano anche RTX o DLSS o RTX+DLSS, per alimentare anche quei banchi di transistors per i calcoli, dovevano decurtare la potenza concessa ai cudacore (o tramite frequenza o tramite schedulazione dei calcoli).
il maggior TGP delle Ampere non si deve vedere nella stessa ottica delle turing, che arrivavano (a meno di palesi bottleneck della CPU) sempre al TGP in qualsiasi situazione, ma che quando esegue solo rasterizzazione si avrà un consumo, quando si userà RTX o DLSS si sommerà altro consumo e quando si useranno rasterizzazione, RTx e DLSS insieme si otterrà il massimo del consumo consentito.
quindi in gioco mi aspetto che con solo rasterizzazione i consumi saranno molto più bassi del TGP dichiarato (sempre se non useranno anche questa questione per marketing e faranno mostrare ai recensori solo il consumo in ambito rasterizzazione, facendo presupporre al lettore ce quello sia il consumo massimo in ogni situazione d'uso... sarebbero capaci).
quindi Ampere migliora nettamente l'architettura eliminando quei bottleneck che si creavano a causa di una ottimizzazione mal fatta, che andava a caccia di frequenze massime e aumento di cudacore senza guardare al fatto che con un po' più di caches e registri (oltre che ROPs) già le Turing potevano avere enormi benefici in RTX.
d'altra parte sembra che, a parità di SM, l'architettura sia cresciuta del 20%, ma che garantisca, così fatta, il 50% di vantaggio in rendimento rispetto a prima... non facevano meglio a sfruttare lo spazio di Turing con il 20% in meno di cudacore, offrendo però un +50 dal -20%? 0.8 (ossia il 20% in meno di unità, quindi di spazio) per 1.5 fa comunque 1.2, quindi con lo stesso numero di transistors potevano garantirsi il 20% in più di prestazione solo per via di ROPs e caches, nulla di più di quanto non sapessero integrare prima.
il prezzo, invece, è condizionato dal momento in cui esce.
con Navi 10 AMD gli ha reso la vita difficile, ma è uscito 9 mesi dopo Turing e sono intervenuiti con le Super a raddrizzare il tiro sul prezzo per prestazioni, ma il vero nemico di Turing, in quei mesi, erano i possessori della serie 900 che si trovavano tante serie 1000 in vendita contro il prezzo stratosferico della serie 2000, che poi non offriva tutti questi vantaggi nei normali giochi.. aveva solo RTX e DLSS usati in praticamente solo 2 giochi in quel periodo e con implementazione fatta pure male (BF V ha ricevuto più patch per RT in quel periodo che altro).
in quest'ottica si dovrebbe guardare a Turing come un mezzo fallimento che comunque nvidia ha pompato all'inverosimile, come sempre, ma che ha alzato l'asticella delle "balle da marketing" talmente in alto da aver dovuto dichiarare numeri stratosferici per Ampere, come i 36 TF di computazione in FP32 della 3090 o i 10496 cudacore.
nonsono 36, ma sono 18, solo che sono sfruttati decisamente meglio;
sono 10496 core, ma 2 di quelli sono come uno del passato, solo che oggi sono indipendenti grazie a quel poco di caches che hanno messo sull'altra pipeline per farla diventare indipendente.
è solo che l'aumento di prestazione non era giustificabile in nessun modo conun dichiarato inferiore.... avremmo avuto la situazione in cui una 3080 doveva dichiarare solo 14.9TF e che comunque andava più di una 2080 Ti custom che arriva a 16TF teorici.... un controsenso per il pubblico che non si sarebbe riuscito a spiegare.. quindi camuffano, omettono e comunque dicono mezze verità per coprire un marketing fatto sulle Turing che prometteva quello che poi non era.
quindi si può dire che è un bel chippone grosso e ben sfruttato, rispetto ad un chippone e basta e soprattutto mal sfruttato, oltre che mal coadiuvato dal software che è stato turing... è per questo che Turing è durato meno di 2 anni e non valeva affatto i soldi che nvidia chiedeva.
con la scusa dell'RT hanno proposto un chippone grosso più del doppio di prima ma che offriva ben poco più di prima a costi comunque doppi.
per il costo, oggi si può dire che nvidia ha capito che AMD può effettivamente arrivare alle prestazioni della 3080 (ma tra il poter fare una cosa e voler fare una cosa c'è comunque di mezzo il mare), ed è quindi stato deciso di non esagerare, mentre per giustificare il doppio del prezzo di una scheda, la 3090, che, in finale, ha la stessa componentistica, hanno messo chip di ram da 2GB e l'hanno fatta diventare da 24GB.
a me non sembra che la 5500 XT da 8GB costi il doppio della 5500 XT da 4GB, eppure anche li hanno usato chip da 2GB invece che 1GB...
è segno che si sente sicura che non avrà concorrenza in quel segmento e che quindi può continuare a spremere i suoi clienti come le pare.
per quanto riguarda il resto delle tecnologie presentate, sono robetta di contorno che forse porterà ad un miglioramento percettibile, ma non certo essenziale (il caricamento da SSD è valevole per le console, non per i PC, che sono strutturati in modo decisamente diverso).
in finale, è vero che turing ha portato a maggiori prestazioni assolute, ma quando si scriveva che non valeva i soldi che chiedevano era anche quella un'assoluta verità.
oggi si può dire solo della 3090, perchè non vale 1500 euro minimo a confronto del resto e, probabilmente, di quello che arriverà presto.
invece è realmente brutto leggere un'articolo tecnico in cui si omettono o si dicono mezze verità, solo per coprire balle dette dal marketing sulle passate generazioni.
in un modo o nell'altro il marketing nvidia si è fatto scoprire che, di quello che dichiarano, di buono c'è manco 1/3...
spero che sarà solo il marketing nvidia a continuare questa strategia pubblicitaria, perchè se anche gli altri si accodano... diventa una situazione da schifo, come con le promozioni di telemarketing... arriveranno a telefonarti a casa per venderti una CPU o una GPU millantando cose che poi non esistono, come si scorgono su questo articolo e come, ormai è certo, ne hanno dette alla presentazione delle turing...
mattxx88
05-09-2020, 16:20
2080, non 2080Ti.
Quei risultati sarebbero rispetto a una 2080 liscia, non Ti.
si infatti, ho pure aggiunto ti in fretta e furia, il senso era che stiamo buttando supposizioni a muzzo su 3080 vs 2080 (no ti) di cui oggi abbiamo in mano solo parole dette e grafici mostrati, non test seri.
di 3090 abbiamo solo la forma e le spec hardware, a livello di performance certe non si sa nulla nemmeno qua
si infatti, ho pure aggiunto ti in fretta e furia, il senso era che stiamo buttando supposizioni a muzzo su 3080 vs 2080 (no ti) di cui oggi abbiamo in mano solo parole dette e grafici mostrati, non test seri.
di 3090 abbiamo solo la forma e le spec hardware, a livello di performance certe non si sa nulla nemmeno qua
la 2080 Ti vien più facile da confrontare alla 3080 per via del numero degli SM.
alla fine l'integrazione grossolana è la medesima, ma quel 20% in più di transistors che hanno usato sono evidentissimi.
dispiace solo che hanno usato un cut chip che avrà fatto lievitare un po' i consumi verso l'alto, ma avrà garantito anche costi inferiori per la 3090 (che però non si sono riflessi sul prezzo al pubblico :O ).
sarebbe stato un bel chippino fatto realmente bene se fosse stato un full chip con il 20% in meno di silicio... (con un conseguente contenimento del prezzo).
anche la questione del TGP fa pensare...
con quel gain prestazionale potevano permettersi frequenze ancora più basse e prestazioni ancora degne di nota... alla fine potevi garantire, con la stessa scheda, ma a un settaggio del 10-15% in meno, prestazioni da 2080 Ti, consumi ridotti, prezzo inferiore (anche se lo lasciavi invariato), ma soprattutto potevi offrire quel 15% come overclock per far divertire i ragazzini e dare al pubblico maturo temperature e rumore ottimali...
se non l'hanno fatto significa che temono che AMD stia troppo vicina... (ma è una mia impressione, per giustificare prestazioni e costo della scheda).
mattxx88
05-09-2020, 16:35
la 2080 Ti vien più facile da confrontare alla 3080 per via del numero degli SM.
alla fine l'integrazione grossolana è la medesima, ma quel 20% in più di transistors che hanno usato sono evidentissimi.
dispiace solo che hanno usato un cut chip che avrà fatto lievitare un po' i consumi verso l'alto, ma avrà garantito anche costi inferiori per la 3090 (che però non si sono riflessi sul prezzo al pubblico :O ).
sarebbe stato un bel chippino fatto realmente bene se fosse stato un full chip con il 20% in meno di silicio... (con un conseguente contenimento del prezzo).
anche la questione del TGP fa pensare...
con quel gain prestazionale potevano permettersi frequenze ancora più basse e prestazioni ancora degne di nota... alla fine potevi garantire, con la stessa scheda, ma a un settaggio del 10-15% in meno, prestazioni da 2080 Ti, consumi ridotti, prezzo inferiore (anche se lo lasciavi invariato), ma soprattutto potevi offrire quel 15% come overclock per far divertire i ragazzini e dare al pubblico maturo temperature e rumore ottimali...
se non l'hanno fatto significa che temono che AMD stia troppo vicina... (ma è una mia impressione, per giustificare prestazioni e costo della scheda).
conoscendo nvidia sicuramente, jhh sa qualcosa di Lsa che noi non sappiamo per essere uscito con sti prezzi visto quanto fatto con Turing
ps commento tuo prima, quello luuungo lungo, ti prego no "In finale", infine :p
Più il 40% di una 3070?
Ammazza, ok che le console si ottimizzano meglio e con doom eternal abbiamo visto cosa significa ottimizzare, però, sempre sulla carta, una 3070 è, come potenza grezza, quasi il doppio.
Vabbè, aspettiamo, la mia curiosità troverà pace tra poco :)
Come sta facendo Apple con Silicon che, ricordiamolo, è un bel chippone considerando i 9.8 miliardi di transistor dell'a12X..
è che il pubblico ha dato sempre ben poca importanza alle ottimizzazioni, sia software che HW.
qui, in finale, per un 20% in più di transistors a pari integrazione di SM, si è ottenuto un aumento prestazionale assai rilevante e soprattutto sfruttando quello che c'era prima in modo migliore... non con le novità, ma con cose che già c'erano, solo usate realmente male (vedendole in ottica di queste prestazioni).
quindi siamo ancora ben lontani dal 100% dello sfruttamento dell'HW da parte del software e del 100% dello sfruttamento del modo di scrivere software da parte dell'HW, ma tanto lontani...
bonzoxxx
05-09-2020, 16:41
Post interessanti, grazie Lucusta
mattxx88
05-09-2020, 16:42
è che il pubblico ha dato sempre ben poca importanza alle ottimizzazioni, sia software che HW.
qui, in finale, per un 20% in più di transistors a pari integrazione di SM, si è ottenuto un aumento prestazionale assai rilevante e soprattutto sfruttando quello che c'era prima in modo migliore... non con le novità, ma con cose che già c'erano, solo usate realmente male (vedendole in ottica di queste prestazioni).
quindi siamo ancora ben lontani dal 100% dello sfruttamento dell'HW da parte del software e del 100% dello sfruttamento del modo di scrivere software da parte dell'HW, ma tanto lontani...
lucusta ti prego fermati, lo so non prendermi per un grammar nazi, ma ho male agli occhi :sofico: :sofico: si dice infine
conoscendo nvidia sicuramente, jhh sa qualcosa di Lsa che noi non sappiamo per essere uscito con sti prezzi visto quanto fatto con Turing
ps commento tuo prima, quello luuungo lungo, ti prego no "In finale", infine :p
matt, Turing è stato più un fail che un buon prodotto.
considerando il periodo storico in cui l'hanno fatto uscire, con ritardo causa mining e anche a causa dello stesso mining, l'assenza di una reale concorrenza e decine di altri fattori, non ultimo il cattivo lavoro di ottimizzazione che invece vediamo su Ampere (che, alla fine, non porta nulla di nuovo.. non è una concezione diversa rispetto a prima.. è lo stesso "mattone" disposto diversamente e imbellettato meglio), la conclusione a cui si può arrivare è solo quella: valeva manco la metà di quello che offriva...
ecco, l'esempio è davanti a noi: una 3070 alle prestazioni di una 2080 Ti e al costo di 499$...
non è che in 2 anni si possa svalutare così il costo delle prestazioni...
può costare la metà, ma non 1/3...
lucusta ti prego fermati, lo so non prendermi per un grammar nazi, ma ho male agli occhi :sofico: :sofico: si dice infine
in finale.... contrattura di "nalle -conclusioni- finali"...
non ti prendo per grammy nazi, ma per persona giovine...
spesso mi ritrovo ad usare lemmi un po' datati per i tempi, ma sono stato educato così...
mattxx88
05-09-2020, 16:47
matt, Turing è stato più un fail che un buon prodotto.
considerando il periodo storico in cui l'hanno fatto uscire, con ritardo causa mining e anche a causa dello stesso mining, l'assenza di una reale concorrenza e decine di altri fattori, non ultimo il cattivo lavoro di ottimizzazione che invece vediamo su Ampere (che, alla fine, non porta nulla di nuovo.. non è una concezione diversa rispetto a prima.. è lo stesso "mattone" disposto diversamente e imbellettato meglio), la conclusione a cui si può arrivare è solo quella: valeva manco la metà di quello che offriva...
ecco, l'esempio è davanti a noi: una 3070 alle prestazioni di una 2080 Ti e al costo di 499$...
non è che in 2 anni si possa svalutare così il costo delle prestazioni...
può costare la metà, ma non 1/3...
oddio, lato prestazioni non si può dir nulla, se volevi giocare decentemente in 4k avevi 1 sola scelta, Turing.
lato prezzi lungi da me difenderli visto che ho ancora le emorroidi scoppiate nell`ano (si ho una 2080ti), ma neanche sappiamo che costi han avuto in r&d per poter progettare e sviluppare, ora con Ampere siamo ormai in "economia di scala", la traccia era stata tirata insomma
mattxx88
05-09-2020, 16:48
in finale.... contrattura di "nalle -conclusioni- finali"...
non ti prendo per grammy nazi, ma per persona giovine...
spesso mi ritrovo ad usare lemmi un po' datati per i tempi, ma sono stato educato così...
:O sul serio si usa? lo trovo cacofonico allora :fagiano:
grazie dell`input, cosi evito figuracce con altri nel lavoro magari
Post interessanti, grazie Lucusta
grazie a te per averlo letto...
io ho solo dato qualche spunto per riuscire a portare la discussione tecnica un pò più in alto rispetto a delle slide da marketing.
tanto a noi interessa HW ben sotto i 500euro e finchè non esce la 3070 o la relativa AMD non abbiamo null'altro d'interessante che cercare di capire come hanno cambiato l'architettura.
la questione si ferma a questo:
"Tutte e quattro le partizioni SM combinate possono eseguire 128 operazioni FP32 per clock, che è il doppio dell'SM di Turing"
se un SM offre 128 operazioni in virgola mobile a clock, i 68 SM di una 3080 ne offrono 8704;
se il clock è a 1710mhz, offre, in totale 14883840 milioni di operazioni al secondo, pari a 14.9TF, non 20, come dichiarato.
il marketing sta solo cercando di confondere rispetto a quanto detto precedentemente sulle altre generazioni, con una 2080 TI, da 68SM, che dichirava 16TF di computazione in operazioni in virgola mobile.
in effetti hanno migliorato enormemente il rendimento reale dell'architettura, ma i TF teorici sono diminuiti,ma, d'altra parte, a noi consumatori basta che quelli che riusciamo a sfruttare siano di più.
la questione è che oggi i cudacore di Ampere (gaming) non producono più 2 operazioni a virgola mobile a clock, come nelle passate generazioni, ma una sola.
A parte che il marketing ne dichiara 30 e non 20, ma sulla base di cosa ritieni che i CC non siano più in grado di eseguire una FMA (Fused Multiply Add) per ciclo di clock, che è l'istruzione normalmente presa come riferimento se supportata, che esegue una somma e moltiplicazione in un cliclo di clock, ed usata per calcolare il picco massimo di TF ?
si infatti, ho pure aggiunto ti in fretta e furia, il senso era che stiamo buttando supposizioni a muzzo su 3080 vs 2080 (no ti) di cui oggi abbiamo in mano solo parole dette e grafici mostrati, non test seri.
di 3090 abbiamo solo la forma e le spec hardware, a livello di performance certe non si sa nulla nemmeno qua
a me piacerebbe vedere test che approfondiscono proprio sull'uso concomitante di RTX o DLSS...
certo che se mi propongono il solito test di consumo massimo con Metro, chiudo il browser e non li leggo nemmeno...
altra cosa che mi piacerebbe verificare e la dinamica di quella ventola.
servirebbero indicazioni alle persone sul volume minimo del case che serve per farla funzionare bene, quindi di testarla bene sui diversi tipi di case...
insomma, non i soliti benchmark, ma informazioni utili alla gente, non ai troll da forum...
A parte che il marketing ne dichiara 30 e non 20, ma sulla base di cosa ritieni che i CC non siano più in grado di eseguire una FMA (Fused Multiply Add) per ciclo di clock, che è l'istruzione normalmente presa come riferimento se supportata, che esegue una somma e moltiplicazione in un cliclo di clock, ed usata per calcolare il picco massimo di TF ?
il confronto lo faccio con la 3080, che conta gli stessi SM della 2080 Ti, e lì ne dichiarano 30, hai ragione (ed infatti sono esattamente il doppio di quelli che si calcolano con le dichiarazioni di nvidia)...
non suppongo nulla.
applico le semplici formulette che si applicano per capire quanto è la prestazione massima teorica secondo le operazioni effettuate a clock.
sono abituato a verificare i numeri, sempre.
secondo nvidia Ampere riesce ad effettuare 128 operazioni FP a SM per clock.
puoi calcolarti da solo quanti TF escono fuori da questo dato.. è abbastanza semplice.
poi, puoi confrontare il tutto con la 2080 Ti e con il dichiarato di nvidia.
secondo quanto dichiarato un SM Turing riesce a produrre anche lui, teoricamente, 128 operazioni in virgola mobile a ciclo.
qui dicono che ne fa 64, ma facendo i conti una 2080 TI avrebbe 6.7TF di potenza in virgola mobile; la metà di quanto dichiara nvidia.
non la trovi una incongruenza valevole di una maggiore attenzione da parte dei lettori appassionati?
perchè il rischio che si corre è che s'incomincia a leggere che anche i TF di Ampere non sono i TF di turing, oltre che i"i TF di Nvidia non sono come i TF di AMD".
lasciare il pubblico tra l'ambiguità del teorico rispetto al reale, confondendolo e non indicando ogni volta esplicitamente quello che s'intende comunicare... mhe... è la peggior mossa che possa fare un ufficio marketing... alla fine è passibile per pubblicità ingannevole.
basta essere chiari, che poi i numeri possono dare il conforto che si cerca: Ampere va più di Turing perchè è semplicemente pensato meglio, non rinnovato, ma solo sistemato meglio.
inutile dichiarare il doppio di quello che effettivamente non c'è...
è inutile che ti dica che il vero limite di queste architetture odierne è la base a 64 bit del x86.
hai 64 core a SM solo perchè puoi individuare, in schedulazione, l'indirizzo di 64 unità con 7bit; con l'ultimo bit (tale da fare un byte) indichi la pipeline che devi usare, se la prima o la seconda.
64 cudacore ha Truing, 128 ne ha Ampere, ma turing ha 2 pipeline e quindi sono 128 unità indirizzabili univocativamente... il resto dipende dai registri e dalal caches L1, se sono univoci o associati.
il prossimo passa sarà sicuramente di portare un SM ad avere 256 cudacore, non avendo più la necessità di distinguere quale cuda stai usando e quale pipeline del cuda core stai impiegando... con un byte riesci ad indirizzare 256 unità individuali (ed oggi, ormai, sono individuali, se non pensiamo alle INT).
il confronto lo faccio con la 3080, che conta gli stessi SM della 2080 Ti, e lì ne dichiarano 20...
non suppongo nulla.
applico le semplici formulette che si applicano per capire quanto è la prestazione massima teorica secondo le operazioni effettuate a clock.
sono abituato a verificare i numeri, sempre.
secondo nvidia Ampere riesce ad effettuare 128 operazioni FP a SM per clock.
puoio calcolarti da solo quanti TF escono fuori da questo dato.. è abbastanza semplice.
poi, puoi confrontare il tutto con la 2080 Ti e con ildichiarato di nvidia.
secondo quanto dichiarato un SM Turing riesce a produrre anche lui, teoricamente, 128 operazioni in virgola mobile a ciclo.
qui dicono che ne fa 64, ma facendo i conti una 2080 TI avrebbe 6.7TF di potenza in virgola mobile; la metà di quanto dichiara nvidia.
non la trovi una incongruenza valevole di una maggiore attenzione da parte dei lettori appassionati?
La formula che usi per calcolare i flops omette di moltiplicare il risultato per il numero massimo di istruzioni che l'ALU può eseguire per ciclo, e visto che le ALU di nVidia da Fermi, e quelle di AMD da GCN possono eseguirne 2, e mi riferisco ad esempio alle FMA, il numero da te calcolato deve essere moltiplicato per 2.
https://en.wikipedia.org/wiki/FLOPS
FLOPS = ALU * FREQ * FLOPs dove:
ALU = numero di CC, SP, chiamale come vuoi
FREQ = frequenza delle ALU
FLOPs = numero istruzioni per ciclo
FLOPs (FP32), se guardi la tabella del link che ho postato, nVidia da Fermi ad Ampere compresa ne esegue 2, perchè da Fermi supporta le FMA
https://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIA_Fermi_Compute_Architecture_Whitepaper.pdf
The Fermi architecture implements the new IEEE 754-2008 floating-point standard, providing the used multiply-add (FMA) instruction for both single and double precision arithmetic. FMA improves over a multiply-add (MAD) instruction by doing the multiplication and addition with a single final rounding step, with no loss of precision in the addition. FMA is more accurate than performing the perations separately.
La formula che usi per calcolare i flops omette di moltiplicare il risultato per il numero massimo di istruzioni che l'ALU può eseguire per ciclo, e visto che le ALU di nVidia da Fermi, e quelle di AMD da GCN possono eseguirne 2, e mi riferisco ad esempio alle FMA, il numero da te calcolato deve essere moltiplicato per 2.
https://en.wikipedia.org/wiki/FLOPS
FLOPS = ALU * FREQ * FLOPs dove:
ALU = numero di CC, SP, chiamale come vuoi
FREQ = frequenza delle ALU
FLOPs = numero istruzioni per ciclo
FLOPs (FP32), se guardi la tabella del link che ho postato, nVidia da Fermi ad Ampere compresa ne esegue 2, perchè da Fermi supporta le FMA
https://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIA_Fermi_Compute_Architecture_Whitepaper.pdf
qui si salta la classica formuletta (che sicuramente ha usato anche qualcuno del marketing per scrivere i TF massimi di potenza grafica).
si va direttamente di operazioni in virgola mobile per SM dichiarate da nvidia anche in questo stesso brifing pubblicitario.
dichiarano 128 operazioni in virgola mobile a clock per SM.
sulla 3080 sono 68 SM e la frequenza è si 1710mhz, a quanto ricordo.
diventano 14.9TF non 29.77TF
quello che riporti su Fermi è vero, ma manca anche il seguito di quella frase, e lo hanno fatto notare ANCHE ad un utente su tomsHW che ha riportato l'identica frase, più epipeti di scarsa educazione (lo conosci, per caso? sembra strano che riuscite ad ottenere informazioni puntuali in così breve tempo... come ad averle sotto mano).
la possibilità di Fermi di fare 2 operazioni in virgola mobile per FP32 c'è, ma c'è l'impossibilità di Fermi di usare contemporaneamente i 64 cudacore di un SM; ne può usare solo 32 alla volta.
quindi per i TF di fermi si applica un divisore pari a 2 perchè può usare solo la metà delle unità a clock.
e non ti far erroneamente guidare da nvidia nei termini; queste sono FFMA non FMA.
sono a virgola mobile ed indicano una disposizione specifica:
When done with floating point numbers, it might be performed with two roundings (typical in many DSPs), or with a single rounding. When performed with a single rounding, it is called a fused multiply–add (FMA) or fused multiply–accumulate (FMAC).
FFMA sta appunto per fully fused multiply-add, per i processori multivia, in quanto devi considerare tutte le vie di processamento dei dati.
quindi fai attenzione ai termini che si indicano, perchè loro, il marketing, ne fanno molta.
quando calcoli i TF con la formultetta per determinare la potenza teorica massima il calcolo giusto è sul dato delle FFMA, ossia su tutte le vie di processamento che all'unisono vengono usate per clock.
diversamente, se lo fai con il semplice dato FMA, una 2080 TI risulterebbe avere 6.9TF teorici, come indicano in questo stesso paper pubblicitario: 64 operazioni in virgola mobile a SM (la 2080 TI ha 68 SM ed è dichiarata con 1545mhz di boost clock... anche se poi arriva a 1830); a te l'onere dei conti per asssicurarti di quello che dico.
io vorrei parlare di tecnologia e non di marketing.
qui si salta la classica formuletta (che sicuramente ha usato anche qualcuno del marketing per scrivere i TF massimi di potenza grafica).
si va direttamente di operazioni in virgola mobile per SM dichiarate da nvidia anche in questo stesso brifing pubblicitario.
dichiarano 128 operazioni in virgola mobile a clock per SM.
sulla 3080 sono 68 SM e la frequenza è si 1710mhz, a quanto ricordo.
diventano 14.9TF non 29.77TF
Se vuoi ottenere i FLOPS di picco, come da formuletta, che è la stessa usata da Sony ed MS per dichiarare la potenza delle loro console, e da Intel, AMD, ARM, Qualcomm nVidia, ecc... per dichiarare la potenza delle loro CPU e GPU, devi moltiplicare per 2 ottenendo 29.77TF.
La formuletta definisce lo standard per dichiarare i FLOPS, che sia un dato di picco e teorico lo sappiamo tutti, e non ti contesto assolutamente questo su cui sono d'accordo al 100%, ma la tesi iniziale secondo la quale le GPU Ampere rispetto a Turing non sarebbero in grado di eseguire due istruzioni per ciclo di clock, cosa che impedirebbe appunto l'utilizzo del moltiplicatore 2 nella formuletta.
quello che riporti su Fermi è vero, ma manca anche il seguito di quella frase, e lo hanno fatto notare ANCHE ad un utente su tomsHW che ha riportato l'identica frase, più epipeti di scarsa educazione
La riporto in modo completo, ma non capisco cosa aggiunga...
The Fermi architecture implements the new IEEE 754-2008 floating-point standard, providing the fused multiply-add (FMA) instruction for both single and double precision arithmetic. FMA improves over a multiply-add (MAD) instruction by doing the multiplication and addition with a single final ounding step, with no loss of precision in the addition. FMA is more accurate than performing the operations separately. GT200 implemented double precision FMA.
Ovvero: FMA migliora il MAD eseguendo la moltiplicazione e addizione in un solo passaggio con nessuna perdita di precisione nell'addizione, ed il solo passaggio si riferisce molto al ciclo di clock, e moltiplicazione ed addizione sono operazioni distinte.
Resta che in potenza la 3070 pareggia e supera una 2080ti non contando le nuove tecnologie implementate.
Nvida anche grazie all uscita delle nuove console ha presentato delle schede che asfaltano la serie 2000 e le varie console
e... invece no :D
ti stupirà ma è proprio per colpa di gente faziosa e ipocrita come GiA4mmI11.
il powerino! ;)
il comportamento che stai usando disturba comunque tutti.
che lui sia o meno fazioso esprime le proprie idee; quando tu invece crei un account clone (e lo si vede dai 3 messaggi che hai fatto con questo account), crei disturbo a tutti e dai un pessimo spettacolo.
Personaggio
05-09-2020, 21:26
Sono dei ladri. La 3070 consuma quanto una 2080 (220W) - non metto in dubbio che se il costo è inferiore, è certamente un buon acquisto, ma se la paragonano alle 2070, stanno prendendo per i fondelli i clienti.
i 110Wh in più non sono nulla, mica parliamo di portatili che vanno a batteria il desktop è attaccato alla rete elettrica :muro:
In ogni caso 110Wh per un ora al giorno tutti i giorni dell'anno, fanno esattamente 39.2KWh che a 0.25€ l'uno sono 9.8€ di spesa per la corrente elettrica in più in un anno!
Cavolo e mo come famo.... 10€ l'anno so troppi, si hai ragione sono proprio dei ladri...
il comportamento che stai usando disturba comunque tutti.
che lui sia o meno fazioso esprime le proprie idee; quando tu invece crei un account clone (e lo si vede dai 3 messaggi che hai fatto con questo account), crei disturbo a tutti e dai un pessimo spettacolo.
Non perderci tempo, tanto starà già ad una decina buona di segnalazioni. Tempo qualche ora e ciaone
Se vuoi ottenere i FLOPS di picco, come da formuletta, che è la stessa usata da Sony ed MS per dichiarare la potenza delle loro console, e da Intel, AMD, ARM, Qualcomm nVidia, ecc... per dichiarare la potenza delle loro CPU e GPU, devi moltiplicare per 2 ottenendo 29.77TF.
La formuletta definisce lo standard per dichiarare i FLOPS, che sia un dato di picco e teorico lo sappiamo tutti, e non ti contesto assolutamente questo su cui sono d'accordo al 100%, ma la tesi iniziale secondo la quale le GPU Ampere rispetto a Turing non sarebbero in grado di eseguire due istruzioni per ciclo di clock, cosa che impedirebbe appunto l'utilizzo del moltiplicatore 2 nella formuletta.
c'è un'incongruenza sui dati che riporta nvidia.
indica che Ampere riesce a svolgere 128 op FP a ciclo di clock per SM.
se ci basiamo sui cudacore che ha una 3080, 8704, e li dividiamo per gli SM che ha, 68, troviamo appunto 128 cudacore a SM.
quindi una sola op FP per cudacore a ciclo di clock.
sulla 2080 TI hai 4352 cudacore in 68 SM, quindi 64 cudacore per SM, ma tu stesso hai riportato che sono FP32 a 2 vie, quindi ne esegue comunque 128.
Fermi, invece, aveva l'impossibilità di usare tutti i 64 cudacore all'unisono; ne usava solo 32 al clock, ma facendo 2 operazioni a FP32 si avevano 64 op FP per ciclo per SM.
risulta esserci quindi un'incongruenza nell'informazione.
se Ampere ha 128 cudacore a SM, dovrebbe farne 256 a clock per SM, non 128 come dichiarato.
non ho ancora un'idea chiara se usino FP32 ad una o due vie, ma già con l'esempio di Fermi puoi capire che non si può usare la formuletta senza capire effettivamente cosa sta succedendo.
la formuletta recita appunto: Flops per clock per unità attive in quel clock.
in Fermi c'era la questione che non erano tutte attive all'unisono.
poi che il dato teorico e pratico si discosti (e anche di molto) è un'altro interessante argomento, ma nvidia ha dichiarato 128 op per SM con 68 SM per clock, quindi il calcolo teorico della potenza grafica lo puoi sicuramente calcolare da quello, e risulta della metà rispetto al dichiarato.
io mi sto facendo l'idea che in Turing, nel momento in cui usavi una delle pipeline della FP32 congli RT core, mettevi in stallo l'altra pipeline o perchè non avevi sufficienti RT core anche per calcolare con l'altra pipeline, ma, in quella circostanza, bastava solo raddoppiare la consistenza di questi, o che era inutile affiancare un'altro RT core alla pipeline FP32 perchè il dataset caricato in L1 e sui registri da cui dipendevano entrambe le pipeline di FP32 era il medesimo e quindi avrebbe prodotto un risultato già calcolato dall'altro, quindi, alla fine, inutile (magari con quel dataset facevi un'addizione su una ed una moltiplicazione sull'altra...).
sdoppiare la L1 e i registri dovrebbe quindi aver permesso di usare un'altro rt core, ma farla comunque a 2 vie avrebbe riportato allo stesso risultato di prima (sarebbe solo diventato grande il doppio tutto).
ecco perchè mi sono fatto l'idea che sia ad una singola via, perchè raddoppi le unità, le rendi indipendenti e puoi quindi sfruttarle indipendentemente, senza stalli di una parte delle unità di elaborazione.
il tutto ti costa perà l'aggiunta di L1 e registri, oltre che di più RT core o meglio di chiamate per gli RT core.
rimane l'incongruenza delle informazioni base che hanno dichiarato...
La riporto in modo completo, ma non capisco cosa aggiunga...
Ovvero: FMA migliora il MAD eseguendo la moltiplicazione e addizione in un solo passaggio con nessuna perdita di precisione nell'addizione, ed il solo passaggio si riferisce molto al ciclo di clock, e moltiplicazione ed addizione sono operazioni distinte.
su quel documento questa nozione non la trovi espressa esplicitamente;
ti indica:"Most instructions can be dual issued; two integer instructions, two floating instructions, or a mix of integer, floating point, load, store, and SFU instructions can be issued concurrently. Double precision instructions do not support dual dispatch with any other operation."
la trovi su questo
https://www.nvidia.com/content/pdf/fermi_white_papers/p.glaskowsky_nvidia's_fermi-the_first_complete_gpu_architecture.pdf
"22 Figure 7. A total of 32 instructions from one or two warps can be dispatched in each cycle to any two of the four execution blocks within a Fermi SM: two blocks of 16 cores each, one block of four Special Function Units, and one block of 16 load/store units. This figure shows how instructions are issued to the execution blocks. (Source: NVIDIA) "
significa che Fermi riesce ad usare 2 blocchi da 16 cudacore alla volta indipendentemente, ma per effettuare una FMA (o meglio una FFMA) usa un blocco di 16 cudacore schedulato dal primo warp e li combina con le op dell'altro blocco da 16 cudacore, schedulato dal secondo warp.
se deve fare A+B*C, A+B su un cudacore (schedulato da un warp) ed il risultato lo moltiplica per C, schedulato sull'altro warp, facendo il tutto in un clock, ma usando 2 cudacore a doppai via.
Fermi, con 32 cudacore, può effettuare solo 32 FMA, come indica nvidia, a clock per SM.
l'informazione la trovi dove parla del "dual warp scheduler":
"The SM schedules threads in groups of 32 parallel threads called warps. Each SM features two warp schedulers and two instruction dispatch units, allowing two warps to be issued and executed concurrently."
manca però l'informazione che i due warp si devono mischiare per ottenere una FMA, quindi, al massimo, esegue 32 FMA.
visto che i TF si calcolano sulle FMA (EDIT: sulle OP) è da questo dato dovresti partire per il calcolo della potenza totale teorica.
e per Aprere dicono 128 op a clock per SM.
l'icongruenza si estende comunque al conteggio dei trasistors: più del doppio delle unità, arricchite di nuove istruzioni e funzionalità, e meno del raddoppio dei transistors...
sembra assai strana, come cosa ed è indice di un diverso modo di indicare le cose, non di farle (perchè, in finale, non è un'architettura diversa da quanto proposto con turing.. non viene da marte).
ci sono queste incongruenze e sto cercando di capirle, tutto qui....
Mamma mia ragazzi quante seghe mentali.
Per me l importante è che vadano bene (e con bene intendo meglio dalla generazione precedente) e che costino "poco"... Del resto chi se ne frega XD
i 110Wh in più non sono nulla, mica parliamo di portatili che vanno a batteria il desktop è attaccato alla rete elettrica :muro:
In ogni caso 110Wh per un ora al giorno tutti i giorni dell'anno, fanno esattamente 39.2KWh che a 0.25€ l'uno sono 9.8€ di spesa per la corrente elettrica in più in un anno!
Cavolo e mo come famo.... 10€ l'anno so troppi, si hai ragione sono proprio dei ladri...
Non c'entrano i costi di mantenimento.
La performance dei processori, sia GPU che CPU, si basa sull'efficienza, non sulla scalabilità, dato che esistono limiti termici.
Dato che la performance di GPU e CPU è proporzionale al numero di unità computazionali (anche se con proporzioni differenti), avere efficienze maggiori significa mettere più core, e quindi avere prestazioni superiori.
Sia in termini di CPU che GPU quindi, storicamente, si è sempre preso uno spettro di consumi, e si sono ripartiti i modelli. Le GPU nVidia xx60, ad esempio, erano quelle che non avevano bisogno di alimentazione aggiuntiva.
Se una 3070 consuma quanto una 2080, ma è performante, per dire, il 15% in più, ben venga, ma non è una 3070 in senso proprio, è una 3080. Hanno praticamente fatto un rebranding per fare credere ai polli che l'architettura sia molto più efficiente di quel che sia realmente.
Hanno sicuramente aumentato la scalabilità orizzontale, ma non considero questo aspetto particolarmente esaltante.
Se vogliamo considerare il lato pratico, 110W sono una quantità sigificativa di calore e rumore nel computer, e di conseguenza nella stanza, ma presentano anche problemi ingegneristici (componenti, durata etc.).
Mamma mia ragazzi quante seghe mentali.
Per me l importante è che vadano bene (e con bene intendo meglio dalla generazione precedente) e che costino "poco"... Del resto chi se ne frega XD
l'avevo premesso:"in effetti hanno migliorato enormemente il rendimento reale dell'architettura, ma i TF teorici sono diminuiti,ma, d'altra parte, a noi consumatori basta che quelli che riusciamo a sfruttare siano di più."
ora però ci piacerebbe parlare di come hanno fatto... senza che nessuno ci dica che ci stiamo facendo seghe mentali, perchè in un sito di tecnologia uno ci va a scrivere proprio per farsele, non credi?
Non c'entrano i costi di mantenimento.
La performance dei processori, sia GPU che CPU, si basa sull'efficienza, non sulla scalabilità, dato che esistono limiti termici.
Dato che la performance di GPU e CPU si basa sul numero di unità computazionali (anche se in modo differente), avere efficienze maggiori significa mettere più core, e quindi avere prestazioni superiori. Il Ryzen 2 infatti è stata un'eccezione che nessuno si aspettava.
Sia in termini di CPU che GPU, storicamente, si è sempre preso uno spettro di consumi, e si sono ripartiti i modelli. Le GPU nVidia xx60 erano quelle che non avevano bisogno di alimentazione aggiuntiva.
Se una 3070 consuma quanto una 2080, ma è performante, per dire, il 15% in più, ben venga, ma non è una 3070 in senso proprio, è una 3080. Hanno praticamente fatto un rebranding per fare credere ai polli che l'architettura sia molto più efficiente di quel che sia realmente.
Hanno sicuramente aumentato la scalabilità orizzontale, ma non considero questo aspetto particolaremente esaltante.
Se vogliamo considerare il lato pratico, 110W sono una quantità sigificativa di calore e rumore nel computer, e di conseguenza nella stanza, ma presentano anche problemi ingegneristici (componenti, durata etc.).
però, attenzione: è un TGP e ancora non abbiamo dati reali.
la logica dei consumi potrebbe essere diversa da quella a cui si è solitamente abituati con nvidia.
però, attenzione: è un TGP e ancora non abbiamo dati reali.
la logica dei consumi potrebbe essere diversa da quella a cui si è solitamente abituati con nvidia.
Sono sospettoso, ma me lo auguro :)
Non perderci tempo, tanto starà già ad una decina buona di segnalazioni. Tempo qualche ora e ciaone
il problema non è quell'account, ma chi lo ha aperto, che sempre qui bazzica con un'altro...
a quelli servirebbe un bel "ciaone", perchè gente così, che non si sa comportare socialmente, non dovrebbe avere il permesso di usare dei social.
Gyammy85
05-09-2020, 22:36
Più il 40% di una 3070?
Ammazza, ok che le console si ottimizzano meglio e con doom eternal abbiamo visto cosa significa ottimizzare, però, sempre sulla carta, una 3070 è, come potenza grezza, quasi il doppio.
No no intendevo che anche la xsx dovrebbe andare il 40% in più della 5700xt, difatti sembra che Navi 22 sia simile alla gpu della xsx
Sono sospettoso, ma me lo auguro :)
uno dei problemi delle turing era proprio questo: usavano il TGP sempre, sia che era per rasterizzazione e basta, che quando usavano il dLSS che quando usavano RTX o quando usavano entrambi...
alla fine quei transistors li devi alimentare, e se ottieni un certo livello in rasterizzazione con il massimo del TGP, significa che poi devi togliere potenza al raster per alimentare il resto.
meno potenza elettrica, meno prestazioni (ed in più la limitazione dell'RTX che abiamo tutti visto).
ora è vero che è alto in assoluto, ma se in rasterizzazione una 3080 ti fa 220W e ha prestazioni superiori ad una 2080 Ti da 275W, è stato tutto guadagno...
senza test, però, si deve solo sperare...
No no intendevo che anche la xsx dovrebbe andare il 40% in più della 5700xt, difatti sembra che Navi 22 sia simile alla gpu della xsx
non si sà... di sicuro navi ha portato notevoli miglioramenti nello sfruttamento della potenza teorica, visto che si avvicina e spesso supera le Vega V II, che di potenza teorica ne hanno da vendere.
Gyammy85
05-09-2020, 22:53
non si sà... di sicuro navi ha portato notevoli miglioramenti nello sfruttamento della potenza teorica, visto che si avvicina e spesso supera le Vega V II, che di potenza teorica ne hanno da vendere.
Parto sempre dal +50% perf/watt che amd dichiara per rdna2, dato che la 3070 è paragonabile alla 2080ti di conseguenza una vga amd da 220 watt dovrebbe eguagliarla
oddio, lato prestazioni non si può dir nulla, se volevi giocare decentemente in 4k avevi 1 sola scelta, Turing.
lato prezzi lungi da me difenderli visto che ho ancora le emorroidi scoppiate nell`ano (si ho una 2080ti), ma neanche sappiamo che costi han avuto in r&d per poter progettare e sviluppare, ora con Ampere siamo ormai in "economia di scala", la traccia era stata tirata insomma
è una delle tante condizioni che hanno portato a considerare turing un mezzo fail.
vero che se volevi il 4K a 60fps c'era solo la 2080 Ti, ma il FHD con i 60fps lo facevano con una 1650 che era un totale scempio per quel prezzo, mentre l'RTX partiva con una 2060 su cui non si poteva nemmeno usare...
insomma, un colpaccio per il marketing a vendere un modesto prodotto come una meraviglia, ma non è che fa bene all'immagine dell'azienda.
meno di 2 anni fa hai speso 1300 euro per una 2080 Ti e oggi ti ritrovi quelle prestazioni un una 3070 da 499$ (forse, ma comunque è possibile).
ti sei ritrovato a sfruttare l'RTX su poco e nulla e oggi, anche con la 2080 TI, soffriresti comunque in RTX perchè il gradino d'ingresso è comunque la 3070 che va uguale in rasterizzazione, ma in RTX la doppia per tutte le ottimizzazioni che ha avuto.
di sicuro per il classico acquirente che prende il top e poi se lo tiene 4 o 5 anni non è una bella carta da giocare per nvidia per convincerlo a ridargli fiducia, perchè l'hanno giocata proprio sporca per superare l'empasse di quel periodo.
terranux
05-09-2020, 23:07
è una delle tante condizioni che hanno portato a considerare turing un mezzo fail.
vero che se volevi il 4K a 60fps c'era solo la 2080 Ti, ma il FHD con i 60fps lo facevano con una 1650 che era un totale scempio per quel prezzo, mentre l'RTX partiva con una 2060 su cui non si poteva nemmeno usare...
insomma, un colpaccio per il marketing a vendere un modesto prodotto come una meraviglia, ma non è che fa bene all'immagine dell'azienda.
meno di 2 anni fa hai speso 1300 euro per una 2080 Ti e oggi ti ritrovi quelle prestazioni un una 3070 da 499$ (forse, ma comunque è possibile).
ti sei ritrovato a sfruttare l'RTX su poco e nulla e oggi, anche con la 2080 TI, soffriresti comunque in RTX perchè il gradino d'ingresso è comunque la 3070 che va uguale in rasterizzazione, ma in RTX la doppia per tutte le ottimizzazioni che ha avuto.
di sicuro per il classico acquirente che prende il top e poi se lo tiene 4 o 5 anni non è una bella carta da giocare per nvidia per convincerlo a ridargli fiducia, perchè l'hanno giocata proprio sporca per superare l'empasse di quel periodo.
ma te pensi che i bench mostrati fino ad ora siano pompati oppure no.
Parto sempre dal +50% perf/watt che amd dichiara per rdna2, dato che la 3070 è paragonabile alla 2080ti di conseguenza una vga amd da 220 watt dovrebbe eguagliarla
anche qui ci si deve andare con "grano salis".
il 50% pref/watt, ma non ti dicono riferito a che.
sai meglio di me che se spremi un'architettura, o meglio se lo fai con la scheda in rapporto al suo processo produttivo, i consumi si alzano all'inverosimile.
falo con una 5700 XT magari ci riescono pure, ma farlo con una 5600 XT, che è il medesimo chip, ma usato in condizioni migliori per quel processo (visto che gira massimo a 1750 e non a 2050), è un'altro...
alla peggio, con la 5700 XT si otterrebbe il doppio della prestazione per lo stesso consumo, ma è tutto da vedere.
e poi rimane la questione prezzo....
se prendo la mia 570 e la metto alle condizioni di una 1030, consuma come una candela accesa...
significa che se faccio un chip da 1000mm^2 magari ci riesco anche con navi 10 sullo stesso PP a darti lo stesso risultato, solo che ti costa 8 volte di più, in quanto usa 4 volte più del silicio, ma più della metà dei chip li devo lo stesso buttare...
spendere circa 3000 euro per una ipotetica 6700 XT che va come una 3070 e consuma 110W non è che m'interessi tanto.
la lascio a scaffale e cerco una 5600 xt...
Gyammy85
05-09-2020, 23:10
anche qui ci si deve andare con "grano salis".
il 50% pref/watt, ma non ti dicono riferito a che.
sai meglio di me che se spremi un'architettura, o meglio se lo fai con la scheda in rapporto al suo processo produttivo, i consumi si alzano all'inverosimile.
falo con una 5700 XT magari ci riescono pure, ma farlo con una 5600 XT, che è il medesimo chip, ma usato in condizioni migliori per quel processo (visto che gira massimo a 1750 e non a 2050), è un'altro...
alla peggio, con la 5700 XT si otterrebbe il doppio della prestazione per lo stesso consumo, ma è tutto da vedere.
e poi rimane la questione prezzo....
se prendo la mia 570 e la metto alle condizioni di una 1030, consuma come una candela accesa...
significa che se faccio un chip da 1000mm^2 magari ci riesco anche con navi 10 a darti lo stesso risultato, solo che ti costa 8 volte di più, in quanto usa 4 volte più del silicio, ma più della metà dei chip li devo lo stesso buttare...
pra, spendere circa 3000 euro per una ipotetica 6700 XT che va come una 3070 e consuma 110W non è che m'interessi tanto.
la lascio a scaffale e cerco una 5600 xt...
Mah, loro misurano il rendimento sempre con lo stesso gioco
https://i.postimg.cc/Pxd9Ydkp/Annotazione-2020-06-10-161808.jpg (https://postimg.cc/rdYfLXsM)
dico solo che mi aspetto un salto come da gcn a rdna dato che sempre il +50% perf/watt c'è stato
ma te pensi che i bench mostrati fino ad ora siano pompati oppure no.
credo che siano verosimili, ma credo che abbiano scelto giochi in cui le migliorie apportate si esprimono al meglio...
è marketing... non ti preoccupare, la zappa sui piedi non se la danno mai (... da soli, perchè spesso succede visto che non pensano al futuro).
Mah, loro misurano il rendimento sempre con lo stesso gioco
https://i.postimg.cc/Pxd9Ydkp/Annotazione-2020-06-10-161808.jpg (https://postimg.cc/rdYfLXsM)
dico solo che mi aspetto un salto come da gcn a rdna dato che sempre il +50% perf/watt c'è stato
le premesse ci sono, ma che diventino possibilità e non solo promesse.
tu, io, ma anche nvidia pensano che ci potrebbe essere la seria possibilitàò che sia così, sennò non ti piazzavano una 3080 e soprattutto una 3070 a quel prezzo così allettante.
Gyammy85
05-09-2020, 23:16
le premesse ci sono, ma che diventino possibilità e non solo promesse.
tu, io, ma anche nvidia pensano che ci potrebbe essere la seria possibilitàò che sia così, sennò non ti piazzavano una 3080 e soprattutto una 3070 a quel prezzo così allettante.
I rumors affermavano che nvidia si aspetta un +40/50% su 2080ti per navi 21 full, difatti hanno piazzato in via precauzionale la 3090 da 24 giga riservandosi il diritto di fare una 3080ti da 12 a prezzo minore
terranux
05-09-2020, 23:26
credo che siano verosimili, ma credo che abbiano scelto giochi in cui le migliorie apportate si esprimono al meglio...
è marketing... non ti preoccupare, la zappa sui piedi non se la danno mai (... da soli, perchè spesso succede visto che non pensano al futuro).
per me vanno fortissimo. hanno trovato una genialata non dà poco secondo me.e non è finita quì appena amd tirerà fuori le sue(e non saranno male secondo me) arriveranno le ti . spero nei prezzi perchè già sono arrivate segnalazioni forti dai rivenditori dicendo che assolutamente non saranno quelli esposti. ma non parlano di 50€ parlano in media di 200 di aumento. io non ci credo.
Marckus87
06-09-2020, 00:10
i prezzi adesso sono quasi giusti, quelli delle 2XXX erano l'equivalente di un inc***ta di un pornoattore.
l'avevo premesso:"in effetti hanno migliorato enormemente il rendimento reale dell'architettura, ma i TF teorici sono diminuiti,ma, d'altra parte, a noi consumatori basta che quelli che riusciamo a sfruttare siano di più."
ora però ci piacerebbe parlare di come hanno fatto... senza che nessuno ci dica che ci stiamo facendo seghe mentali, perchè in un sito di tecnologia uno ci va a scrivere proprio per farsele, non credi?
Le ho definite seghe mentali solo perché per ora è parlare sul nulla. 4 slide, una GPU uscita da un forno, e indiscrezioni senza fondamento (sia per quanto riguarda Nvidia che ancora di più per quanto riguarda AMD). Tutto qui
non ti preoccupare; si soppesano solo le dichiarazioni.
cdimauro
06-09-2020, 08:01
Il dato sui TFLOPS riportato da nVidia è ovviamente corretto. Purtroppo è l'articolo a essere sbagliato, riportando "128 operazioni FP32 per clock" quando tali operazioni non sono singole operazioni in FP come moltiplicazioni, somme, ecc., ma FMA per l'appunto, come chiaramente visibile già nella prima slide:
https://www.hwupgrade.it/articoli/5822/nvidia-ampere-architettura-01.JPG
Fermi non c'entra nulla perché implementava le istruzioni FMAC. FMAC e FMA NON sono assolutamente la stessa cosa, visto che le prime hanno una perdita di precisione (i risultato della moltiplicazione viene arrotondato prima di essere sommato).
Le istruzioni FMA possono essere emulate da backend che non hanno un'ALU che le supporti nativamente, spezzandole in una moltiplicazione e poi una somma, ma dovendosi portare dietro negli stadi della pipeline un maggior numero di bit per poter preservare la precisione del risultato. Ma meglio implementare un'unità FMA a questo punto.
Un paragone simile è fra le CPU Intel e quelle AMD: le prime hanno unità FMA, mentre le seconde no ed emulano quelle operazioni generando due micro-op per eseguire sequenzialmente prima la moltiplicazione e poi la somma.
Fermi non c'entra nulla perché implementava le istruzioni FMAC. FMAC e FMA NON sono assolutamente la stessa cosa, visto che le prime hanno una perdita di precisione (i risultato della moltiplicazione viene arrotondato prima di essere sommato).
Dal punto di vista del numero di FLOPs, operazioni in virgola mobile al secondo, che è il terzo fattore da prendere in considerazione per il calcolo dei FLOPS non cambia una mazza, e comunque Fermi, tra le novità descritte nel whitepaper https://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIA_Fermi_Compute_Architecture_Whitepaper.pdf annoverava appunto la possibilità di eseguire FMA in FP32
The Fermi architecture implements the new IEEE 754-2008 floating-point standard, providing the fused multiply-add (FMA) instruction for both single and double precision arithmetic. FMA improves over a multiply-add (MAD) instruction by doing the multiplication and addition with a single final ounding step, with no loss of precision in the addition. FMA is more accurate than performing the operations separately. GT200 implemented double precision FMA.
cdimauro
06-09-2020, 12:07
Quindi il confronto con Fermi non si pone nemmeno.
Grazie per la precisazione.
è da bulldozer che AMD esegue FMA4 in unico clock (tra l'altro lo fa solo AMD; Intel si ferma a FAM3).
il probema che mi sono posto è che c'è una netta disparità tra prestazioni dichiarate e prestazioni mostrate (anche se queste sono relativamente poche e soprattutto guidate).
il problema è anche sulla dichiarazione di aver raddoppiato le unità ma con un conteggio di transistors troppo esiguo.
non sto facendo i conti in tasca ad Nvidia, ma Ampere migliora quello che ha già Turing, non introduce nulla fatto diversamente; con quel conteggio di transistors o qui non stanno dicendo tutta la verità, o su Turing hanno fatto realmente un ben casotto ed essendo un'architettura che è stata pure ritardata di un anno per via del mining, non essersi resi conto dei colli di bottiglia e non averli eliminati come hanno fatto su questa architettura è un controsenso (o è stata solo una mungitura per i clienti, visto quanto è durato effettivamente sul mercato).
si stanno facendo i conti in tasca ad un marketing che troppo spesso dice e non dice e solo dopo una generazione si capisce quello che non aveva detto prima.
credo che la gente sia un po' stufa di tale modo di agire.
(e ci fermiamo lì, senza alludere al comportamento per promuovere i prodotti che fanno in giro sfruttando la credulità e l'ignoranza del pubblico).
le incongruenze ci sono e sono evidenti a tutti... dovremmo aspettare la prossima generazione per capirle?
Personaggio
06-09-2020, 13:35
Non c'entrano i costi di mantenimento.
La performance dei processori, sia GPU che CPU, si basa sull'efficienza, non sulla scalabilità, dato che esistono limiti termici.
Dato che la performance di GPU e CPU è proporzionale al numero di unità computazionali (anche se con proporzioni differenti), avere efficienze maggiori significa mettere più core, e quindi avere prestazioni superiori.
Sia in termini di CPU che GPU quindi, storicamente, si è sempre preso uno spettro di consumi, e si sono ripartiti i modelli. Le GPU nVidia xx60, ad esempio, erano quelle che non avevano bisogno di alimentazione aggiuntiva.
Se una 3070 consuma quanto una 2080, ma è performante, per dire, il 15% in più, ben venga, ma non è una 3070 in senso proprio, è una 3080. Hanno praticamente fatto un rebranding per fare credere ai polli che l'architettura sia molto più efficiente di quel che sia realmente.
Hanno sicuramente aumentato la scalabilità orizzontale, ma non considero questo aspetto particolarmente esaltante.
Se vogliamo considerare il lato pratico, 110W sono una quantità sigificativa di calore e rumore nel computer, e di conseguenza nella stanza, ma presentano anche problemi ingegneristici (componenti, durata etc.).
io non sono d'accordo. Ho sempre spremuto i K intel e le GPU nvidia al massimo possibile. A me, come penso alla maggior parte di noi videogiocatori del PC, non importa quanto consuma una CPU o una GPU su desktop,e non se ne mai bruciata una. L'importante è avere più potenza possibile con il nostro budget. Anche fossero stati 500W di scheda, ma con mezzo Ghz di più, ancora meglio, tra l'altro hanno anche detto che la 3080 è più silenziosa della 2080ti, quindi i problemi di rumore non esistono, ma se proprio non ci piacciono, esistono versioni con il raffreddamento a liquido e radiatore da mettere davanti al case da 360mm con doppia ventola da 12", che essendo più grandi girano molto più lentamente facendo un rumore praticamente inesistente.
L'efficienza energetica in un PC ha senso solo nei portatili. Io infatti ho una PSU da 1000W, così vado sul sicuro.
è da bulldozer che AMD esegue FMA4 in unico clock (tra l'altro lo fa solo AMD; Intel si ferma a FAM3).
il probema che mi sono posto è che c'è una netta disparità tra prestazioni dichiarate e prestazioni mostrate (anche se queste sono relativamente poche e soprattutto guidate).
il problema è anche sulla dichiarazione di aver raddoppiato le unità ma con un conteggio di transistors troppo esiguo.
Il conteggio dei transistors potrebbe non essere doppio per tanti motivi tra i quali, riduzione del numero di tensor core, e riprogettazione degli RT core.
non sto facendo i conti in tasca ad Nvidia, ma Ampere migliora quello che ha già Turing, non introduce nulla fatto diversamente; con quel conteggio di transistors o qui non stanno dicendo tutta la verità, o su Turing hanno fatto realmente un ben casotto ed essendo un'architettura che è stata pure ritardata di un anno per via del mining, non essersi resi conto dei colli di bottiglia e non averli eliminati come hanno fatto su questa architettura è un controsenso (o è stata solo una mungitura per i clienti, visto quanto è durato effettivamente sul mercato).
Che turing sia stata una mungitura sono d'accordo, ma è comunque durata 2 anni, quindi ampiamente nella media.
si stanno facendo i conti in tasca ad un marketing che troppo spesso dice e non dice e solo dopo una generazione si capisce quello che non aveva detto prima.
credo che la gente sia un po' stufa di tale modo di agire.
(e ci fermiamo lì, senza alludere al comportamento per promuovere i prodotti che fanno in giro sfruttando la credulità e l'ignoranza del pubblico).
le incongruenze ci sono e sono evidenti a tutti... dovremmo aspettare la prossima generazione per capirle?
Io ti capisco, e sono anche d'accordo, ma mi piacerebbe non andare OT, l'argomento è l'architettura di Ampere, e non quanto brava sia nVidia a vendere i suoi prodotti ;)
Comunque, mi riallaccio a questa tua affermazione
secondo quanto dichiarato un SM Turing riesce a produrre anche lui, teoricamente, 128 operazioni in virgola mobile a ciclo.
qui dicono che ne fa 64, ma facendo i conti una 2080 TI avrebbe 6.7TF di potenza in virgola mobile; la metà di quanto dichiara nvidia.
non la trovi una incongruenza valevole di una maggiore attenzione da parte dei lettori appassionati?
Sia Aida https://forums.aida64.com/topic/4666-gpgpu-rtx2080-ti-fe-result/ che The SHOC OpenCL benchmark https://www.phoronix.com/scan.php?page=article&item=nvidia-rtx2080ti-compute&num=2 rilevano un numero di TF allineato con quello dichiarato da nVidia, addirittura superiore, visto che le 2080 ti operano a frequenze superiori rispetto a quelle minime, sono test sintetici naturalmente, ma significa che i numeri dichiarati non sono solo teorici, ma anche misurabili in modo sperimentale.
cdimauro
06-09-2020, 15:32
è da bulldozer che AMD esegue FMA4 in unico clock (tra l'altro lo fa solo AMD; Intel si ferma a FAM3).
Difficilmente un'istruzione FP è eseguibile in un ciclo di clock (a parte roba come le move).
Comunque per Ryzen le informazioni che circolano da tempo sono che le FMA vengano spezzate in due uop.
Infine, AMD s'è adeguata a Intel: soltanto le FMA3 sono supportare con Ryzen.
il probema che mi sono posto è che c'è una netta disparità tra prestazioni dichiarate e prestazioni mostrate (anche se queste sono relativamente poche e soprattutto guidate).
il problema è anche sulla dichiarazione di aver raddoppiato le unità ma con un conteggio di transistors troppo esiguo.
non sto facendo i conti in tasca ad Nvidia, ma Ampere migliora quello che ha già Turing, non introduce nulla fatto diversamente; con quel conteggio di transistors o qui non stanno dicendo tutta la verità, o su Turing hanno fatto realmente un ben casotto ed essendo un'architettura che è stata pure ritardata di un anno per via del mining, non essersi resi conto dei colli di bottiglia e non averli eliminati come hanno fatto su questa architettura è un controsenso (o è stata solo una mungitura per i clienti, visto quanto è durato effettivamente sul mercato).
si stanno facendo i conti in tasca ad un marketing che troppo spesso dice e non dice e solo dopo una generazione si capisce quello che non aveva detto prima.
credo che la gente sia un po' stufa di tale modo di agire.
(e ci fermiamo lì, senza alludere al comportamento per promuovere i prodotti che fanno in giro sfruttando la credulità e l'ignoranza del pubblico).
le incongruenze ci sono e sono evidenti a tutti... dovremmo aspettare la prossima generazione per capirle?
Sono riflessioni che lasciano il tempo che trovano (e per i TFLOPS rimane ciò che avevo già scritto).
Sia Turing sia Ampere hanno portato prestazioni superiori alle GPU che hanno preceduto, che poi è proprio quel che conta per gli utenti, ed è per quello che hanno pagato.
Poi che Ampere sia un'ottimizzazione di Turing ci può certamente stare, e non per questo Turing sia da mettere alla berlina (perché, come già detto, contano le prestazioni superiori alla precedente generazione). Si vede che sono riusciti a trovare il modo di sfruttare meglio i transistor, non facendo esploderne l'utilizzo.
D'altra parte AMD non è certo diversa da nVidia, visto che RDNA è un'ottimizzazione di GCN (che, a sua volta, ha subito diverse ottimizzazioni), e come lo saranno le successive versioni che arriveranno.
Direi che per discutere con maggiore cognizione di causa si dovrà attendere qualche settimana ancora.
Fino ad ora si è ragionato di fatto solo sulle caratteristiche delle nuove schede ma un quadro davvero chiaro si avrà in primis con gli street price effettivi e soprattutto con i test reali.
Le premesse sono sicuramente incoraggianti.
darios81
06-09-2020, 21:39
Ampere sarà un ottimizzazione di Turing ma rispetto a Turing che è stata la serie col minor benificio gap/prezzo (gap rispetto alla precedente gen.) Risulta oggi essere un ritorno al passato per nvidia nel dare schede che effettivamente sono un salto generazione notevole.
Ok che vedendo l informativa nvidia se l e sistemata bene ma da specs sicuramenre la 3070 sarà almeno al pari di una 2080ti.
Per i prezzi non ho capito bene dove stia il problema.
Inviato dal mio SM-G970F utilizzando Tapatalk
Sia Aida https://forums.aida64.com/topic/4666-gpgpu-rtx2080-ti-fe-result/ che The SHOC OpenCL benchmark https://www.phoronix.com/scan.php?page=article&item=nvidia-rtx2080ti-compute&num=2 rilevano un numero di TF allineato con quello dichiarato da nVidia, addirittura superiore, visto che le 2080 ti operano a frequenze superiori rispetto a quelle minime, sono test sintetici naturalmente, ma significa che i numeri dichiarati non sono solo teorici, ma anche misurabili in modo sperimentale.
dovremmo allora aspettare i test sintetici sulel Ampere.
comunque queste sono solo cose di contorno... cose buone solo per i troll da forum.
l'importante, per il pubblico, è come si esprime quella potenza su quello che viene usato e sembra che, al di là delle chiacchere del marketing, gli ingegneri siano riusciti a migliorare e ottimizzare l'uso di questo tipo di organizzazione.
dispiace solo che per queste chiacchere la gente ha dato credito al marketing sulla passata generazione (che è arrivata a fare campagne denigratorie anche sui driver della concorrenza... pensa tu a cosa si sono attaccati per vendere), perchè oggi si ritrovano HW che possono solo continuare a tenersi, in quanto non conviene nemmeno svendere.
che sia da lezione per il futuro...
Ampere sarà un ottimizzazione di Turing ma rispetto a Turing che è stata la serie col minor benificio gap/prezzo (gap rispetto alla precedente gen.) Risulta oggi essere un ritorno al passato per nvidia nel dare schede che effettivamente sono un salto generazione notevole.
Ok che vedendo l informativa nvidia se l e sistemata bene ma da specs sicuramenre la 3070 sarà almeno al pari di una 2080ti.
Per i prezzi non ho capito bene dove stia il problema.
Inviato dal mio SM-G970F utilizzando Tapatalk
la 3070 sembra che avrà RAM a 14Gbps, quindi una banda totale di 448GB/s.
probabile che nvidia voglia proporre una 3070 Ti con ram a 19Gbps (e una 3080 TI che rispecchia le caratteristiche dalla 3090, ma con 12GB di RAM)?
dovremo vedere fino a dicembre, perchè credo che questa volta gli appassionati, almeno quelli più attenti, aspetteranno che ci siano tutte le "carte" in tavola per spendere con raziocigno...
d'altra parte 520 euro son sempre 520 euro..
sembrerà un'oscenità, ma molti aspetteranon anche le console.
Personaggio
07-09-2020, 00:43
la 3070 sembra che avrà RAM a 14Gbps, quindi una banda totale di 448GB/s.
probabile che nvidia voglia proporre una 3070 Ti con ram a 19Gbps (e una 3080 TI che rispecchia le caratteristiche dalla 3090, ma con 12GB di RAM)?
dovremo vedere fino a dicembre, perchè credo che questa volta gli appassionati, almeno quelli più attenti, aspetteranno che ci siano tutte le "carte" in tavola per spendere con raziocigno...
d'altra parte 520 euro son sempre 520 euro..
sembrerà un'oscenità, ma molti aspetteranon anche le console.
si probabile, ma la 3070Ti andrà a costare massimo 600€, la 3080Ti costerà cmq sui 1000, perché la GPU sarà quella della 3090.
Interessanti,invece, saranno le 3060 a 3050 immagino a 350 e 200€ Sicuramente usciranno dopo le AMD
Scrivere 10 pagine di congetture per poi...dovremmo allora aspettare i test sintetici sulel Ampere.
Dopo che sia eXeS che cdimauro hanno risposto ad alcuni quesiti che, giustamente, potevi avere. Continuando a difendere il tuo punto di vista. Avendo comunque lasciato una exit-strategy dicendo più volte...
comunque queste sono solo cose di contorno... cose buone solo per i troll da forum.
Alfine, come hai detto anche tu , bisogna aspettare i test sintetici.
Che sia una gargantuesca trollata?
Tutto il mondo IT è stregato o colluso con il marketing nVidia? Riuscirà il nostro eroe a salvare la situazione?
cdimauro
07-09-2020, 07:01
Scrivere 10 pagine di congetture per poi...
Dopo che sia eXeS che cdimauro hanno risposto ad alcuni quesiti che, giustamente, potevi avere. Continuando a difendere il tuo punto di vista. Avendo comunque lasciato una exit-strategy dicendo più volte...
Alfine, come hai detto anche tu , bisogna aspettare i test sintetici.
Che sia una gargantuesca trollata?
Tutto il mondo IT è stregato o colluso con il marketing nVidia? Riuscirà il nostro eroe a salvare la situazione?
Ma infatti sono discorsi da fanboy che cercano malamente di arginare la scoppola che nVidia sta per mollare alla loro amata AMD. Cosa che, peraltro, era ampiamente prevista (e l'aveva riportata più volte), visto che nVidia stava passando al vecchio processo produttivo al nuovo, con enormi benefici in termini di transistor integrati.
Ed è penoso anche il tentativo di gettare fango su Turing, che ha portato diverse innovazioni che AMD e i suoi fanboy continuano a guardare col binocolo. Ovviamente è tutta roba che si doveva pagare, ma gli utenti che l'hanno usata si sono goduti un'anteprima di tecnologie che saranno il futuro del gaming.
Ciò che conta erano e rimangono le prestazioni e le innovazioni: c'erano con Turing e ce ne sono con Ampere. E la concorrenza (Intel inclusa, che entrerà nel mercato) dovranno ancora una volta ricorrere...
Impressionante, la sola 3070 raddoppia, in termini di TFLOPS, la PS5 e quasi la XBOX, davvero impressionante*
*(non voglio scatenare assolutamente console vs pc war, è una mera considerazione numerica).
La sola 3070 raddoppia anche il prezzo, dopo mettiamoci tutto il resto intorno... un' esagerazione per videogiocare... ma è bello far girare anche l' economia.
darios81
07-09-2020, 08:21
La sola 3070 raddoppia anche il prezzo, dopo mettiamoci tutto il resto intorno... un' esagerazione per videogiocare... ma è bello far girare anche l' economia.La 3070 come e forse anche meno di ps5 e xsx.
Francamente ho avuto sempre console e PC, e anche in questa nuova gen. Le console nascono vecchie. Non appena HW e il SW sarà maturo (cosa che vale anche per le console) non ci sarà di nuovo storia.
Ho già preordinato la ps5 comunque la mossa di Nvidia mi ha spiazzato
Inviato dal mio SM-G970F utilizzando Tapatalk
AceGranger
07-09-2020, 10:37
Quindi il confronto con Fermi non si pone nemmeno.
Grazie per la precisazione.
non ne avevamo dubbi, come giustamente avviene ogni volta che uno veramente del mestiere scrive esattamente come sono le cose.
Bench Compute OpenCL e CUDA
https://videocardz.com/newz/nvidia-geforce-rtx-3080-168-of-rtx-2080-performance-in-cuda-and-opencl-benchmarks
168%, in linea con quello visto nei giochi.
e manco si tratta di software CUDA che usano i core RT; per ora si stanno bene o male trovando conferme delle slide ufficiali, il che vuol dire che in software computing come i render engine che sfruttano gli RT core si avra un boost che potrebbe veramente arrivare al 200%.
se continua cosi, in questi campi a breve saluteremo le CPU in favore delle GPU ( cosa gia avvenuta in diversi ambienti )
bonzoxxx
07-09-2020, 11:09
La sola 3070 raddoppia anche il prezzo, dopo mettiamoci tutto il resto intorno... un' esagerazione per videogiocare... ma è bello far girare anche l' economia.
Al netto delle personali esigenze, la 3070 dovrebbe costare indicativamente il 20-25% di una ps5 o xbox e non il doppio ribadendo il fatto che le esigenze di ognuno sono diverse e col PC non ci si gioca solo quindi chi, eventualmente, vuole farsi un pc per lavorare + giocare e stare in budget potrebbe seriamente considerare una 3070 o anche una 3060 in base al prezzo che avrà.
Dipende tutto da cosa si ha bisogno, io ad esempio gioco poco e sempre con gli stessi giochi quindi di una ps5/xbox non me ne farei nulla :D
La maggior parte dei giocatori, trovando nelle console un sistema già pronto, molto probabilmente si orienteranno su quelle, ma questo è un discorso vecchio come il cucco.
Più che altro ho paura per il mining, le nuove schede vanno parecchio bene...
darios81
07-09-2020, 11:48
Al netto delle personali esigenze, la 3070 dovrebbe costare indicativamente il 20-25% di una ps5 o xbox e non il doppio ribadendo il fatto che le esigenze di ognuno sono diverse e col PC non ci si gioca solo quindi chi, eventualmente, vuole farsi un pc per lavorare + giocare e stare in budget potrebbe seriamente considerare una 3070 o anche una 3060 in base al prezzo che avrà.
Dipende tutto da cosa si ha bisogno, io ad esempio gioco poco e sempre con gli stessi giochi quindi di una ps5/xbox non me ne farei nulla :D
La maggior parte dei giocatori, trovando nelle console un sistema già pronto, molto probabilmente si orienteranno su quelle, ma questo è un discorso vecchio come il cucco.
Più che altro ho paura per il mining, le nuove schede vanno parecchio bene...
perche il 20% in piu
La ps5 dovrebbe stare sui 399 / 499 (399 la only digital)
La 3070 519 e la soluzione FE e cmq valida anche come sistema di raffreddamento come letto dap iu parti.
bonzoxxx
07-09-2020, 13:24
perche il 20% in piu
La ps5 dovrebbe stare sui 399 / 499 (399 la only digital)
La 3070 519 e la soluzione FE e cmq valida anche come sistema di raffreddamento come letto dap iu parti.
Hai ragione il 30% in più, ho fatto male i conti:)
Il prezzo delle console è molto aggressivo, non mi stupirei se molti giocatori pc compreranno anche una console nuova o addirittura solo quella senza aggiornare il pc.
Per una volta mi sento di dire che noi acquirenti c'abbiamo guadagnato, poi magari mi sbaglio :D
darios81
07-09-2020, 14:20
Si va da un 30% ad un prezzo simile tra i due prodotti anche se la console e pronta e finita
bonzoxxx
07-09-2020, 14:32
Si va da un 30% ad un prezzo simile tra i due prodotti anche se la console e pronta e finita
Indubbiamente, ne venderanno un vagone di console, imho il prezzo di attacco è buono.
Possibile che in 5 pagine di thread nessuno abbia accennato al video di Digital Foundry?
Dal minuto 5 in poi:
https://www.youtube.com/watch?v=cWD01yUQdVA&ab_channel=DigitalFoundry
Sunto: 3080 vs 2080 siamo su un valore che oscilla tra +60% e +100%, nonostante driver non ancora aggiornati :D
bonzoxxx
07-09-2020, 15:14
Possibile che in 5 pagine di thread nessuno abbia accennato al video di Digital Foundry?
Dal minuto 5 in poi:
https://www.youtube.com/watch?v=cWD01yUQdVA&ab_channel=DigitalFoundry
Sunto: 3080 vs 2080 siamo su un valore che oscilla tra +60% e +100%, nonostante driver non ancora aggiornati :D
Visto qualche giorno fa, interessante.
darios81
07-09-2020, 15:16
Possibile che in 5 pagine di thread nessuno abbia accennato al video di Digital Foundry?
Dal minuto 5 in poi:
https://www.youtube.com/watch?v=cWD01yUQdVA&ab_channel=DigitalFoundry
Sunto: 3080 vs 2080 siamo su un valore che oscilla tra +60% e +100%, nonostante driver non ancora aggiornati :D
spiegaglielo a chi crede che la 3070 sia fuffa e vada peggio si una 2080ti
TheDarkAngel
07-09-2020, 15:43
spiegaglielo a chi crede che la 3070 sia fuffa e vada peggio si una 2080ti
perchè brucia il prezzo a cui venderla realmente :D
Snorri_Sturluson
07-09-2020, 16:08
spiegaglielo a chi crede che la 3070 sia fuffa e vada peggio si una 2080ti
A me dispiace solo per chi sta comprando le rtx 2080ti a 500-600 euro, appena usciranno tutti i bench non le piazzeranno neanche a 400 quelle schede
A me dispiace solo per chi sta comprando le rtx 2080ti a 500-600 euro, appena usciranno tutti i bench non le piazzeranno neanche a 400 quelle schede
Qualora riuscissi a comprare una 2080 ti a 500 euro, ti andrebbe ancora molto bene. Considera che quella è la fascia di prezzo a cui verrà venduta a listino la 3070 (519 euro forse), ma poi lo street price sarà tutto da vedere!
CrapaDiLegno
07-09-2020, 17:17
hanno lavorato bene per ottimizzare bene la logica d'uso delle varie parti del GPC, ma il problema è che con turing ne hanno sparate talmente grosse che sono stati costretti a spararne ancora più grosse con Ampere, anche se hanno ottenuto notevoli miglioramenti.
se un SM offre 128 operazioni in virgola mobile a clock, i 68 SM di una 3080 ne offrono 8704;
se il clock è a 1710mhz, offre, in totale 14883840 milioni di operazioni al secondo, pari a 14.9TF, non 20, come dichiarato.
il marketing sta solo cercando di confondere rispetto a quanto detto precedentemente sulle altre generazioni, con una 2080 TI, da 68SM, che dichirava 16TF di computazione in operazioni in virgola mobile.
in effetti hanno migliorato enormemente il rendimento reale dell'architettura, ma i TF teorici sono diminuiti,ma, d'altra parte, a noi consumatori basta che quelli che riusciamo a sfruttare siano di più.
la questione è che oggi i cudacore di Ampere (gaming) non producono più 2 operazioni a virgola mobile a clock, come nelle passate generazioni, ma una sola.
Quante sciocchezze hai scritto in queste 3 righe?
Quello che le spara grosse sei tu, non il marketing di Nvidia.
A me risulta che tutte le unità FP32 da Fermi in poi possano eseguire le istruzioni FFMA e quindi 2 operazioni a clock.
Ampere fa il doppio delle operazioni per ciclo di clock di Turing.
Le tue congetture sono aria fritta.
stessa cosa quando si usava codice INT.
[...cut per rispetto all'intelligenza umana...]
Credo che tu non abbia ben chiaro come era organizzato un SM di Turing per scrivere queste altre sciocchezze.
ecco quindi che quando Turing incontrava giochi che richiedevano l'uso degli INT per il 30% del codice è vero che poteva eseguirli direttamente la GPU, ma è anche vero che la sua potenza grafica in FP scendeva da dai 16TF a 11TF, come una 1080 Ti che invece scaricava tale computo solo sulla CPU (mandandola però in bottleneck se non usava core aggiuntivi per eseguire tali operazioni).
Ma davvero pensi che le istruzioni INT prima di Turing erano eseguite sulla CPU? Stai dicendo che parte del codice di uno shader è eseguito su GPU e una parte su CPU contemporaneamente?
Lo sai a che servono le istruzioni INT nel flusso di istruzioni di un codice shader?
Credo proprio di no, altrimenti non scriveresti queste stupidate.
Invero sembra che tu non sappia assolutamente come funziona un benché minimo core che esegue codice, altrimenti non scriveresti che una istruzione va ad un core e l'altra ad un altro, magari persino sulla CPU.
Anche le questione dei 2 warp che eseguono una FMA... mi spiace ma non hai capito una cippa di come viene eseguito il codice in una GPU.
Lo dimostri anche quando parli di "indirizzamento" per singola unità. Sono unità SIMD, non c'è nulla da indirizzare, un core non può eseguire codice diverso da quello che è eseguito dalle altre unità FP32/INT nello stesso SM.
io vorrei parlare di tecnologia e non di marketing.
Ecco, prima studia, poi vieni a parlare di tecnologia.
Qui hai fatto una lezione di non-tecnologia ma di scappellamenti come fossero Antani. Roba che non si può leggere in un forum tecnico.
Se non hai capito come funziona un GPU non permetterti una dissertazione su il perché i numeri che sono stati resi noti non coincidono con quelli che tu credi debbano essere. E dai dei bugiardi agli altri.
Sei tu quello che non ha capito. Il resto del mondo che sa come funziona una GPU ha capito perfettamente perché Ampere fa il doppio dei TFLOPS di Turing e che i 36TFLOPS dichiarati per la 3090 sono reali.
Se questo ti brucia perché credi che metterà in ginocchio le prossime architetture AMD che non saranno in grado di arrivare a tanto ma molto probabilmente solo a poco più della metà (con quali consumi e bottleneck sulla banda di memoria lo sapremo con i bench tra qualche settimana/mese)
non ti giustifica a venire qui a sparare stupidate come quelle che hai scritto.
Se non hai capito che una istruzione FMA è eseguita in un ciclo e fa 2 operazioni non puoi scrivere un papiro del genere. Se non sai fare 2+2 non scrivi un trattato di matematica.
Tu hai fatto così.
Capisciti un po' e vedi cosa può pensare chi conoscendo la materia legge questi post senza senso.
darios81
07-09-2020, 17:20
Qualora riuscissi a comprare una 2080 ti a 500 euro, ti andrebbe ancora molto bene. Considera che quella è la fascia di prezzo a cui verrà venduta a listino la 3070 (519 euro forse), ma poi lo street price sarà tutto da vedere!Ma che significa?
Se sullo store sono da 519?
La FE e anche ottima
Inviato dal mio SM-G970F utilizzando Tapatalk
darios81
07-09-2020, 17:20
A me dispiace solo per chi sta comprando le rtx 2080ti a 500-600 euro, appena usciranno tutti i bench non le piazzeranno neanche a 400 quelle schedeFagliele comprare sono contenti
Inviato dal mio SM-G970F utilizzando Tapatalk
Ma che significa?
Se sullo store sono da 519?
La FE e anche ottima
Inviato dal mio SM-G970F utilizzando Tapatalk
Lo store di nvidia? Quello dove se trovi una scheda hai vinto l'enalotto? Io parlo di quelle che riuscirò a trovare sui vari siti, negozi online o fisici. Le founders sono un discorso a se
darios81
07-09-2020, 18:05
Lo store di nvidia? Quello dove se trovi una scheda hai vinto l'enalotto? Io parlo di quelle che riuscirò a trovare sui vari siti, negozi online o fisici. Le founders sono un discorso a seSempre con i se e con i ma
Inviato dal mio SM-G970F utilizzando Tapatalk
una follia queste schede ma il bello è che le venderanno come il pane!!!
Quante sciocchezze hai scritto in queste 3 righe?
Quello che le spara grosse sei tu, non il marketing di Nvidia.
A me risulta che tutte le unità FP32 da Fermi in poi possano eseguire le istruzioni FFMA e quindi 2 operazioni a clock.
Ampere fa il doppio delle operazioni per ciclo di clock di Turing.
Le tue congetture sono aria fritta.
Credo che tu non abbia ben chiaro come era organizzato un SM di Turing per scrivere queste altre sciocchezze.
Ma davvero pensi che le istruzioni INT prima di Turing erano eseguite sulla CPU? Stai dicendo che parte del codice di uno shader è eseguito su GPU e una parte su CPU contemporaneamente?
Lo sai a che servono le istruzioni INT nel flusso di istruzioni di un codice shader?
Credo proprio di no, altrimenti non scriveresti queste stupidate.
Invero sembra che tu non sappia assolutamente come funziona un benché minimo core che esegue codice, altrimenti non scriveresti che una istruzione va ad un core e l'altra ad un altro, magari persino sulla CPU.
Anche le questione dei 2 warp che eseguono una FMA... mi spiace ma non hai capito una cippa di come viene eseguito il codice in una GPU.
Lo dimostri anche quando parli di "indirizzamento" per singola unità. Sono unità SIMD, non c'è nulla da indirizzare, un core non può eseguire codice diverso da quello che è eseguito dalle altre unità FP32/INT nello stesso SM.
Ecco, prima studia, poi vieni a parlare di tecnologia.
Qui hai fatto una lezione di non-tecnologia ma di scappellamenti come fossero Antani. Roba che non si può leggere in un forum tecnico.
Se non hai capito come funziona un GPU non permetterti una dissertazione su il perché i numeri che sono stati resi noti non coincidono con quelli che tu credi debbano essere. E dai dei bugiardi agli altri.
Sei tu quello che non ha capito. Il resto del mondo che sa come funziona una GPU ha capito perfettamente perché Ampere fa il doppio dei TFLOPS di Turing e che i 36TFLOPS dichiarati per la 3090 sono reali.
Se questo ti brucia perché credi che metterà in ginocchio le prossime architetture AMD che non saranno in grado di arrivare a tanto ma molto probabilmente solo a poco più della metà (con quali consumi e bottleneck sulla banda di memoria lo sapremo con i bench tra qualche settimana/mese)
non ti giustifica a venire qui a sparare stupidate come quelle che hai scritto.
Se non hai capito che una istruzione FMA è eseguita in un ciclo e fa 2 operazioni non puoi scrivere un papiro del genere. Se non sai fare 2+2 non scrivi un trattato di matematica.
Tu hai fatto così.
Capisciti un po' e vedi cosa può pensare chi conoscendo la materia legge questi post senza senso.
Solo? XD
bonzoxxx
07-09-2020, 23:19
una follia queste schede ma il bello è che le venderanno come il pane!!!
Una follia erano la serie 2000 con le 2080, 2080S e soprattutto 2080ti, queste a confronto sono ottime imho.
CrapaDiLegno
07-09-2020, 23:45
Solo? XD
No, c'è anche la parte riguardante il fatto che raddoppiare le unità FP32 = raddoppiare il numero di transistor, ma quello lo lascio come compito a casa per chi ha capito cosa è un SM, cosa c'è dentro e quanta percentuale sono le unità FP32 rispetto a tutto il resto.
Senza contare la parte "fuori" dall'SM, tipo la cache L2, le ROPs, gli engine geometrici e i MC che non scalano assolutamente se si raddoppiano le unità FP32.
Il tizio sta solo delirando dopo avere visto i numeri di Ampere e aver preso la febbre.
La mia opinione su queste gpu.
PRO:
- la 3070 potrebbe offrire il 25/40% di prestazioni in piu` al 30% di prezzo in piu` della 5700xt che in quella fascia non e` affatto male come boost
- rtx potrebbe farsi valere molto questa gen, su turing era un po` limitato a livello prestazioni. In particolare l'aa via machine learning sembra aggiungere generalmente buona resa visiva ad un costo prestazionale molto inferiore al super sampling, a volte sembra anche migliore la resa
CONTRO:
- a livello di ram mi sembra siamo bassini, ci sono titoli che saturano 8gb di ram gia` a 1440p da anni...anche la 3080 sembra una gpu dalle braccia corte a livello di ram, non che questo pesera` troppo sugli fps medi (vedi le poche differenze fra polaris 4 e 8gb anche quando l'utilizzo era ben superiore ai 4), ma mi aspetto qualche stutter in caso di saturazione che e` un esperienza spiacevole
- i consumi sembrano decisamente troppo, troppo elevati. troppo calore e rumore verra` generato per giocare con queste gpu imho che alla fine della fiera e` piu` importante che non qualche fps in piu` o meno recuperabile togliendo filtri inutili
Insomma, complice lo scarso boost performance/prezzo di turing ampere sembra di tutt'altra pasta. AMD come al solito e` 12 mesi indietro almeno e probabilmente, nel migliore dei casi competera` solo con la 3080.
Questa gen sembra promettente, ma forse abituati a prezzi esorbitanti e scarsi boost prestazionali per fascia prezzo dell'ultima decade (escludendo maxwell, pascal, hawaii) secondo me sta ricevendo piu` lodi di quante ne meriti, soprattutto alla luce che non abbiamo visto benchmarks e potremmo ritrovarci con un fermi 2 da 600/1500 euro.
Questa gen sembra promettente, ma forse abituati a prezzi esorbitanti e scarsi boost prestazionali per fascia prezzo dell'ultima decade (escludendo maxwell, pascal, hawaii) secondo me sta ricevendo piu` lodi di quante ne meriti, soprattutto alla luce che non abbiamo visto benchmarks e potremmo ritrovarci con un fermi 2 da 600/1500 euro.
bravo è esattamente quello il trucco, siccome veniamo da anni con prezzi allucinanti adesso a 700 euro sembrano regalate :D è lo stesso trucco che usano i venditori di auto quando gonfiano il listino e sembra che ti abbiano fatto 10k di sconto, in realtà te l'hanno venduta al prezzo che volevano loro.
Purtroppo la massa è facilmente inchiappettabile.
Non parliamo poi del design, un mattone inguardabile, e del calore sparato sulla cpu.
Personaggio
09-09-2020, 19:29
bravo è esattamente quello il trucco, siccome veniamo da anni con prezzi allucinanti adesso a 700 euro sembrano regalate :D è lo stesso trucco che usano i venditori di auto quando gonfiano il listino e sembra che ti abbiano fatto 10k di sconto, in realtà te l'hanno venduta al prezzo che volevano loro.
Purtroppo la massa è facilmente inchiappettabile.
Non parliamo poi del design, un mattone inguardabile, e del calore sparato sulla cpu.
ma devi anche considerare che per l'elettronica di consumo siamo abituati a spendere molto più di una volta.
Una volta ti compravi la TV e la tenevi per 20'anni da 20" per il salone, poche famiglia ne avevano anche una piccola in camera da 14"
Oggi abbiamo TV da almeno 50" in solone da 30" in ogni camera da letto e persino una da 20" in cucina, c'è chi la mette pure in bagno :muro:
In più le cambiamo ogni 3/4 anni.
La macchina andava dai 2.5m per le utilitarie e 3.5m per le berline e duravano 20'anni, oggi le utilitarie sono lunghe quanto le berline di una volta, quest'ultime oggi sono sopra i 4m e possono superare i 5. In più la cambiamo ogni 4 anni.
Poi ci sono gli smartphone, prima si cambiavano ogni anno ora ogni 2, ma cmq si spendono oltre i 1000€
Oggi per prendere il topo di gamma in assoluto devi andare sopra i 1'000€. Quando a fine 90 bastavano 400'000 per avere il top dei top. il primo IPhone venduto in europa (il 3G) al lancio costava 500€...
Insomma ci siamo abituati a spendere sempre di più per alcuni tipi di cose e la cosa può tranquillamente espandersi anche alle schede video e persino alle consolle.
Tutto questo non è dovuto ad un cambio del prezzario, ma siamo noi consumatori che siamo cambiati. Una volta quando usciva un nuovo prodotto commerciale basato su nuove tecnologie, il picco delle vendite avveniva a distanza di qualche anno dalla sua uscita, con il prezzo che era sceso già di parecchio. Oggi il consumatore lo vuole appena esce e infatti il picco delle vendite oggi è nella settimana di uscita.
Nei primi anni '90 si vedevano in giro per roma i turisti giapponesi con le fotocamere digitali, da noi sono arrivate 10 anni dopo.
Quando da noi arrivò il Sega Master System, negli USA era già uscito il MegaDrive che era della generazione successiva, sarebbe come se oggi in Italia uscisse la PS4, con la PS5 pronta ad uscire negli USA.
Oggi invece appena la tecnologie è pronta, viene subito venduta in tutto il mondo anche se molto care, perché tanto la gente la compra.
Mi ricordo quando vidi in vetrina per la prima volta un lettore CD portatile della sony. sarà stato 1989 o 1990, costava 990'000 Lire. Aspettai un paio d'anni e lo comprai a 380'000L, lo fecero i miei come regalo di natale. Negli anni 80 e nella prima metà degli anni 90, la musica era come il cell di oggi. tutti con la radiolina o il walkman dietro con le cuffiette, scambiarsi le musicassette copiate era la prassi durante la ricreazione a scuola, comprese quelle del Magnotta. Bhe quando potetti andare a scuola con il lettore CD uscito ben 3 anni prima, fece un gigantesco effetto WOW, praticamente nessuno lo conosceva (parliamo di scuola media) e i pochi che avevano in casa lo stereo col CD, non credevano neanche fosse possibile ridurlo nelle dimensioni tali da essere portatile. Oggi se ti presenti con un prodotto vecchio 3 anni, l'effetto WOW è inteso come "oh poverino", "che poveraccio" ecc ecc.
AceGranger
09-09-2020, 20:00
La mia opinione su queste gpu.
PRO:
- la 3070 potrebbe offrire il 25/40% di prestazioni in piu` al 30% di prezzo in piu` della 5700xt che in quella fascia non e` affatto male come boost
- rtx potrebbe farsi valere molto questa gen, su turing era un po` limitato a livello prestazioni. In particolare l'aa via machine learning sembra aggiungere generalmente buona resa visiva ad un costo prestazionale molto inferiore al super sampling, a volte sembra anche migliore la resa
CONTRO:
- a livello di ram mi sembra siamo bassini, ci sono titoli che saturano 8gb di ram gia` a 1440p da anni...anche la 3080 sembra una gpu dalle braccia corte a livello di ram, non che questo pesera` troppo sugli fps medi (vedi le poche differenze fra polaris 4 e 8gb anche quando l'utilizzo era ben superiore ai 4), ma mi aspetto qualche stutter in caso di saturazione che e` un esperienza spiacevole
- i consumi sembrano decisamente troppo, troppo elevati. troppo calore e rumore verra` generato per giocare con queste gpu imho che alla fine della fiera e` piu` importante che non qualche fps in piu` o meno recuperabile togliendo filtri inutili
Insomma, complice lo scarso boost performance/prezzo di turing ampere sembra di tutt'altra pasta. AMD come al solito e` 12 mesi indietro almeno e probabilmente, nel migliore dei casi competera` solo con la 3080.
Questa gen sembra promettente, ma forse abituati a prezzi esorbitanti e scarsi boost prestazionali per fascia prezzo dell'ultima decade (escludendo maxwell, pascal, hawaii) secondo me sta ricevendo piu` lodi di quante ne meriti, soprattutto alla luce che non abbiamo visto benchmarks e potremmo ritrovarci con un fermi 2 da 600/1500 euro.
lo stutter lo hai quando non hai abbastanza spazio per la ram "minima"; quello che tu vedi "pieno" a 1440p è tutta cache, e quel valore è bel lontano dalla ram minima necessaria.
oltretutto se il gioco sta su SSD sata 3 o ancora meglio su nvme è ancora piu improbabile incorrere in problemi; prima di avere problemi con 8Gb di Vram avrai problemi ben peggiori con i TFlopf del chip.
basta guardare la 780Ti con 3Gb e la Titan con 6Gb, non hanno fatto alcuna differenza in game e ora ti danno gli stessi fps ( la titan qualche spicciolo in piu per il chip piu prestante ); se via ad alzare tutte le impostazioni per andare effettivamente a superare i 5GB non ti sta dietro il chip, quindi averli o non averli è la stessa identica cosa; e si parla di 7 anni di GPU...
terranux
11-09-2020, 21:24
lo stutter lo hai quando non hai abbastanza spazio per la ram "minima"; quello che tu vedi "pieno" a 1440p è tutta cache, e quel valore è bel lontano dalla ram minima necessaria.
oltretutto se il gioco sta su SSD sata 3 o ancora meglio su nvme è ancora piu improbabile incorrere in problemi; prima di avere problemi con 8Gb di Vram avrai problemi ben peggiori con i TFlopf del chip.
basta guardare la 780Ti con 3Gb e la Titan con 6Gb, non hanno fatto alcuna differenza in game e ora ti danno gli stessi fps ( la titan qualche spicciolo in piu per il chip piu prestante ); se via ad alzare tutte le impostazioni per andare effettivamente a superare i 5GB non ti sta dietro il chip, quindi averli o non averli è la stessa identica cosa; e si parla di 7 anni di GPU...
ecco a me non è mai tornata questa cosa. mi dici come si fà a vedere la vera vram occupata dal gioco? io quando avevo la 970 e giocavo a tomb rider superati i 3,5 gb su afterburner mi calavano gli fps da 80 a 20. và bene che c'era il problema del mezzo giga lento sulle 970 ma perchè allora superata quella soglia segnata da afterburner mi crollava tutto? adesso invece su tanti forum la chiamano allocata come non fosse quella vera usata. come faccio a vedere quella reale? fammi capire
AceGranger
11-09-2020, 22:29
ecco a me non è mai tornata questa cosa. mi dici come si fà a vedere la vera vram occupata dal gioco? io quando avevo la 970 e giocavo a tomb rider superati i 3,5 gb su afterburner mi calavano gli fps da 80 a 20. và bene che c'era il problema del mezzo giga lento sulle 970 ma perchè allora superata quella soglia segnata da afterburner mi crollava tutto? adesso invece su tanti forum la chiamano allocata come non fosse quella vera usata. come faccio a vedere quella reale? fammi capire
la 970 in quelle condizioni particolari dava quel problema, perchè la Vram creava il collo di bottiglia; se fosse stata semplicemente da 3,5 GB quasi sicuramente non avrebbe dato nessun problema.
qui gira sulla 780 TI che ha 3Gb di Vram
https://www.youtube.com/watch?v=ZXF7VyLJgEo
https://www.youtube.com/watch?v=d87YUYV9hcY
non puoi saperlo, non esiste software che te lo possa dire, potrebbe dirtelo solo il gioco per volere dello sviluppatore; molto indicativamente la Vram minima indispensabile dovrebbe essere quella delle GPU dei requisiti minimi hardware; ovvio che al salire della res sale anche la Vram minima richiesta, ma comunque non sale linearmente, nel senso che se ipoteticamente a 1080p il gioco richiede 2GB, a 4K sicuro non ne richiede 8.
Tetsuro P12
12-09-2020, 09:10
Immagino che l'encoder video sia spazzatura come in passato...
Andrebbe valutata la questione energetica, le nuove schede sono sempre più efficienti ma consumano più elettricità. La nostra impronta ambientale aumenta, e molti nemmeno se ne accorgono.
Personaggio
12-09-2020, 19:13
molto indicativamente la Vram minima indispensabile dovrebbe essere quella delle GPU dei requisiti minimi hardware; ovvio che al salire della res sale anche la Vram minima richiesta, ma comunque non sale linearmente, nel senso che se ipoteticamente a 1080p il gioco richiede 2GB, a 4K sicuro non ne richiede 8.
Più della risoluzione sono le dimensioni delle texture per le quali c'è da fare tutto un discorso: il rapporto dimensione texture/risoluzione è molto diminuito rispetto a quando si giocava in VGA. Se mantenessimo lo stesso rapporto oggi in 4K occorrerebbe usare texture 10'000x10'000, ma invece stiamo ancora alle 1'000x1'000. ma avere texture 10kx10k in gioco significa saturare i 24GB di RAM della 3090, e aggiungendo anche le texture di dimensioni intermedie, un gioco con mappe di grandi dimensione potrebbero tranquillamente raggiungere la dimensione di mezzo TB.
Usare texture più grandi non diminuisce gli FPS, perché il lavoro processazione del frame viene alla risoluzione dello schermo, ma occupa in rapporto più VRAM. una textura più grande (anche della risoluzione stessa, permette di avere una miglior qualità delle immagini viste in diagonale, per esempio la facciata di un palazzo vista a 170°.
Altra cosa che influenza l'occupazione della VRAM è la profondità che si vuole avere delle texture caricate. Per esempio su TW3 se ti trovi sulla punta di una montagna, gli alberi e l'erba della vallata non vengono caricate nella VRAM e quindi non visualizzate perché hai una visuale molto ampia e che richiederebbe parecchi GB di texture.
Altra cosa che può occupare più VRAM (e ovviamente più spazio occupato dal gioco) è la quantità di texture usate. Prendo sempre esempio da TW3, Per ipotesi TW3 può avere 100 alberi diversi e ogni albero 4 foglie differenti. Se ci fosse più VRAM si potrebbero fare 1000 alberi diversi ognuno con 10 foglie diverse, o addirittura, nessun albero uguale, tutti diversi...
Insomma non è vero che la VRAM è troppa, se si alzasse la quantità di VRAM media nei PC, sicuramente avremmo molte migliorie grafiche e la potremo sfruttare.
terranux
13-09-2020, 16:16
Più della risoluzione sono le dimensioni delle texture per le quali c'è da fare tutto un discorso: il rapporto dimensione texture/risoluzione è molto diminuito rispetto a quando si giocava in VGA. Se mantenessimo lo stesso rapporto oggi in 4K occorrerebbe usare texture 10'000x10'000, ma invece stiamo ancora alle 1'000x1'000. ma avere texture 10kx10k in gioco significa saturare i 24GB di RAM della 3090, e aggiungendo anche le texture di dimensioni intermedie, un gioco con mappe di grandi dimensione potrebbero tranquillamente raggiungere la dimensione di mezzo TB.
Usare texture più grandi non diminuisce gli FPS, perché il lavoro processazione del frame viene alla risoluzione dello schermo, ma occupa in rapporto più VRAM. una textura più grande (anche della risoluzione stessa, permette di avere una miglior qualità delle immagini viste in diagonale, per esempio la facciata di un palazzo vista a 170°.
Altra cosa che influenza l'occupazione della VRAM è la profondità che si vuole avere delle texture caricate. Per esempio su TW3 se ti trovi sulla punta di una montagna, gli alberi e l'erba della vallata non vengono caricate nella VRAM e quindi non visualizzate perché hai una visuale molto ampia e che richiederebbe parecchi GB di texture.
Altra cosa che può occupare più VRAM (e ovviamente più spazio occupato dal gioco) è la quantità di texture usate. Prendo sempre esempio da TW3, Per ipotesi TW3 può avere 100 alberi diversi e ogni albero 4 foglie differenti. Se ci fosse più VRAM si potrebbero fare 1000 alberi diversi ognuno con 10 foglie diverse, o addirittura, nessun albero uguale, tutti diversi...
Insomma non è vero che la VRAM è troppa, se si alzasse la quantità di VRAM media nei PC, sicuramente avremmo molte migliorie grafiche e la potremo sfruttare.
ma parli dei pop up ?
Personaggio
13-09-2020, 20:37
ma parli dei pop up ?
quali pop-up?
AceGranger
13-09-2020, 21:07
Più della risoluzione sono le dimensioni delle texture per le quali c'è da fare tutto un discorso: il rapporto dimensione texture/risoluzione è molto diminuito rispetto a quando si giocava in VGA. Se mantenessimo lo stesso rapporto oggi in 4K occorrerebbe usare texture 10'000x10'000, ma invece stiamo ancora alle 1'000x1'000. ma avere texture 10kx10k in gioco significa saturare i 24GB di RAM della 3090, e aggiungendo anche le texture di dimensioni intermedie, un gioco con mappe di grandi dimensione potrebbero tranquillamente raggiungere la dimensione di mezzo TB.
Usare texture più grandi non diminuisce gli FPS, perché il lavoro processazione del frame viene alla risoluzione dello schermo, ma occupa in rapporto più VRAM. una textura più grande (anche della risoluzione stessa, permette di avere una miglior qualità delle immagini viste in diagonale, per esempio la facciata di un palazzo vista a 170°.
Altra cosa che influenza l'occupazione della VRAM è la profondità che si vuole avere delle texture caricate. Per esempio su TW3 se ti trovi sulla punta di una montagna, gli alberi e l'erba della vallata non vengono caricate nella VRAM e quindi non visualizzate perché hai una visuale molto ampia e che richiederebbe parecchi GB di texture.
Altra cosa che può occupare più VRAM (e ovviamente più spazio occupato dal gioco) è la quantità di texture usate. Prendo sempre esempio da TW3, Per ipotesi TW3 può avere 100 alberi diversi e ogni albero 4 foglie differenti. Se ci fosse più VRAM si potrebbero fare 1000 alberi diversi ognuno con 10 foglie diverse, o addirittura, nessun albero uguale, tutti diversi...
Insomma non è vero che la VRAM è troppa, se si alzasse la quantità di VRAM media nei PC, sicuramente avremmo molte migliorie grafiche e la potremo sfruttare.
Ci sarebbe tutto un discorso da fare sulle texture, che anche dire 10000x10000 invece che 1000x1000 vuol dire tutto e niente, perchè quello che conta è il rapporto fra la superficie unwrappata e i pixel, ed esistono anche i multi-unwrap; e ci sarebbe anche tutto un discorso da fare sul rapporto unwrap-pixel-dettaglio percepito.
Anche per la questione oggetti e texture differenti, hanno poco senso detti cosi a "valore assoluto"; non è che se metti 10 alberi "demmerda" diversi, allora hai grafica migliore.... avresti guadagni maggiori in resa grafica a mettere alberi belli ma è il chip poi a non muoverli, non la mancanza di Vram.
Quello che ho detto non è che non serve a nulla avere Vram, ma che non serve farcire di Vram chip che poi non riuscirebbero concretamente a sfruttarla.
oggi il problema è la potenza dei chip, non la quantita di Vram e, come gia visto con al 780Ti e Titan, succedera la stessa cosa con 3080 e 3090, dove in gaming quel quantitativo di Vram su quel chip è e sara inutile.
Personaggio
13-09-2020, 21:34
Ci sarebbe tutto un discorso da fare sulle texture, che anche dire 10000x10000 invece che 1000x1000 vuol dire tutto e niente, perchè quello che conta è il rapporto fra la superficie unwrappata e i pixel, ed esistono anche i multi-unwrap; e ci sarebbe anche tutto un discorso da fare sul rapporto unwrap-pixel-dettaglio percepito.
Anche per la questione oggetti e texture differenti, hanno poco senso detti cosi a "valore assoluto"; non è che se metti 10 alberi "demmerda" diversi, allora hai grafica migliore.... avresti guadagni maggiori in resa grafica a mettere alberi belli ma è il chip poi a non muoverli, non la mancanza di Vram.
Quello che ho detto non è che non serve a nulla avere Vram, ma che non serve farcire di Vram chip che poi non riuscirebbero concretamente a sfruttarla.
oggi il problema è la potenza dei chip, non la quantita di Vram e, come gia visto con al 780Ti e Titan, succedera la stessa cosa con 3080 e 3090, dove in gaming quel quantitativo di Vram su quel chip è e sara inutile.
non sono d'accordo: far muovere 10 alberi diversi o tutti uguali serve la stessa potenza di calcolo, ma nel caso dei 10 alberi diversi occupi la VRAM 10 volte
di più
AceGranger
13-09-2020, 23:05
non sono d'accordo: far muovere 10 alberi diversi o tutti uguali serve la stessa potenza di calcolo, ma nel caso dei 10 alberi diversi occupi la VRAM 10 volte
di più
10 alberi diversi li fai anche con i LOD, o con un proxy mase e pochi elementi aggiunti e NON occupi 10 volte la ram...
ma il punto è che se non hai un chip che muova i poligoni non hai alberi migliori, hai solo 10 alberi diversi "demmerda", ne piu ne meno.
bonzoxxx
14-09-2020, 07:58
10 alberi diversi li fai anche con i LOD, o con un proxy mase e pochi elementi aggiunti e NON occupi 10 volte la ram...
ma il punto è che se non hai un chip che muova i poligoni non hai alberi migliori, hai solo 10 alberi diversi "demmerda", ne piu ne meno.
Mi fai morire :D :D :D :D :D
guardando i mercatini queste schede han dato una scossa brutale all'usato:
https://i.imgur.com/jecxSjN.jpeg
Personaggio
14-09-2020, 14:39
10 alberi diversi li fai anche con i LOD, o con un proxy mase e pochi elementi aggiunti e NON occupi 10 volte la ram...
ma il punto è che se non hai un chip che muova i poligoni non hai alberi migliori, hai solo 10 alberi diversi "demmerda", ne piu ne meno.
rispiego.
Prendendo per assodato che il mio chip riesca a muovere efficacemente 100'000 alberi contemporaneamente.
Se ho 100'000 alberi tutti uguali o 100'000 tutti diversi avrò una occupazione completamente differente nella VRAM o no?
Altra domanda
Prendendo per assodato che il mio chip riesca a visualizzare efficacemente un numero X di poligoni statici.
Quando mi trovo sulla cima d'una montagna in un gioco e ho la vista di una vallata per decine di km, caricare tutti le texture della vallata per poi visualizzare quel numero X di poligoni che il chip è in grado di fare, facendomi vedere una vegetazione più o meno come potrei vederla ad occhio nudo a 10km di distanza, mi occuperebbe molta più VRAM di come viene fatto in realtà oggi non caricando nulla ma facendo visualizzare un landa tutta uguale o coprendola con della foschia?
Aggiungo un'esperienza personale con il gioco Cities Skyline. Ho caricato migliaia di asset (che alla fine sono uno schema 3d e delle texture relative) come MOD. Ho dovuto poi ridurli perché il gioco carica prima di farlo partire tutti gli asset nella RAM della CPU e saturavano i miei 32GB di RAM. In realtà per caricarli tutti avrei avuto la necessita di 115GB di RAM. Alla fine ne ho fatto una cernita per un totale di 25GB di RAM occupata all'avvio.
Durante il gioco nessun problema, ma dopo diverse ore quando la città costruita cominciava ad essere molto grande e piena di grattacieli che sfruttavano molti degli assets che ci ho aggiunto, quando mi muovevo velocemente da una parte all'altra della città, andava a scatti e ritardava a caricare tutte le texture. Sono andato a verificare e praticamente gli 8GB della mia scheda video in firma erano saturi! Ho risolto ripristinando la sfocatura delle texture più lontane (che avevo tolto i precedenza) dove praticamente le texture da caricare in lontananza vengono ridotte in dimensione prima di essere caricate.
Avessi avuto 32GB di VRAm avrei sicuramente goduto molto meglio questo gioco
AceGranger
14-09-2020, 16:37
rispiego.
Prendendo per assodato che il mio chip riesca a muovere efficacemente 100'000 alberi contemporaneamente.
Se ho 100'000 alberi tutti uguali o 100'000 tutti diversi avrò una occupazione completamente differente nella VRAM o no?
dipende come vengono fatte queste differenze; nessuno si mette a caricare nmila asset di environment totalmente differenti, perchè ci sono sistemi molto piu efficienti, intelligenti e veloci per farti "vedere" cose differenti che in realta non lo sono tanto.
quindi no, non sara completamente differente.
Altra domanda
Prendendo per assodato che il mio chip riesca a visualizzare efficacemente un numero X di poligoni statici.
Quando mi trovo sulla cima d'una montagna in un gioco e ho la vista di una vallata per decine di km, caricare tutti le texture della vallata per poi visualizzare quel numero X di poligoni che il chip è in grado di fare, facendomi vedere una vegetazione più o meno come potrei vederla ad occhio nudo a 10km di distanza, mi occuperebbe molta più VRAM di come viene fatto in realtà oggi non caricando nulla ma facendo visualizzare un landa tutta uguale o coprendola con della foschia?
Se sei in cima alla montagna nessun programmatore sano di mente ti farebbe caricare delle texture di cui non potresti vederne i pixel....
Fra l'altro, il problema di caricare quei poligoni cosi lontani, non è un problema di Vram ma un problema di molti game engine nel caricare oggetti cosi lontani dal punto di vista e a quelle distanze scattano i LOD, quindi tu non caricheresti l'albero che vedi da vicino ma una variante spoglia e semplificata
Aggiungo un'esperienza personale con il gioco Cities Skyline. Ho caricato migliaia di asset (che alla fine sono uno schema 3d e delle texture relative) come MOD. Ho dovuto poi ridurli perché il gioco carica prima di farlo partire tutti gli asset nella RAM della CPU e saturavano i miei 32GB di RAM. In realtà per caricarli tutti avrei avuto la necessita di 115GB di RAM. Alla fine ne ho fatto una cernita per un totale di 25GB di RAM occupata all'avvio.
Durante il gioco nessun problema, ma dopo diverse ore quando la città costruita cominciava ad essere molto grande e piena di grattacieli che sfruttavano molti degli assets che ci ho aggiunto, quando mi muovevo velocemente da una parte all'altra della città, andava a scatti e ritardava a caricare tutte le texture. Sono andato a verificare e praticamente gli 8GB della mia scheda video in firma erano saturi! Ho risolto ripristinando la sfocatura delle texture più lontane (che avevo tolto i precedenza) dove praticamente le texture da caricare in lontananza vengono ridotte in dimensione prima di essere caricate.
Avessi avuto 32GB di VRAm avrei sicuramente goduto molto meglio questo gioco
ci sarebbero anche qui infiniti discorsi da fare sui game ed asset esterni e la loro qualita e funzionamento.
quindi no, la norma non è quella; se poi sei cosi preoccupato puoi prenderti la 3090.
Personaggio
14-09-2020, 18:55
dipende come vengono fatte queste differenze; nessuno si mette a caricare nmila asset di environment totalmente differenti, perchè ci sono sistemi molto piu efficienti, intelligenti e veloci per farti "vedere" cose differenti che in realta non lo sono tanto.
quindi no, non sara completamente differente.
non mi hai risposto alla domanda, se li voglio completamente diversi?
Se sei in cima alla montagna nessun programmatore sano di mente ti farebbe caricare delle texture di cui non potresti vederne i pixel....
Fra l'altro, il problema di caricare quei poligoni cosi lontani, non è un problema di Vram ma un problema di molti game engine nel caricare oggetti cosi lontani dal punto di vista e a quelle distanze scattano i LOD, quindi tu non caricheresti l'albero che vedi da vicino ma una variante spoglia e semplificata
esattamente quello che vorrei vedere, ma non la foschia
ci sarebbero anche qui infiniti discorsi da fare sui game ed asset esterni e la loro qualita e funzionamento.
quindi no, la norma non è quella; se poi sei cosi preoccupato puoi prenderti la 3090.
non è questione della scheda che prendo io, ma la quantità di VRAM presente nella maggior parte delle schede venduto cioè quelle di livello medio e basso, se già sulle xx70/xx60 ci fossero 16GB di VRAM e il doppio sulle xx80. Sicuramente gli sviluppatori avranno modo di sfruttarli incrementando appunto gli asset e le texture.
Che poi alla fine non mi hai risposto ci hai sempre girato intorno.
a prescindere dal chip, e dal modo di programmare da parte degli sviluppatori, usare un numero centinaia di volte superiore di texture e decine di volte più grande, mi aumenta la quantità di VRAM usata? Se la risposta è si, e lo è. Se c'è una quantità di VRAM mediamente distribuita su l'installato pari al doppio di oggi, gli sviluppatori potranno permettersi di usare più texture e più grandi. E' una correlazione semplice, è matematica.
AceGranger
14-09-2020, 20:03
non mi hai risposto alla domanda, se li voglio completamente diversi?esattamente quello che vorrei vedere, ma non la foschia
non è questione della scheda che prendo io, ma la quantità di VRAM presente nella maggior parte delle schede venduto cioè quelle di livello medio e basso, se già sulle xx70/xx60 ci fossero 16GB di VRAM e il doppio sulle xx80. Sicuramente gli sviluppatori avranno modo di sfruttarli incrementando appunto gli asset e le texture.
Che poi alla fine non mi hai risposto ci hai sempre girato intorno.
non prendertela a male, ma stai ponendo situazioni irrealistiche e tecnicamente stupide, se vuoi a tutti i costi un si, ti dico di si, ma non è cosi che si fanno i giochi ;).
quindi, se vuoi continuare a credere che ti servano 20GB su una 2060 per poi avere 1 miliardo di rametti demmerda diversi ok, riempi 18GB di alberi e 1 GB di restante gioco.
a prescindere dal chip, e dal modo di programmare da parte degli sviluppatori, usare un numero centinaia di volte superiore di texture e decine di volte più grande, mi aumenta la quantità di VRAM usata? Se la risposta è si, e lo è. Se c'è una quantità di VRAM mediamente distribuita su l'installato pari al doppio di oggi,gli sviluppatori potranno permettersi di usare più texture e più grandi. E' una correlazione semplice, è matematica.
"a prescindere dal fisico umano e dalla resistenza, potresti anche attraversare l'atlantico a nuoto." a supercazzole si puo fare tutto...
no perchè piu texture e piu grandi vuol dire piu pixel che il chip deve elaborare, e questa si che è matematica...
quindi bho, direi che va bene cosi, non è che dobbiamo pensarla per forza allo stesso modo.
cdimauro
17-09-2020, 07:08
Infatti non serve a molto dover supportare migliaia di alberi completamente diversi. E' sufficiente che quelli supportati diano l'impressione di una buona varietà all'occhio.
La varietà, infatti, si può realizzare anche usando tecniche procedurali per la generazione sia dei poligoni sia delle texture, senza dover occupare necessariamente tanto spazio.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.