View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
Arrow0309
04-07-2019, 21:00
Chi ha mai detto questo?
Ho solo detto che si confronta reference vs reference, non reference vs fe.
Ma cosa significa che bisogna paragonare custom a custom?
Da che mondo è mondo si paragonano reference con reference per avere una linea base attendibile.
La performance delle custom è troppo legata ai singoli chip.
Basta essere più o meno fortunati nella lotteria del silicone ed ecco lì che le differenze in performance, consumi, temperature e rumore cambiano parecchio.
Io ho avuto due RX 580 Aorus (una usata per mining) e le performance delle due gpu erano diverse, era diverso il rumore, erano diverse le prestazioni.
Aspetta che mi sembra che non segui più le schede video nvidia.
Non mi va di farti storia delle Pascal e Turing FE
Semplicemente abbiamo ste due 2070:
https://assets.hardwarezone.com/img/2018/10/rtx2070.jpg
https://thumbor.forbes.com/thumbor/960x0/https%3A%2F%2Fblogs-images.forbes.com%2Fantonyleather%2Ffiles%2F2019%2F07%2Frtx-2070-super-3-1200x963.jpg
La prima e' la 2070 FE la seconda la 2070 Super, pure un ragazzino capirebbe che la seconda e' la successora della originale.
Questo per te non va bene perché?
La FE non e' una reference?
E quale lo sarebbe allora?
Sulle 2080 ti (le prime della serie uscite) abbiamo delle gpu "scartate" , non "A" che sono state depotenziate e fatte andare su o dei dissi a barra oppure design a biventola o anche triventola vari.
Si dia il caso che sono state tutte messe insieme nella grande categoria "custom".
Come anche le 2070 qui sotto dal sito nvidia:
GeForce RTX 2070 Custom Card Roundup (https://www.nvidia.com/en-us/geforce/news/geforce-rtx-2070-custom-card-roundup/)
Quindi quale reference vs quale reference?
Se le FE le consideri un pelo sopra (ma e' un tuo punto di vista), allora tanto più lo saranno le Super.
Poi usciranno dele custom cazzute tipo le Asus Dual, Strix o le EVGA XC Ultra e FTW (design reference del pcb o custom pcb) già presentate e le vorremo confrontare diversamente ci sta anche quello.
Ma temo che ti dovrai spiegare meglio che significa per te oggi, sulle schede video nvidia RTX (non AMD di un'anno fa o altro) reference vs reference. :O
edit, sorry, pensavo fossimo su "aspettando amd"
:asd: :asd:
Mi e' sembrato anche a me di recente, più di una volta :D
E quale lo sarebbe allora?
Quella che esce di fabbrica con le specifiche base.
Le FE questa gen escono già occate di fabbrica, non sono reference.
TigerTank
05-07-2019, 12:55
Quella che esce di fabbrica con le specifiche base.
Le FE questa gen escono già occate di fabbrica, non sono reference.
Esatto, le FE non sono "references" da specifiche di base, ma se si vanno a confrontare FE con FE Super allora diventano il riferimento :)
One winged angel
05-07-2019, 14:21
Ma a questo punto mi viene un dubbio le FE si sapeva che erano occate di base, per quanto riguarda le super saranno anch'esse occate di base o sono da considersarsi reference? ci sono notizie uffciali a riguardo?
E comunque credo che il confronto soprattutto price/performance si possa fare a prescidere visto che alla fine e' sempre un prodotto che compri da nvidia ad una cifra e che out of the box ti fornisce determinate performance a prescindere dall'oc.
Tralasciando il discorso custom ovviamente.
Saetta_McQueen
10-07-2019, 07:19
Intanto su trovaprezzi spuntano le msi 2060 super, ventus a 507 euro e gaming a 550 euro
Le 2070s, sempre msi, 630 euro la ventus e 700 euro la gaming.
Alla faccia del bicarbonato di sodio :muro:
Il SOLO ed UNICO motivo per cui le consolle montano hw AMD è che costa meno, null'altro.
Certo...non menzioniamo i mezzi passi falsi fatti da nvidia con l'hw dedicato per console. I vari problemi di rsx su ps3 e il buco hw che ha spianato la strada all'hacking su switch grazie a tegra non sono da considerare.
no macche' e' amd che fa' beneficenza...
https://new.nasdaq.com/articles/new-radeon-5700-graphics-cards-are-beating-nvidia-and-so-is-amd-stock-2019-07-09
:asd:
Free Gordon
10-07-2019, 14:11
Certo...non menzioniamo i mezzi passi falsi fatti da nvidia con l'hw dedicato per console. I vari problemi di rsx su ps3 e il buco hw che ha spianato la strada all'hacking su switch grazie a tegra non sono da considerare.
OT
M$ probabilmente è ancora in causa adesso con Nvidia per la prima Xbox.... :asd: assurdo...
Sono i soliti discorsi triti e ritriti, le cose vanno valutate caso per caso e non ci sono "regole auree" in questo ambito.
AMD è stata furba a sfruttare la virata delle console verso x86 (in questo Sony e la nuova dirigenza "occidentale" hanno avuto grande influenza) e ora ne sta raccogliendo buoni frutti..
/OT
Piedone1113
10-07-2019, 15:33
OT
M$ probabilmente è ancora in causa adesso con Nvidia per la prima Xbox.... :asd: assurdo...
Sono i soliti discorsi triti e ritriti, le cose vanno valutate caso per caso e non ci sono "regole auree" in questo ambito.
AMD è stata furba a sfruttare la virata delle console verso x86 (in questo Sony e la nuova dirigenza "occidentale" hanno avuto grande influenza) e ora ne sta raccogliendo buoni frutti..
/OT
E' stata furba, costretta e fortunata.
Da quelle scelte si è arrivati a gpu che fanno bene un po tutto senza eccellere in nessuna.
Che piaccia o meno quelle scelte hanno permesso a NVIDIA di essere al top nelle prestazioni assolute e di marginalizzare molto sulle vga.
Insomma ci hanno guadagnato tutti tranne i gamer pc.
E' stata furba, costretta e fortunata.
Da quelle scelte si è arrivati a gpu che fanno bene un po tutto senza eccellere in nessuna.
Che piaccia o meno quelle scelte hanno permesso a NVIDIA di essere al top nelle prestazioni assolute e di marginalizzare molto sulle vga.
Insomma ci hanno guadagnato tutti tranne i gamer pc.Quelle scelte sono state fatte perché AMD non aveva fondi per avere tecnologia game, pro, workstation, etc.
Di certo non poteva uscire dal mercato di una delle declinazioni dell'utilizzo di una GPU, quindi probabilmente ha ripiegato su qualcosa di polivalente, ora con il fatturato in aumento, le ricerche e la ristrutturazione di diversi settori, sta uscendo da GCN intesa come game, quindi potrà concentrarsi in maniera diversa su diversi fronti.
Questo è un bene perché fa aumentare la concorrenza che latitava da troppo tempo e ne gioveranno sicuramente anche gli utenti Nvidia.
domenico88
13-07-2019, 12:26
Intanto su trovaprezzi spuntano le msi 2060 super, ventus a 507 euro e gaming a 550 euro
Le 2070s, sempre msi, 630 euro la ventus e 700 euro la gaming.
Alla faccia del bicarbonato di sodio :muro:
ho trovato una 2070 super zotac 513 :eek:
ottimo prezzo :mbe:
Piedone1113
13-07-2019, 15:42
Quelle scelte sono state fatte perché AMD non aveva fondi per avere tecnologia game, pro, workstation, etc.
Di certo non poteva uscire dal mercato di una delle declinazioni dell'utilizzo di una GPU, quindi probabilmente ha ripiegato su qualcosa di polivalente, ora con il fatturato in aumento, le ricerche e la ristrutturazione di diversi settori, sta uscendo da GCN intesa come game, quindi potrà concentrarsi in maniera diversa su diversi fronti.
Questo è un bene perché fa aumentare la concorrenza che latitava da troppo tempo e ne gioveranno sicuramente anche gli utenti Nvidia.
Difatti quello che è detto:
Furba perchè ha cercato di sfruttare tutte le sue tecnologie e i suoi fondi ( o meglio rosso prima di andare fuori fido)
Costretta perchè quello era il massimo investibile all'epoca
Fortunata perchè è venuta fuori un'architettura polivalente buona un po per tutto e nel caso da poter infilare anche nel tostapane ( vedi gpu nei prossimi exynos samsung).
Certo...non menzioniamo i mezzi passi falsi fatti da nvidia con l'hw dedicato per console. I vari problemi di rsx su ps3 e il buco hw che ha spianato la strada all'hacking su switch grazie a tegra non sono da considerare.
Che problemi aveva l'RSX?
Ale55andr0
05-08-2019, 19:45
scordate il vantaggio di poter avere cpu e gpu da un solo produttore, potendo fare un soc personalizzato
/OT
Che problemi aveva l'RSX?
Nelle prime revisioni scaldava come un forno e mandava le ps3 in ylod...se cerchi rsx reballing/ylod/overheating ci sono molti video esplicativi. Va detto però che parte della colpa dei problemi di progettazione e performance di rsx sono da attribuire a sony dato che chiese ad nvidia solo all'ultimo momento di fornirgli un chip grafico per la ps3.
Free Gordon
06-08-2019, 01:48
Nelle prime revisioni scaldava come un forno e mandava le ps3 in ylod...se cerchi rsx reballing/ylod/overheating ci sono molti video esplicativi. Va detto però che parte della colpa dei problemi di progettazione e performance di rsx sono da attribuire a sony dato che chiese ad nvidia solo all'ultimo momento di fornirgli un chip grafico per la ps3.
Gran colpo di quel genio del Kutaragi... :asd: che voleva fare una PS3 con 2 o 3 Cell al lavoro in parallelo, senza supporto di un acceleratore grafico.
Na roba che funzionicchiò con la PS2 (erano altri tempi), salvo poi venire facilmente superata da un pc di fascia media con la Geforce "pacco edition" sotto, chiamato Xbox.... :rotfl:
Mentre con la PS4 e la dirigenza americana di Cerny hanno fatto un ottimo lavoro e i risultati infatti si son visti.
illidan2000
07-10-2019, 11:50
https://www.hwupgrade.it/news/skvideo/nvidia-ampere-la-prossima-generazione-di-gpu-in-arrivo-nella-prima-meta-del-2020_84792.html
pare che vedremo presto AMPere
L'edizione 2020 del GTC di NVIDIA si terrà dal 23 al 26 marzo a San Jose. Questa potrebbe essere la cornice ideale per quantomeno annunciare la prima GPU della famiglia Ampere
Spider-Mans
07-10-2019, 12:19
30xxTI sui 800-900 euro al lancio
amd aiutaci
illidan2000
07-10-2019, 13:05
30xxTI sui 800-900 euro al lancio
amd aiutaci
3080ti a 800 euro è regalata!
TigerTank
07-10-2019, 13:08
https://www.hwupgrade.it/news/skvideo/nvidia-ampere-la-prossima-generazione-di-gpu-in-arrivo-nella-prima-meta-del-2020_84792.html
pare che vedremo presto AMPere
L'edizione 2020 del GTC di NVIDIA si terrà dal 23 al 26 marzo a San Jose. Questa potrebbe essere la cornice ideale per quantomeno annunciare la prima GPU della famiglia Ampere
completa la frase :D
"ovviamente visto il contesto destinata al datacenter o agli ambiti professionali con le famiglie Tesla e Quadro."
Chiaro che partono con le soluzioni pro. Imho eventualmente per gaming credo si andrà all'estate...e come al solito disponibilità a livello umano in autunno :D
30xxTI sui 800-900 euro al lancio
amd aiutaci
Ahahahaha eeeeeeeh un bel sogno. Forse solo se uscissero nel 2021 ai ritmi standard pre-turing e per modelli plasticosi. :D
domenico88
07-10-2019, 13:49
https://www.hwupgrade.it/news/skvideo/nvidia-ampere-la-prossima-generazione-di-gpu-in-arrivo-nella-prima-meta-del-2020_84792.html
pare che vedremo presto AMPere
L'edizione 2020 del GTC di NVIDIA si terrà dal 23 al 26 marzo a San Jose. Questa potrebbe essere la cornice ideale per quantomeno annunciare la prima GPU della famiglia Ampere
Wow :eek: già un'altra serie!
mikael84
07-10-2019, 14:21
https://www.hwupgrade.it/news/skvideo/nvidia-ampere-la-prossima-generazione-di-gpu-in-arrivo-nella-prima-meta-del-2020_84792.html
pare che vedremo presto AMPere
L'edizione 2020 del GTC di NVIDIA si terrà dal 23 al 26 marzo a San Jose. Questa potrebbe essere la cornice ideale per quantomeno annunciare la prima GPU della famiglia Ampere
Si dovrebbe partire dal chip tesla, ma a cambio PP, anche le gaming saranno molto vicine. Mi interssa vedere le possiibli novità, anche se parliamo di una fase tock, ovvero + cc per clock.:)
30xxTI sui 800-900 euro al lancio
amd aiutaci
Con il cambio PP, probabile che la 3080ti la vedi nel 2021, oppure scarti venduti a prezzi attuali, se non peggio.
AMD per ora vende quella che per nvidia sarà la 2660 a 4/500 euro, di certo non regala nulla.:)
Se tutto va bene a 699/799$ si dovrebbe avere rdna2 vs 3080.
Attualmente la micron non ha ancora la doppia densità, ma vedremmo tra 6/9 mesi, nel caso sono 100$ di ram in più, mentre AMD dovrà montare le costose HBM.
3080ti a 800 euro è regalata!
Con questo mercato no, ma 800 euro per un probabile chip di scarto devastato è pure troppo.
completa la frase :D
"ovviamente visto il contesto destinata al datacenter o agli ambiti professionali con le famiglie Tesla e Quadro."
Chiaro che partono con le soluzioni pro. Imho eventualmente per gaming credo si andrà all'estate...e come al solito disponibilità a livello umano in autunno :D
Ahahahaha eeeeeeeh un bel sogno. Forse solo se uscissero nel 2021 ai ritmi standard pre-turing e per modelli plasticosi. :D
Si Tiger, dici bene, si partirà dalla Tesla, per poi passare ai chip pro, dove con i chip devastati lanceranno le gaming.:)
Wow :eek: già un'altra serie!
Ogni 2 anni esce una nuova serie nvidia.:)
TigerTank
07-10-2019, 14:46
Si Tiger, dici bene, si partirà dalla Tesla, per poi passare ai chip pro, dove con i chip devastati lanceranno le gaming.:)
Ahahah eccoti, ciao Mike! :D
thunderforce83
16-10-2019, 16:27
alcuni rumor indicano che nvidia non ha ottenuti i ricavi previsti con l ultima serie, credo che le prossime schede saranno molto piu' competitive per quanto riguarda il prezzo. vedremo...io credo sempre che ampere la vedremo prima del previsto, tipo marzo, aprile...un bel salto in avanti visto l utilizzo delle fonderie samsung che sono allo stato dell'arte oggi come oggi.
Ci credo, tranne la 2080ti, tutte le altre gpu sono piuttosto ridondanti e a malapena una miglioria perf/prezzo rispetto alla generazione precedente.
io ormai seguo questo thread solo per i post di mikael :)
thunderforce83
22-10-2019, 12:22
ho trovato un sito polacco che parla di una'eventuale fuga di notizie da parte di un addetto ai lavori nvidia...vi posto la traduzione non perfetta ma esauriente...
Tutti i dati Ampere provengono da documenti che Nvidia doveva fornire ai suoi partner. L' utente SaintPigeon , responsabile della perdita, ha diviso i dati in due gruppi. Nel primo ha menzionato la notizia che a suo avviso dovrebbe essere un bene per i clienti. Troveremo qui tali voci:
significativo aumento delle prestazioni per la tipica rasterizzazione (maggiore rispetto al passaggio da Pascal a Turing),
enorme aumento delle prestazioni nel ray tracing,
aumentando la quantità di memoria in tutti i modelli,
riduzione del TDP in un ampio gruppo di carte, ad eccezione delle costruzioni più efficienti,
crescente core clock.
Nel secondo gruppo c'erano messaggi che dovevano essere cattivi o neutrali. Queste voci sono elencate qui:
il prezzo della maggior parte dei modelli rimarrà allo stesso livello di oggi, sono previsti piccoli sconti per le unità meno popolari,
opzioni di overclock limitate,
Nvidia deve ridurre il limite massimo di tensione al cuore a circa 1 V.
La prima serie di informazioni sembra abbastanza ragionevole e puoi trarre conclusioni abbastanza simili anche senza avere accesso a nessun documento. Tuttavia, fino a quando questi dati non saranno confermati da Nvidia, non dovremmo trarne conclusioni di vasta portata . Sappiamo da altre perdite che le carte Ampere potrebbero essere in vendita nel secondo trimestre del 2020 . In un periodo simile, Intel presenterà probabilmente la sua prima serie di schede grafiche autonome per i giocatori.
mikael84
22-10-2019, 15:07
io ormai seguo questo thread solo per i post di mikael :)
Addirittura:D
Speriamo di saperne quanto prima.
ho trovato un sito polacco che parla di una'eventuale fuga di notizie da parte di un addetto ai lavori nvidia...vi posto la traduzione non perfetta ma esauriente...
Tutti i dati Ampere provengono da documenti che Nvidia doveva fornire ai suoi partner. L' utente SaintPigeon , responsabile della perdita, ha diviso i dati in due gruppi. Nel primo ha menzionato la notizia che a suo avviso dovrebbe essere un bene per i clienti. Troveremo qui tali voci:
In vari sti ci stanno specupalando su, ma parliamo di una classica fase tock.:)
significativo aumento delle prestazioni per la tipica rasterizzazione (maggiore rispetto al passaggio da Pascal a Turing),
Si assolutamente, cc x clock, più affinamento, magari via INT.
GA102 potrebbe avere un mix tra 5170/5376cc, ben 6144 sulla tesla, più clock.
Il clock potrebbe non essere così elevato.
Il chip Tesla, sarà indicativo anche di un'eventuale chip ad 8gpc (128rop's).
enorme aumento delle prestazioni nel ray tracing,
50% almeno sarà dato dalle unità di shading e RT più AI.
Da vedere come cercheranno di sfruttare il tutto.
Ad oggi, nvidia ha creato varie formule, ma nulla di tutto ciò è realmente vero.
La suddivisione avviene per 50 e 50 tra shading/rt/denoising.
Il RT sul pro porta circa ad un 3x le prestazioni, che significa per TDP sfruttare pochissime risorse totali.
aumentando la quantità di memoria in tutti i modelli,
riduzione del TDP in un ampio gruppo di carte, ad eccezione delle costruzioni più efficienti,
crescente core clock.
La memoria è legata ai bus ed alla doppia densità. Micron ancora non ce l'ha.
Samsung si, di recente AMD dice di poter lanciare le 5500 di fascia bassa con la doppia.
In questo caso, il bus da 256 bit diventa da 16gb di ram.
Tuttavia potrebbero anche rivedere i bus, e utilizzare la singola, in rapporto 12/16 (3080/ti)
Nel secondo gruppo c'erano messaggi che dovevano essere cattivi o neutrali. Queste voci sono elencate qui:
il prezzo della maggior parte dei modelli rimarrà allo stesso livello di oggi, sono previsti piccoli sconti per le unità meno popolari,
opzioni di overclock limitate,
Nvidia deve ridurre il limite massimo di tensione al cuore a circa 1 V.
Teoricamente dovrebbe essere RDNA2/3080 a 699/799$ a scendere.
Il chip navi di AMD equivarebbe ad una 2660/ti da 200/250 euro, quindi, questa fascia potrebbe scendere.
Riguardo l'OC, si sarà sempre peggio, sopratutto a regolatore bolccato e piombato.
La tensione per i 7nm, dovrebbe essere di 0,95v.:)
mattxx88
22-10-2019, 15:40
secondo voi invece com'è che sono sparite le dual gpu ora che si ha tutto ancora più miniaturizzato rispetto ad una volta?
forse per una questione di sviluppo progetto e driver e poi pochi riscontri lato vendite magari??
Black"SLI"jack
22-10-2019, 16:34
Direi che sta scomparendo il multigpu in senso stretto per il Gaming. Lo sli Nvidia lo supporta ancora ma se guardi bene è qualcosa che pian piano sta andando a sparire. Il crossfire di amd ormai è tempo che non esiste più.
Per una dual gpu, tra l'altro c'è la questione chip tipo i plx per gestire la comunicazione tra le due gpu. Quindi alla fine, si hai una sola scheda fisica, ma devi gestire un multigpu a tutti gli effetti con i pro e i contro di tale configurazione.
Senza considerare che poi sono sempre state schede più di nicchia che altro. Visti anche a volte i risultati non proprio entusiasmanti con la parte di raffreddamento della scheda stessa. Ho avuto per anni configurazioni sli fin dai tempi delle 6800gt. Ho provato pure alcuni crossfire, ma non commento. Sinceramente ad oggi le dual gpu per gaming sarebbero solo un esercizio di stile.
Inviato dal mio LYA-L09 utilizzando Tapatalk
AceGranger
22-10-2019, 17:06
secondo voi invece com'è che sono sparite le dual gpu ora che si ha tutto ancora più miniaturizzato rispetto ad una volta?
forse per una questione di sviluppo progetto e driver e poi pochi riscontri lato vendite magari??
perchè prima avevano un senso, servivano per avere il FHD e il bacino di utenza era superiore;
al 4K, in rapporto al FHD di una volta, ci punta molta meno gente, il bacino di utenza si è sostanzialmente quasi estinto e di conseguenza nessuno sviluppatore perde piu tempo dietro a una cosa che poi userebbero 4 gatti; ergo, ha ancora meno senso per un produttore buttare soldi per progettare una GPU che non comprerebbe nessuno.
lo SLI continuera ad esserci ma perlopiu per applicazioni Pro e solo sulle GPU dalla fascia medio/alta in su.
thunderforce83
24-10-2019, 19:02
Nvidia wouldn't be able to count on it, I reckon, especially since they tend to have the ... they'll go with both, probably the entry ampere cards will stay on 12nm. La notizia postata da un noto sito inizia cosi...poi aprendo la pagina continua con...TSMC ha pubblicato una trascrizione dei risultati trimestrali e qui è possibile trovare anche informazioni interessanti. Conferma che la produzione in serie di chip da 5 nm è prevista per il secondo trimestre del 2020 e sta già lavorando alla sua produzione sperimentale
TSMC è anche ottimista circa lo stato di avanzamento del processo a 5 nm e si aspetta che la produzione di massa sia più rapida e fluida di quanto non fosse il caso dei chip da 7 nm introdotti nel 2018. La società ha aumentato i costi e il budget di investimento da 10 a 11 miliardi di dollari USA a Da 14 a 15 miliardi, ed è proprio a causa di questi investimenti che i chip da 5 nm dovrebbero uscire dalla linea più velocemente rispetto al processo di produzione precedente.
Nella discussione, TSMC riferisce che esiste principalmente un mercato per gli smartphone, oltre al "calcolo ad alte prestazioni", che punta quindi a social network e server desktop / server a 5 nm. Ad esempio, circolano voci che Apple produrrà le sue nuove soc per gli iPhone 2020 sul nuovo processo a 5 nm di TSMC...comincia a trapelare qualcosa anche se ancora non capisco la notizia che parte in apertura con l utilizzo dei 12nm per amper eppoi parla di 5nm prima dei 7nm:mbe:
AceGranger
25-10-2019, 10:43
Nvidia wouldn't be able to count on it, I reckon, especially since they tend to have the ... they'll go with both, probably the entry ampere cards will stay on 12nm. La notizia postata da un noto sito inizia cosi...poi aprendo la pagina continua con...TSMC ha pubblicato una trascrizione dei risultati trimestrali e qui è possibile trovare anche informazioni interessanti. Conferma che la produzione in serie di chip da 5 nm è prevista per il secondo trimestre del 2020 e sta già lavorando alla sua produzione sperimentale
TSMC è anche ottimista circa lo stato di avanzamento del processo a 5 nm e si aspetta che la produzione di massa sia più rapida e fluida di quanto non fosse il caso dei chip da 7 nm introdotti nel 2018. La società ha aumentato i costi e il budget di investimento da 10 a 11 miliardi di dollari USA a Da 14 a 15 miliardi, ed è proprio a causa di questi investimenti che i chip da 5 nm dovrebbero uscire dalla linea più velocemente rispetto al processo di produzione precedente.
Nella discussione, TSMC riferisce che esiste principalmente un mercato per gli smartphone, oltre al "calcolo ad alte prestazioni", che punta quindi a social network e server desktop / server a 5 nm. Ad esempio, circolano voci che Apple produrrà le sue nuove soc per gli iPhone 2020 sul nuovo processo a 5 nm di TSMC...comincia a trapelare qualcosa anche se ancora non capisco la notizia che parte in apertura con l utilizzo dei 12nm per amper eppoi parla di 5nm prima dei 7nm:mbe:
non capisco cosa centri TSMC; le GPU a 7nm+ di nVidia verranno prodotte da Samsung.
questo è quello che hanno detto entrambi ufficialmente dopo la firma dell'accordo.
mikael84
25-10-2019, 14:28
Nvidia wouldn't be able to count on it, I reckon, especially since they tend to have the ... they'll go with both, probably the entry ampere cards will stay on 12nm. La notizia postata da un noto sito inizia cosi...poi aprendo la pagina continua con...TSMC ha pubblicato una trascrizione dei risultati trimestrali e qui è possibile trovare anche informazioni interessanti. Conferma che la produzione in serie di chip da 5 nm è prevista per il secondo trimestre del 2020 e sta già lavorando alla sua produzione sperimentale
TSMC è anche ottimista circa lo stato di avanzamento del processo a 5 nm e si aspetta che la produzione di massa sia più rapida e fluida di quanto non fosse il caso dei chip da 7 nm introdotti nel 2018. La società ha aumentato i costi e il budget di investimento da 10 a 11 miliardi di dollari USA a Da 14 a 15 miliardi, ed è proprio a causa di questi investimenti che i chip da 5 nm dovrebbero uscire dalla linea più velocemente rispetto al processo di produzione precedente.
Nella discussione, TSMC riferisce che esiste principalmente un mercato per gli smartphone, oltre al "calcolo ad alte prestazioni", che punta quindi a social network e server desktop / server a 5 nm. Ad esempio, circolano voci che Apple produrrà le sue nuove soc per gli iPhone 2020 sul nuovo processo a 5 nm di TSMC...comincia a trapelare qualcosa anche se ancora non capisco la notizia che parte in apertura con l utilizzo dei 12nm per amper eppoi parla di 5nm prima dei 7nm:mbe:
La produzione in massa dei 5nm (TSMC) dovrebbe partire dal q2 2020, non c'entra nulla con samsung 7nm di nvidia.:)
thunderforce83
27-10-2019, 17:27
non capisco cosa centri TSMC; le GPU a 7nm+ di nVidia verranno prodotte da Samsung.
questo è quello che hanno detto entrambi ufficialmente dopo la firma dell'accordo.
La produzione in massa dei 5nm (TSMC) dovrebbe partire dal q2 2020, non c'entra nulla con samsung 7nm di nvidia.:)
ovviamente non sono parole scritte da me, vi ho dato il sunto di una pagina che praticamente prima di cliccarci sopra aveva questo prologo "Nvidia wouldn't be able to count on it, I reckon, especially since they tend to have the ... they'll go with both, probably the entry ampere cards will stay on 12nm"poi il resto di quello che ho scritto era la traduzione del testo non cose scritte da me, ovviamente puo' essere difficile che le prossime siano ancora a 12nm ma semplicemente sto mettendo tutte le notizie che trovo su nvidia ampere:)
Trovato un articoletto su Ampere, rispetto alle prime Turing merda qui preannunciano roba buona!
Nvidia GeForce RTX 3000 “Ampere”: come saranno? (https://www.tomshw.it/hardware/nvidia-geforce-rtx-3000-ampere/)
"sembra che Nvidia voglia fare qualcosa per mitigare una delle criticità di questa generazione, ossia i prezzi troppo alti."
"clock di 100-200 MHz superiore pur consumando meno"
"enorme aumento delle prestazioni con il ray tracing"
"7 nanometri EUV (Nvidia dovrebbe rivolgersi sia a Samsung che TSMC)"
TigerTank
31-10-2019, 08:36
Trovato un articoletto su Ampere, rispetto alle prime Turing merda qui preannunciano roba buona!
Nvidia GeForce RTX 3000 “Ampere”: come saranno? (https://www.tomshw.it/hardware/nvidia-geforce-rtx-3000-ampere/)
"sembra che Nvidia voglia fare qualcosa per mitigare una delle criticità di questa generazione, ossia i prezzi troppo alti."
"clock di 100-200 MHz superiore pur consumando meno"
"enorme aumento delle prestazioni con il ray tracing"
"7 nanometri EUV (Nvidia dovrebbe rivolgersi sia a Samsung che TSMC)"
In pratica di tutto tranne che abbassare i prezzi :asd:
fabietto27
31-10-2019, 09:15
Esatto..proprio Quelo ahahahhttps://uploads.tapatalk-cdn.com/20191031/15ea06baa8a2b458cbcb45dc867c2917.jpg
Inviato dal mio OnePlus 7 Pro utilizzando Tapatalk
Jeetkundo
16-11-2019, 14:00
Rumor:
NVIDIA Next Generation Hopper GPU Leaked – Based On MCM Design, Launching After Ampere
https://wccftech.com/nvidia-hopper-gpu-mcm-leaked/
Qui si sa a malapena di ampere e già ci facciamo le pippe mentali sulla prossima gen...
Ale55andr0
20-11-2019, 13:00
https://wccftech.com/nvidia-geforce-rtx-2080-ti-full-tu102-gpu-16-gbps-gddr6-memory/
thunderforce83
20-11-2019, 22:53
https://wccftech.com/nvidia-geforce-rtx-2080-ti-full-tu102-gpu-16-gbps-gddr6-memory/
a me personalmente questo passaggio non conviene:)
fireradeon
24-11-2019, 21:16
https://wccftech.com/nvidia-geforce-rtx-2080-ti-full-tu102-gpu-16-gbps-gddr6-memory/
Si ma in soldoni rispetto alla 2080ti liscia quanto dovrebbe andare di più? 10%? 15%? Allo stesso prezzo?
Può invogliare qualche scimmiato, ma oramai si aspetta Ampere
fraussantin
25-11-2019, 06:14
Può invogliare qualche scimmiato, ma oramai si aspetta AmpereSì , bisognerà vedere che strategia adotterà Nvidia per ampere.
Se farà uscire tutta la linea subito ma "devastata" , o se farà uscire prima la 3080 e poi un anno dopo la 3080ti
In ogni caso una 3080 dovrebbe andare cmq meglio di questa sia come cuda che come RT
TigerTank
25-11-2019, 08:58
La cosa sicura è che arriverà una 3080 che andrà di più, non solo di base ma anche(anzi direi soprattutto) a livello di gestione ray tracing. E se anche costasse 800€ ammazzerebbe il valore delle attuali 2080Ti. Per cui secondo me una 2080Ti Super avrebbe davvero ormai poco senso.
Più le nuove vga costano e più crollano di valore all'uscita delle successive, peggio ancora se con un arco di vita molto breve. Salvo uno se la tenga ad oltranza, ma qui parliamo appunto anche di ray tracing e l'evoluzione del comparto rt cores peserà non poco.
thunderforce83
26-11-2019, 22:24
mi sa tanto che noi possessori di 2080ti dovremo prepararci ad una bella batosta per quando dovremo passare ad ampere:O
fireradeon
26-11-2019, 22:35
mi sa tanto che noi possessori di 2080ti dovremo prepararci ad una bella batosta per quando dovremo passare ad ampere:O
Nel senso che la VGA non varrà niente? :p
TigerTank
27-11-2019, 07:59
mi sa tanto che noi possessori di 2080ti dovremo prepararci ad una bella batosta per quando dovremo passare ad ampere:O
Eh ma questo è sempre successo, più sono overpriced e più poi si deprezzano nel valore quando ormai "vecchie e superate" :)
Qui si sa a malapena di ampere e già ci facciamo le pippe mentali sulla prossima gen...molto probabile che ampere sia il successore di volta in ambito pro e hooper di turing
Imho
mircocatta
27-11-2019, 13:17
Eh ma questo è sempre successo, più sono overpriced e più poi si deprezzano nel valore quando ormai "vecchie e superate" :)
vero ma a questo giro anche di più.
nulla di inaspettato eh, era immaginabile che il primo chip con RTcore (il tutto a 12nm) sarebbe stato massacrato dalla serie successiva
i soldi son vostri ma già un anno fa c'era ben più di un motivo per evitare questa serie RTX imho :O
DarkNiko
27-11-2019, 15:03
mi sa tanto che noi possessori di 2080ti dovremo prepararci ad una bella batosta per quando dovremo passare ad ampere:O
Bisogna sempre accettare le conseguenze delle proprie azioni e mettere in preventivo che tutto si evolve e il vecchio (tecnologicamente parlando) si deprezza. E' sempre accaduto e sempre accadrà.
Il problema semmai è a monte e cioè domandarsi, di tanto in tanto, se valga la pena pagare una scheda ben oltre il suo reale valore, consapevoli che, più paghi la cresta che NVidia e/o i vari esercizi commerciali praticano e maggiore sarà la perdita/svalutazione una volta che la scheda sarà tecnologicamente superata.
Venirsi a lamentare a posteriori fa sorridere, tutto qui. ;)
Beh se da una 2080 riesco a farci 400£ (difficile) mi riterrò fortunato visto che voglio prendere una bella eventuale 3080ti alla prossima, sarei rimasto su Pascal ma la scheda si è rotta per cui ho optato per una 2080liscia invece della TI sapendo che avrei fatto il passaggio ad Ampere
vero ma a questo giro anche di più.
nulla di inaspettato eh, era immaginabile che il primo chip con RTcore (il tutto a 12nm) sarebbe stato massacrato dalla serie successiva
i soldi son vostri ma già un anno fa c'era ben più di un motivo per evitare questa serie RTX imho :O
Beh dipende dal caso. Io sono contento dei 500 euro spesi a febbraio per la mia 2070 che NON cambierò prima di 24 mesi +-.
E c'erano anche dei motivi per sceglierla rispetto a una 1080 o 1080ti ;)
DarkNiko
27-11-2019, 19:21
Beh dipende dal caso. Io sono contento dei 500 euro spesi a febbraio per la mia 2070 che NON cambierò prima di 24 mesi +-.
E c'erano anche dei motivi per sceglierla rispetto a una 1080 o 1080ti ;)
La tua è stata una scelta senz'ombra di dubbio saggia e ben bilanciata. Discorso diverso per chi si è lasciato violentare da NVidia (alias scimmia) pagando 1300€ una RTX 2080Ti che non è mai valsa i soldi che chiedono. :)
bagnino89
27-11-2019, 19:55
Beh dipende dal caso. Io sono contento dei 500 euro spesi a febbraio per la mia 2070 che NON cambierò prima di 24 mesi +-.
E c'erano anche dei motivi per sceglierla rispetto a una 1080 o 1080ti ;)
Tu venivi da una 970, vero? Con la 2070 hai avuto un salto sensibile.
Chi però come me ha una 1080, non ha margine di manovra al momento - a meno di farsi violentare :asd:
TigerTank
27-11-2019, 20:08
La tua è stata una scelta senz'ombra di dubbio saggia e ben bilanciata. Discorso diverso per chi si è lasciato violentare da NVidia (alias scimmia) pagando 1300€ una RTX 2080Ti che non è mai valsa i soldi che chiedono. :)
Diciamo che è valsa la pena se uno l'ha sfruttata per benino, la sfrutta e la sfrutterà ad oltranza più per le prestazioni pure di base che per il ray tracing. :)
Pure io presi una 2080(con imposizione di costo sotto le 800€) in sostituzione di 2 1070 in SLi che appunto in tale modalità con i primi giochi dx12 davano più problemi che altro.
A prestazioni mi sta dando tante soddisfazioni mentre il ray tracing sarà cosa da rimandare a tempi futuri, per ora giusto da provare :D
Più che altro da considerare il fatto che al momento il "gsync compatibile" che si sta diffondendo mi pare funzioni però solo con le turing.
Tu venivi da una 970, vero? Con la 2070 hai avuto un salto sensibile.
Chi però come me ha una 1080, non ha margine di manovra al momento - a meno di farsi violentare :asd:
Cavoli, come mai? Convinto che avevi una 2080Ti! :eek:
bagnino89
27-11-2019, 20:20
Cavoli, come mai? Convinto che avevi una 2080Ti! :eek:
Se vinco al lotto, pure pure :asd:
Scherzi a parte, non spenderei mai una cifra simile per una GPU. Due anni or sono presi la 1080 a quasi 500 EUR - buon prezzo all'epoca, e non intendo varcare tale soglia.
Fortuna santo G-SYNC che viene in grande aiuto.
TigerTank
27-11-2019, 20:38
Se vinco al lotto, pure pure :asd:
Scherzi a parte, non spenderei mai una cifra simile per una GPU. Due anni or sono presi la 1080 a quasi 500 EUR - buon prezzo all'epoca, e non intendo varcare tale soglia.
Fortuna santo G-SYNC che viene in grande aiuto.
Mi sa che forse finora ti ho scambiato erroneamente per un altro utente :sofico:
No comunque c'è sempre un limite....auguriamoci che le prossime non siano pure peggio delle attuali :mc:
DarkNiko
27-11-2019, 20:42
Diciamo che è valsa la pena se uno l'ha sfruttata per benino, la sfrutta e la sfrutterà ad oltranza più per le prestazioni pure di base che per il ray tracing. :)
In linea di massima sono d'accordo con te, ma indipendentemente dalla lungimiranza o meno dei propri acquisti, spendere 1300 euro per un prodotto che non li vale minimamente la trovo una follia e non è una questione soggettiva, è proprio il caro prezzi imposto da NVidia che non ha ragione d'essere e non è accettabile la scusa tutta commerciale che non esiste la concorrenza e lo dico anche con forte senso autocritico, visto che anch'io caddi nella trappola dei prezzi con la Titan X che ho in firma (serie Maxwell) e che ho ancora felicemente sotto, pagata 1000 euro e non li valeva/vale per la stessa analoga ragione. :)
P.S. Tra l'altro ora se la vendessi la dovrei letteralmente regalare. :D
TigerTank
27-11-2019, 20:50
In linea di massima sono d'accordo con te, ma indipendentemente dalla lungimiranza o meno dei propri acquisti, spendere 1300 euro per un prodotto che non li vale minimamente la trovo una follia e non è una questione soggettiva, è proprio il caro prezzi imposto da NVidia che non ha ragione d'essere e non è accettabile la scusa tutta commerciale che non esiste la concorrenza e lo dico anche con forte senso autocritico, visto che anch'io caddi nella trappola dei prezzi con la Titan X che ho in firma (serie Maxwell) e che ho ancora felicemente sotto, pagata 1000 euro e non li valeva/vale per la stessa analoga ragione. :)
P.S. Tra l'altro ora se la vendessi la dovrei letteralmente regalare. :D
Il punto è che purtroppo il più delle volte passione e razionalità sono 2 mondi diversi...e la scimmia vince a dispetto di tutto :sofico:
Altri invece si pongono dei paletti più o meno rigidi.
In linea di massima sono d'accordo con te, ma indipendentemente dalla lungimiranza o meno dei propri acquisti, spendere 1300 euro per un prodotto che non li vale minimamente la trovo una follia e non è una questione soggettiva, è proprio il caro prezzi imposto da NVidia che non ha ragione d'essere e non è accettabile la scusa tutta commerciale che non esiste la concorrenza e lo dico anche con forte senso autocritico, visto che anch'io caddi nella trappola dei prezzi con la Titan X che ho in firma (serie Maxwell) e che ho ancora felicemente sotto, pagata 1000 euro e non li valeva/vale per la stessa analoga ragione. :)
P.S. Tra l'altro ora se la vendessi la dovrei letteralmente regalare. :D
concordo con te pienamente. Io dopo la 780ti , fiutando la questione prezzi, mi promisi di non comprare + una top di gamma proprio per questo motivo. E mi sono pentito anche lato cpu.
mikael84
27-11-2019, 23:08
Se vinco al lotto, pure pure :asd:
Scherzi a parte, non spenderei mai una cifra simile per una GPU. Due anni or sono presi la 1080 a quasi 500 EUR - buon prezzo all'epoca, e non intendo varcare tale soglia.
Fortuna santo G-SYNC che viene in grande aiuto.
2070 super o 1080ti usata al momento, ma a cambio nodo è davvero difficile far prevalere la scimmia.
La prossima generazione rottamerà letteralmente queste.
concordo con te pienamente. Io dopo la 780ti , fiutando la questione prezzi, mi promisi di non comprare + una top di gamma proprio per questo motivo. E mi sono pentito anche lato cpu.
Io invece l'unica volta che non l'ho presa (1080ti), mi sono pentito come pochi.:p
Con le CPU il best è sempre stato il 9700k.
Io invece l'unica volta che non l'ho presa (1080ti), mi sono pentito come pochi.:p
Con le CPU il best è sempre stato il 9700k.
credo che tu intenda una 1080ti usata, quando gia era uscita la serie 2xxx ?
lato cpu, avevo un 5820k che soprattutto ora che sono passato al 1440p non ho notato per niente differenze col 9900k. Solo lato temp....
TigerTank
28-11-2019, 09:11
Io invece l'unica volta che non l'ho presa (1080ti), mi sono pentito come pochi.:p
Con le CPU il best è sempre stato il 9700k.
Soprattutto quando ci furono occasioni come quella Evga del back to school 2018 dove per 750€ ti davano una 1080Ti SC2 + un alimentatore di qualità e il powerlink :D
Poi a vedere i prezzi delle rtx ci mangiammo le dita per un pò :sofico:
mikael84
28-11-2019, 11:15
credo che tu intenda una 1080ti usata, quando gia era uscita la serie 2xxx ?
lato cpu, avevo un 5820k che soprattutto ora che sono passato al 1440p non ho notato per niente differenze col 9900k. Solo lato temp....
Intendevo la 1080ti nel monento d'uscita. Ora la 1080 è difficile da sostituire e non mi soddisfa appieno.
E' stata l'unica top davvero longeva.:)
Riguardo la CPU, il problema è lo squilibrio dei componenti, per una 1070 un 9900k è decisamente sprecato.
In ogni caso ti copri per Ampere.:)
Soprattutto quando ci furono occasioni come quella Evga del back to school 2018 dove per 750€ ti davano una 1080Ti SC2 + un alimentatore di qualità e il powerlink :D
Poi a vedere i prezzi delle rtx ci mangiammo le dita per un pò :sofico:
Esatto, ma anche pre mining si trovavano discrete 1080ti. Quella bella occata fa ancora la sua figura:)
Ale55andr0
28-11-2019, 20:05
Ora la 1080 è difficile da sostituire e non mi soddisfa appieno.
dillo a me, con una quasi (ex) top di gamma sono di nuovo in fascia fermacarte, così come fu per la 290 all'epoca :asd:
e mai avrei creduto che in così poco tempo il mio procio (ancora in garanzia) sarebbe valso quanto na patacca bucata quando all'acquisto 340 spedito era un affarone megagalattico :asd:
dillo a me, con una quasi (ex) top di gamma sono di nuovo in fascia fermacarte, così come fu per la 290 all'epoca :asd:
e mai avrei creduto che in così poco tempo il mio procio (ancora in garanzia) sarebbe valso quanto na patacca bucata quando all'acquisto 340 spedito era un affarone megagalattico :asd:
Beh no dai, la 290 fu l'ultima vga seria di AMD: con 340 euro presi la TRI-X che uso ancora oggi dopo 5 anni: non mi pare niente male no?
Sono le vga di oggi che ormai costano una vergogna (Turing) oppure vanno una vergogna (5700 e combricola) :muro: :muro: :muro:
Ale55andr0
28-11-2019, 21:50
Beh no dai, la 290 fu l'ultima vga seria di AMD: con 340 euro presi la TRI-X che uso ancora oggi dopo 5 anni: non mi pare niente male no?
Sono le vga di oggi che ormai costano una vergogna (Turing) oppure vanno una vergogna (5700 e combricola) :muro: :muro: :muro:
si, ma oggi quello è il suo livello, fascia bassa, e la mia 1080 mediobassa, con tendenza a scendere :asd:
L'annata migliore fu quella della 7970 che mi durò diversi anni rimanendo di ottimo livello
mikael84
28-11-2019, 23:13
dillo a me, con una quasi (ex) top di gamma sono di nuovo in fascia fermacarte, così come fu per la 290 all'epoca :asd:
Infatti l'unica top di gamma che ha veramente retto a sto giro è la 1080ti, grazie alla mancata concorrenza e quindi al salto di fascia delle relative schede.
L'unica top che ho saltato è stata la migliore. Scheda che sta sotto in alcuni game rispetto alle turing, ma nella maggior parte dei titoli è simile alla 2080, considerando che per via del TDP la scheda stock boosta 200-250 mhz in meno, a pari clock è diverso.:)
e mai avrei creduto che in così poco tempo il mio procio (ancora in garanzia) sarebbe valso quanto na patacca bucata quando all'acquisto 340 spedito era un affarone megagalattico :asd:
Ora prendi un 3700x a 350 e fai 700 euro per una CPU, quando magari un 8700k stava a 300 (e con l'integrata):p
Se lo scopo è solo gaming dovevi informarti meglio, poi quella serie in beta, dove hanno cannato completamente i cicli di cache. Buono in rendering ma in gaming...:)
fraussantin
28-11-2019, 23:32
dillo a me, con una quasi (ex) top di gamma sono di nuovo in fascia fermacarte, così come fu per la 290 all'epoca :asd:
e mai avrei creduto che in così poco tempo il mio procio (ancora in garanzia) sarebbe valso quanto na patacca bucata quando all'acquisto 340 spedito era un affarone megagalattico :asd:
amd si svaluta velocemente nel bene e nel male che sia ..
stringi i denti e fra 8 mesi prenderai un 3700 a 199 euro imho.
io penso alla gente che si sta prendendo un 3950 , ma anche il 3900 adesso con quello che costa e fra 2 anni con ddr5 dirà la stessa cosa.
e almeno adesso amd va bene anche in game.
nessuno29
29-11-2019, 08:31
dillo a me, con una quasi (ex) top di gamma sono di nuovo in fascia fermacarte, così come fu per la 290 all'epoca :asd:
e mai avrei creduto che in così poco tempo il mio procio (ancora in garanzia) sarebbe valso quanto na patacca bucata quando all'acquisto 340 spedito era un affarone megagalattico :asd:
Si chiama avanzamento tecnologico, in 3 anni siamo andati così avanti con le prestazioni anno dopo anno ed è stato fantastico, non si vedeva una roba del genere da 15 anni. Lo stallo mantiene i prezzi ovviamente, però secondo me meglio così, almeno quando si cambia si percepisce veramente la novità.
Pensa qualche anno fa passare da un 3770k ad un 7700k ma che schifo, ora invece in meno tempo potresti prendere un 3950x assurdo.
Ora prendi un 3700x a 350 e fai 700 euro per una CPU, quando magari un 8700k stava a 300 (e con l'integrata):p
Se lo scopo è solo gaming dovevi informarti meglio, poi quella serie in beta, dove hanno cannato completamente i cicli di cache. Buono in rendering ma in gaming...:)
Anche in gaming un 1700x non è male, ed è upgradabile, secondo me invece non ha sbagliato anzi, volendo potrebbe passare ad un 3950x o un ryzen 3 l'anno prossimo. Con un 8700k l'unico upgrade possibile sarebbe con un fornetto a 14nm che l'anno prossimo nessuno cagherà più.
Spider-Mans
29-11-2019, 13:19
novita su 3080ti e 3080?
prezzi? :asd:
fraussantin
29-11-2019, 13:27
Si chiama avanzamento tecnologico, in 3 anni siamo andati così avanti con le prestazioni anno dopo anno ed è stato fantastico, non si vedeva una roba del genere da 15 anni. Lo stallo mantiene i prezzi ovviamente, però secondo me meglio così, almeno quando si cambia si percepisce veramente la novità.
Pensa qualche anno fa passare da un 3770k ad un 7700k ma che schifo, ora invece in meno tempo potresti prendere un 3950x assurdo.
Anche in gaming un 1700x non è male, ed è upgradabile, secondo me invece non ha sbagliato anzi, volendo potrebbe passare ad un 3950x o un ryzen 3 l'anno prossimo. Con un 8700k l'unico upgrade possibile sarebbe con un fornetto a 14nm che l'anno prossimo nessuno cagherà più.L'8700 é sicuramente preferibile al 1700x.
Non c'é storia.
Ma se non sbaglio é uscito dopo.
Il 1700 se la giocava con il 7700.
Ale55andr0
29-11-2019, 14:41
L'8700 é sicuramente preferibile al 1700x.
Non c'é storia.
Ma se non sbaglio é uscito dopo.
Il 1700 se la giocava con il 7700.
il mio è un 1700x (per quel che vale), ed è occato, considera che in game dai 4ghz di un ryzen ai 5ghz di un intel nella maggior parte dei bench dal 1440p in su cambia molto poco, nulla che mini in alcun modo il gameplay. Conta molto più la gpu... io comunque parlavo più in generale, la mia cpu in 2 anni non vale più un mazzo, tutto li'. C'è di buono che praticamente potrò montare sino alla serie 4000 mantenendo tutto il resto :sofico: solo che a rivendere la cpu recupero na miseria :asd:
bof... io sto ancora con un i7-3770K (@4.5Ghz) che con la 1080ti rulla ancora da fare schifo... :O
mircocatta
29-11-2019, 19:06
bof... io sto ancora con un i7-3770K (@4.5Ghz) che con la 1080ti rulla ancora da fare schifo... :O
batti 5 fraté :D :D
Ale55andr0
29-11-2019, 21:25
bof... io sto ancora con un i7-3770K (@4.5Ghz) che con la 1080ti rulla ancora da fare schifo... :O
merito della 1080ti :read:
DJurassic
29-11-2019, 21:48
Parlando di Ampere in relazione alla CPU, secondo voi un 8700K può andar bene o meglio optare per qualcosa di meglio?
Sinceramente non mi sembra ci sia tutto st'avanzamento tecnologico visto che la legge di Moore è svanita
Parlando di Ampere in relazione alla CPU, secondo voi un 8700K può andar bene o meglio optare per qualcosa di meglio?Secondo me andrai bene sarà opportuno cambiare all'uscita della serie 4000
mikael84
29-11-2019, 23:18
Anche in gaming un 1700x non è male, ed è upgradabile, secondo me invece non ha sbagliato anzi, volendo potrebbe passare ad un 3950x o un ryzen 3 l'anno prossimo. Con un 8700k l'unico upgrade possibile sarebbe con un fornetto a 14nm che l'anno prossimo nessuno cagherà più.
Beh insomma, negli unreal se la gioca con il 2500k stock. Se non è male questo non so.
Sugli upgrade si, ma lui ha cambiato mobo, se non sbaglio con le prime mobo non c'è piena compatibilità.
Con l'8700k OC avrebbe prestazioni mediamente superiori anche agli attuali ryzen, non serve cambiare nulla.
novita su 3080ti e 3080?
prezzi? :asd:
Probabile q2 2020.
Prima l'HPC poi il gaming.:)
Sui prezzi, si dovrebbero mantenere sugli attuali, ma con un buon salto per fascia.
Parlando di Ampere in relazione alla CPU, secondo voi un 8700K può andar bene o meglio optare per qualcosa di meglio?
Si:)
L'8700 é sicuramente preferibile al 1700x.
Non c'é storia.
Ma se non sbaglio é uscito dopo.
Il 1700 se la giocava con il 7700.
Diciamo che se fossero sfruttati tutti i core, quella CPU potrebbe anche giocarsela con una CPU simile, ma ora come ora, spesso neppure i ryzen nuovi lo battono.
Guarda te stesso, sui vari giochi:)
https://gamegpu.com/
Ale55andr0
29-11-2019, 23:48
aridaje, il mio è occato, e aridaje, sopra 4ghz nessuna cpu fa differenze apprezzabili dal 1440p in su :read:
col 2500k mi ci pulisco il :ciapet: :D
/OT
mikael84
30-11-2019, 00:02
aridaje, il mio è occato, e aridaje, sopra 4ghz nessuna cpu fa differenze apprezzabili dal 1440p in su :read:
col 2500k mi ci pulisco il :ciapet: :D
/OT
Occato:p
Cmq sono nella tua stessa situazione, ora come ora 2070 super, c'è poco da fare, altrimenti si attende Ampere.:)
DJurassic
30-11-2019, 00:41
Secondo me andrai bene sarà opportuno cambiare all'uscita della serie 4000
Si:)
Perfetto. Un pensiero in meno :)
SuperCiuk77
30-11-2019, 07:26
Ciao ragazzi,c'è uno youtuber(addentrato nelle company) che seguo che prospetta una ipotetica 3080 o 3080Ti col DOPPIO delle prestazioni rispetto alla 2080Ti.è possibile?saturerebbe la banda PCIE 3.0?:)
fraussantin
30-11-2019, 08:03
Ciao ragazzi,c'è uno youtuber(addentrato nelle company) che seguo che prospetta una ipotetica 3080 o 3080Ti col DOPPIO delle prestazioni rispetto alla 2080Ti.è possibile?saturerebbe la banda PCIE 3.0?:)E percaso adoredTV?
:asd:
Diciamo che se fossero sfruttati tutti i core, quella CPU potrebbe anche giocarsela con una CPU simile, ma ora come ora, spesso neppure i ryzen nuovi lo battono.
Guarda te stesso, sui vari giochi:)
https://gamegpu.com/
Questo é vero , ma per fortuna la situazione sta cambiando :
Tw3 sul 4690 mi saturava tutti e 4 i core, sul 3700x me ne usava 1 solo al 100% e un secondo a 30% .
Ovviamente nessun collo nei bottiglia la gpu volava liscia. Ma la situazione era strana.
Invece I nuovi AC , e rdr2 usano tutti e 16 i 3d in maniera forse diversa , qualcuno di piú altri di meno , ma 0% non ne vedo mai se non durante i caricamenti.
Le vendite di AMD in questi mesi potrebbero portare gli sviluppatori cambiare il modo di programmare gli engine.
In ogni caso la 2070 sta sempre a manetta con tutti i giochi .
Spero vivamente che Intel , magari appoggiandosi ad altre fonderie tipo Samsung, riesca a fare qualcosa di buono e nuovo , perche senza una competizione vera amd alzerà i prezzi ancora di piú.( Basta vedere i giochini che ha fatto con le x570 , le navi , e i processori enthusiast)
Spero anche , come detto da altri , che amd investa le enormi entrate di questi mesi in RGT .. perché con un chip minuscolo non puoi tirare in lungo.
Serve una lineup completa per alzare le quote .
il mio è un 1700x (per quel che vale), ed è occato, considera che in game dai 4ghz di un ryzen ai 5ghz di un intel nella maggior parte dei bench dal 1440p in su cambia molto poco, nulla che mini in alcun modo il gameplay. Conta molto più la gpu... io comunque parlavo più in generale, la mia cpu in 2 anni non vale più un mazzo, tutto li'. C'è di buono che praticamente potrò montare sino alla serie 4000 mantenendo tutto il resto :sofico: solo che a rivendere la cpu recupero na miseria :asd:
Sempre se non ci fanno lo scherzetto come sui threadripper.
Anche lì non ci crede nessuno che non potesse supportare il vecchio socket. Ha messo un 3950 su una am4 vecchia di 3 anni.. É un altra dimostrazione di quello che dicevo.
Cmq si l'idea mia era quella , tenermelo finché va e poi prendere fra qualche anno un 4900x in supersaldo se meriterà.
mattxx88
30-11-2019, 08:28
Spero vivamente che Intel , magari appoggiandosi ad altre fonderie tipo Samsung, riesca a fare qualcosa di buono e nuovo , perche senza una competizione vera amd alzerà i prezzi ancora di piú.
Mi preoccuperei di più che AMD mantenga sta linea negli anni, ad Intel non manca nulla per poter recuperare
fraussantin
30-11-2019, 08:53
Mi preoccuperei di più che AMD mantenga sta linea negli anni, ad Intel non manca nulla per poter recuperareIntel recupererà di sicuro , ma se non si sbriga sai cosa succede:
che amd la prossima lineup la alzerà ancora di prezzo e forse anche le x670 saliranno e quando Intel arriverà con un prodotto migliore lo piazzerà ad un prezzo ancora maggiore.
Se poi questo prodotto sarà ddr5 costerà un rene la cpu , la mobo e le RAM.. Addio noi..
SuperCiuk77
30-11-2019, 09:12
E percaso adoredTV?
:asd:
Questo é vero , ma per fortuna la situazione sta cambiando :
Tw3 sul 4690 mi saturava tutti e 4 i core, sul 3700x me ne usava 1 solo al 100% e un secondo a 30% .
Ovviamente nessun collo nei bottiglia la gpu volava liscia. Ma la situazione era strana.
Invece I nuovi AC , e rdr2 usano tutti e 16 i 3d in maniera forse diversa , qualcuno di piú altri di meno , ma 0% non ne vedo mai se non durante i caricamenti.
Le vendite di AMD in questi mesi potrebbero portare gli sviluppatori cambiare il modo di programmare gli engine.
In ogni caso la 2070 sta sempre a manetta con tutti i giochi .
Spero vivamente che Intel , magari appoggiandosi ad altre fonderie tipo Samsung, riesca a fare qualcosa di buono e nuovo , perche senza una competizione vera amd alzerà i prezzi ancora di piú.( Basta vedere i giochini che ha fatto con le x570 , le navi , e i processori enthusiast)
Spero anche , come detto da altri , che amd investa le enormi entrate di questi mesi in RGT .. perché con un chip minuscolo non puoi tirare in lungo.
Serve una lineup completa per alzare le quote .
Sempre se non ci fanno lo scherzetto come sui threadripper.
Anche lì non ci crede nessuno che non potesse supportare il vecchio socket. Ha messo un 3950 su una am4 vecchia di 3 anni.. É un altra dimostrazione di quello che dicevo.
Cmq si l'idea mia era quella , tenermelo finché va e poi prendere fra qualche anno un 4900x in supersaldo se meriterà.
:D ...no,è un siciliano,tale Geekhomegamer
puppatroccolo
30-11-2019, 11:09
Voi parlate di 1080 e io ho ancora una 750ti e non mi decido a cambiarla. Volevo prendere una 1660ti con il venerdì nero e il lunedì cibernetico, ma amazon ha solo zozzerie sovrapprezzate.
Mi preoccuperei di più che AMD mantenga sta linea negli anni, ad Intel non manca nulla per poter recuperare
bah... intanto mi sa che anche con la 10' generazione ha toppato (e non poco) :fagiano:
https://www.hwupgrade.it/articoli/cpu/5572/intel-core-i9-10980xe-la-cpu-core-x-di-decima-generazione_index.html
bah... intanto mi sa che anche con la 10' generazione ha toppato (e non poco) :fagiano:
https://www.hwupgrade.it/articoli/cpu/5572/intel-core-i9-10980xe-la-cpu-core-x-di-decima-generazione_index.html
E la terza generazione di cpu amd ringrazia... :stordita:
https://www.hwupgrade.it/articoli/cpu/5573/amd-ryzen-threadripper-3970x-32-core-che-ora-vanno-al-massimo_index.html
mikael84
30-11-2019, 12:03
Ciao ragazzi,c'è uno youtuber(addentrato nelle company) che seguo che prospetta una ipotetica 3080 o 3080Ti col DOPPIO delle prestazioni rispetto alla 2080Ti.è possibile?saturerebbe la banda PCIE 3.0?:)
Puoi passarmi il video?
Cmq per ora dovrebbe essere una fase tock con un 50% circa e varie migliorie RT, per poi passare al MCM con cambio architetturale, con capacità sino a 8144cc, 128/256 rop's e 512bit (4096 hbm).
Qualcosa lo si potrà vedere al rilascio del chip HPC post GV100 tesla, che sarà il primo a debuttare.:)
Intel recupererà di sicuro , ma se non si sbriga sai cosa succede:
che amd la prossima lineup la alzerà ancora di prezzo e forse anche le x670 saliranno e quando Intel arriverà con un prodotto migliore lo piazzerà ad un prezzo ancora maggiore.
Se poi questo prodotto sarà ddr5 costerà un rene la cpu , la mobo e le RAM.. Addio noi..
Questo succederà sempre quando ti trovi ad inseguire. Se AMD rimarrà sola per un periodo, farà l' nvidia di turno.
Lato GPU nel 2020 mi aspetto però un bel duello tra rdna2 e 3080, con la 3070 che farà fare il salto a chiunque sia rimasto fermo (io) a prezzi decenti.
SuperCiuk77
30-11-2019, 12:46
Puoi passarmi il video?
Cmq per ora dovrebbe essere una fase tock con un 50% circa e varie migliorie RT, per poi passare al MCM con cambio architetturale, con capacità sino a 8144cc, 128/256 rop's e 512bit (4096 hbm).
Qualcosa lo si potrà vedere al rilascio del chip HPC post GV100 tesla, che sarà il primo a debuttare.:)
Questo succederà sempre quando ti trovi ad inseguire. Se AMD rimarrà sola per un periodo, farà l' nvidia di turno.
Lato GPU nel 2020 mi aspetto però un bel duello tra rdna2 e 3080, con la 3070 che farà fare il salto a chiunque sia rimasto fermo (io) a prezzi decenti.
Ciao Mike,personaggio un pò borderline,ma sà il fatto suo,https://www.youtube.com/watch?v=t5Ury8sXSJQ al minuto 4:50.Poi in altri video rimarca la cosa.Io mi ponevo il problema,poichè dovesse esserci la saturazione della PCIe3.0,mi ritroverei a cambiare configurazione per sfruttare la scheda.Io penso più ragionevolmente che verrà proposto un aumento di performance come fù dalla 980Ti alla 1080Ti,sarei già contento e finalmente si potrebbe guardare al 4K con alti fps
Lato GPU nel 2020 mi aspetto però un bel duello tra rdna2 e 3080, con la 3070 che farà fare il salto a chiunque sia rimasto fermo (io) a prezzi decenti.
Ma non hai una 2070 tu… ricordo male?
Che gap prevedi tra queste due?
mikael84
30-11-2019, 14:39
Ciao Mike,personaggio un pò borderline,ma sà il fatto suo,https://www.youtube.com/watch?v=t5Ury8sXSJQ al minuto 4:50.Poi in altri video rimarca la cosa.Io mi ponevo il problema,poichè dovesse esserci la saturazione della PCIe3.0,mi ritroverei a cambiare configurazione per sfruttare la scheda.Io penso più ragionevolmente che verrà proposto un aumento di performance come fù dalla 980Ti alla 1080Ti,sarei già contento e finalmente si potrebbe guardare al 4K con alti fps
Diciamo che è un video molto vecchio, quasi post Turing, ma il tipo è poco ferrato in materia, lo si nota dalle percentuali che spara.
Per il resto, la seconda che hai detto tu, solitamente nvidia rilascia una fase tick(cambio architetturale), ed una tock (dove affina tra più cuda e clock, come successo per pascal.
Con Pascal, il vero salto è stato dato dal clock, tra boost e boost c'è stato un 60% (1160-1860), che ovviamente in game tendeva a scendere.
Con le 7nm+ dovremmo vedere più cuda per fascia e più clock, ma senza aspettarsi simili impennate via clock.
I chip Turing per via della troppa complessità, sono stati tagliati rispetto alle tesla, e questo è uno dei problemi che ha generato lo scarso stacco.
Uno dei parametri fondamentali di ampere è il salto agli 8 GPC.
Attualmente dobbiamo aspettare il chip HPC per vedere tutti i miglioramenti, e cosa realmente aspettarci.:)
Ma non hai una 2070 tu… ricordo male?
Che gap prevedi tra queste due?
Ho una 1080.:)
Tra 2070 è 3070 possono entrare in gioco diversi fattori, in quanto la 3070 potrebbe tornare benissimo ad essere una decurtazione della 3080.
La 2070 liscia è nata come quadro RTX 2000, mentre la 2070 super, era una tesla a basso consumo.
Diciamo che almeno un 50% per fascia è ipotizzabile (alcune + alcune meno in base al progetto ingegneristico).
Dopo il rilascio della tesla si capiranno tante cose, e sinceramente non vedo l'ora di vedere il tutto.:D
fraussantin
30-11-2019, 14:43
Dipende tutto da amd e da rdna2.
Se pigia Nvidia dovrá darsi da fare ... Se sarà fiacca pretaratevi al tick tickS tock tockS
mikael84
30-11-2019, 14:53
Dipende tutto da amd e da rdna2.
Se pigia Nvidia dovrá darsi da fare ... Se sarà fiacca pretaratevi al tick tickS tock tockS
Nvidia non ha problemi, perchè rilascia tutti i chip, e da li può giocarsela come meglio crede.
Chiaramente se i chip saranno già devastati o monchi inizialmente, è lecito aspettarsi un'altra serie "tocks".
La 3070 è già pensata da nvidia, ma potrebbe anche adeguarsi al cut di RDNA2.
Prima occorre vedere il design del chip, poi vedere come ci può sguazzare.
Potrebbe non debuttare subito una 3080ti per un problema di rese, anche se, con la consolidata fascia dei 1300 euro, rilasceranno qualcosa di devastato.
fraussantin
30-11-2019, 18:45
Non ho seguito molto la cosa , ma il nuovo sharpening si attiva da pannello Nvidia? E quanto impatta? É diverso da quello su freestyle?
TigerTank
30-11-2019, 20:34
Non ho seguito molto la cosa , ma il nuovo sharpening si attiva da pannello Nvidia? E quanto impatta? É diverso da quello su freestyle?
Sì da pannello Nvidia, e dovrebbe essere lo stesso del Freestyle con la differenza appunto che il primo lo puoi usare anche se non installi tutto l'Experience.
Io però al momento, dove possibile, continuo a preferire quello del reshade(lumasharpen).
Ciao ragazzi,c'è uno youtuber(addentrato nelle company) che seguo che prospetta una ipotetica 3080 o 3080Ti col DOPPIO delle prestazioni rispetto alla 2080Ti.è possibile?saturerebbe la banda PCIE 3.0?:)
Ma magari, ma quanto costerà la 3080? 900 euro? Di più? Spero che i prezzi, alla peggio, siano in linea con quelli dello scorso anno con la serie 2000.
Ma magari, ma quanto costerà la 3080? 900 euro? Di più? Spero che i prezzi, alla peggio, siano in linea con quelli dello scorso anno con la serie 2000.
Già sperare che i prezzi siano quelli sere 2000 mi rende abbastanza triste e anche abbastanza schifato devo dire....vuol dire che sono riusciti anche a questo giro ad abituare i clienti a prezzi delle schede video allucinanti come fosse la normalità....io fortunatamente ho saltato a piè pari questa serie e ho preferito ripiegare sulla precedente Ti...ma con la prossima serie volevo cambiare...pensare che le 3xxx siano sui prezzi di queste prime RTX fa già accapponare la pelle (550€ per una xx70, 750€ per una xx80 e 1000-1100€ per una xx80Ti...e questi sono prezzi a distanza di quasi un anno dall'uscita :doh: )
fraussantin
05-12-2019, 18:56
Già sperare che i prezzi siano quelli sere 2000 mi rende abbastanza triste e anche abbastanza schifato devo dire....vuol dire che sono riusciti anche a questo giro ad abituare i clienti a prezzi delle schede video allucinanti come fosse la normalità....io fortunatamente ho saltato a piè pari questa serie e ho preferito ripiegare sulla precedente Ti...ma con la prossima serie volevo cambiare...pensare che le 3xxx siano sui prezzi di queste prime RTX fa già accapponare la pelle (550€ per una xx70, 750€ per una xx80 e 1000-1100€ per una xx80Ti...e questi sono prezzi a distanza di quasi un anno dall'uscita :doh: )Visto come sono fumate per il BF le 5700 xt sui 420 470 euro non mi aspetto regali.
Ormai si è rotto il muro delle 500 per una fascia media indietro non si torna.
Speriamo solo che con Intel no peggiori la situazione.
Non si sa ancora quando uscirà la prossima Gen?
Dato che per natale arriverà la tanto agoniata TV LG OLED mi fumano gli zebedei a non potere usare il Gsync con la mia 1080ti.:cry:
Ma di certo non vado a comprare una 2080 solo per quello dato che l'incremento prestazionale sarebbe poco o nulla. (e non avendo ancora HDMI 2.1 rimarrebbe comunque limitata a 60hz in UHD)
La TI poi rimane fuori da ogni ragionevole budget.
nico88desmo
06-12-2019, 09:39
Non si sa ancora quando uscirà la prossima Gen?
Dato che per natale arriverà la tanto agoniata TV LG OLED mi fumano gli zebedei a non potere usare il Gsync con la mia 1080ti.:cry:
Ma di certo non vado a comprare una 2080 solo per quello dato che l'incremento prestazionale sarebbe poco o nulla. (e non avendo ancora HDMI 2.1 rimarrebbe comunque limitata a 60hz in UHD)
La TI poi rimane fuori da ogni ragionevole budget.
Molto probabilmente al GTC 2020 (22 - 26 Marzo) presenteranno l'architettura HPC.
In giugno la versione gaming.
Legolas84
06-12-2019, 14:18
Se i prezzi non cambiano, con l'uscita della nuova gen sarà finalmente arrivato il momento di comprare una bella 2080Ti usata....
Finchè le Ti costeranno più di 750 euro per me mai più una scheda nuova. bye bye nvidia.
fraussantin
06-12-2019, 14:32
Se i prezzi non cambiano, con l'uscita della nuova gen sarà finalmente arrivato il momento di comprare una bella 2080Ti usata....
Finchè le Ti costeranno più di 750 euro per me mai più una scheda nuova. bye bye nvidia.Sì ma se con 800 euro ti danno una 3080 con rtcore fixati e prestazioni similari non è cmq preferibile il nuovo?
PS e 12 giga di RAM se non 16
Un pelo prestino per fantasticare su eventuali prezzi e svalutazioni...
Legolas84
06-12-2019, 14:57
Sì ma se con 800 euro ti danno una 3080 con rtcore fixati e prestazioni similari non è cmq preferibile il nuovo?
PS e 12 giga di RAM se non 16
Come dice giustamente Gello attualmente è difficile fantasticare su quello che verrà.... ma comunque possono far uscire quello che vogliono, ma finchè con 750 euro non compri il top io rimango dell'idea che è meglio fiondarsi sull'usato e cercare di prendere il miglior rapporto prezzo prestazioni che attualmente penso sia ancora della 1080Ti (forse insediata solo di recente dalla 2070 Super se si riesce a trovare a poco più di una 1080Ti usata).
Assolutamente, io la Titan X Pascal (presa dal buon Luca T) conto di tenerla almeno fino al 2021 a meno di occasioni clamorose.
mikael84
06-12-2019, 15:10
Come dice giustamente Gello attualmente è difficile fantasticare su quello che verrà.... ma comunque possono far uscire quello che vogliono, ma finchè con 750 euro non compri il top io rimango dell'idea che è meglio fiondarsi sull'usato e cercare di prendere il miglior rapporto prezzo prestazioni che attualmente penso sia ancora della 1080Ti (forse insediata solo di recente dalla 2070 Super se si riesce a trovare a poco più di una 1080Ti usata).
Se va bene ci comprerai una 3080 nello shop che oggi c'è domani non si sa.
I prezzi non scenderanno, la sfida dovrebbe essere RDNA2 (hbm 16gb) vs 3080 a 699/799. Con la probabilità di un chip x80 mid pure devastato.
Certo che anche sul nuovo ora, la situazione è inquietante, Amazon non ha nulla, 2080 super, solo qualcuna su shop che neppure apro, e qualche 2070 super o AMD a 420-450.
mattxx88
06-12-2019, 15:11
Se va bene ci comprerai una 3080 nello shop che oggi c'è domani non si sa.
I prezzi non scenderanno, la sfida dovrebbe essere RDNA2 (hbm 16gb) vs 3080 a 600/799. Con la probabilità di un chip x80 mid pure devastato.
Certo che anche sul nuovo ora, la situazione è inquietante, Amazon non ha nulla, 2080 super, solo qualcuna su shop che neppure apro, e qualche 2070 super o AMD a 420-450.
anche secondo me non si tornerà "ai tempi che furono" ormai questa è l'impronta data e ho paura la seguiranno
Tranquilli che se la gente non compra qualcosa di economico se lo inventano al volo, a costo di tenerci sui 7nm per 5 anni stile 28nm.....
devil_mcry
06-12-2019, 15:53
Se va bene ci comprerai una 3080 nello shop che oggi c'è domani non si sa.
I prezzi non scenderanno, la sfida dovrebbe essere RDNA2 (hbm 16gb) vs 3080 a 699/799. Con la probabilità di un chip x80 mid pure devastato.
Certo che anche sul nuovo ora, la situazione è inquietante, Amazon non ha nulla, 2080 super, solo qualcuna su shop che neppure apro, e qualche 2070 super o AMD a 420-450.
E' quello il problema. Una 2080 Super per come l'avevano definita era un ottimo acquisto, sulla carta più veloce e un po' più economica. Non si trova da nessuna parte... e ovviamente non c'è concorrenza sui prezzi.
Se i prezzi non cambiano, con l'uscita della nuova gen sarà finalmente arrivato il momento di comprare una bella 2080Ti usata....
Finchè le Ti costeranno più di 750 euro per me mai più una scheda nuova. bye bye nvidia.
concordo, per me uguale, ma sarà gia difficile trovare una x80.
Legolas84
06-12-2019, 16:53
Se va bene ci comprerai una 3080 nello shop che oggi c'è domani non si sa.
I prezzi non scenderanno, la sfida dovrebbe essere RDNA2 (hbm 16gb) vs 3080 a 699/799. Con la probabilità di un chip x80 mid pure devastato.
Certo che anche sul nuovo ora, la situazione è inquietante, Amazon non ha nulla, 2080 super, solo qualcuna su shop che neppure apro, e qualche 2070 super o AMD a 420-450.
Guarda sono sincero, se quando tornerò a giocare ai videogames (suppongo sarà nel 2022) la situazione sarà ancora questa, valuterò per la prima volta di passare alle scatolette sifil e di farmi un pc middle/low per gli strategici/esclusive.....
Comunque per il passaggio alle future schede, nella rivendita credo che chi venderà una 2080Ti perderà una cifra intorno ai 600 euro, chi venderà una 2080 intorno ai 300 e chi venderà una 2070 intorno ai 200..... giusto per capire quanto sia sbagliata la 2080Ti.
Inviato dal mio iPhone utilizzando Tapatalk Pro
Se i prezzi non cambiano, con l'uscita della nuova gen sarà finalmente arrivato il momento di comprare una bella 2080Ti usata....
Finchè le Ti costeranno più di 750 euro per me mai più una scheda nuova. bye bye nvidia.
Anche il budget a mia disposizione è sempre quello, razionalmente dovrei stare sotto i 500€, "sbulaccando" posso arrivare a 750€, ma oltre proprio no.
Per questo motivo ho saltato la generazione attuale, (e l'unica che avevo saltato in precedenza è stata la 4xx) e alla prossima gen comprerò la migliore GPU sotto tale soglia, (rossa o verde che sia) anche se non sarà più una x80ti.
L'importante è che abbia HDMI2.1 e vada almeno un 50% in più della mia attuale 1080ti.
mikael84
06-12-2019, 17:57
anche secondo me non si tornerà "ai tempi che furono" ormai questa è l'impronta data e ho paura la seguiranno
purtroppo no, anzi...
Diciamo però che chi è rimasto indietro una gen. si ritroverà un bel salto in avanti.
E' quello il problema. Una 2080 Super per come l'avevano definita era un ottimo acquisto, sulla carta più veloce e un po' più economica. Non si trova da nessuna parte... e ovviamente non c'è concorrenza sui prezzi.
Infatti, e Ampere ora come ora non è imminente, considerando poi i prezzi accettabili e forniture degli shop.
Guarda sono sincero, se quando tornerò a giocare ai videogames (suppongo sarà nel 2022) la situazione sarà ancora questa, valuterò per la prima volta di passare alle scatolette sifil e di farmi un pc middle/low per gli strategici/esclusive.....
Comunque per il passaggio alle future schede, nella rivendita credo che chi venderà una 2080Ti perderà una cifra intorno ai 600 euro, chi venderà una 2080 intorno ai 300 e chi venderà una 2070 intorno ai 200..... giusto per capire quanto sia sbagliata la 2080Ti.
Inviato dal mio iPhone utilizzando Tapatalk Pro
Qua Legolas purtroppo è presto per trarre conclusioni, i prezzi per fascia dovrebbero mantenersi tali (con buona gran percentuale), però è tutto da vedere, ad esempio:
-Dovremmo trovarci in fase tock, salto nodo, ed una 3070 potrebbe prendere una 2080ti raster, ed essere più efficiente via RT, avendo la doppa densità (16gb), o bus più ampi 12gb (come da progetto 2080, che è monca è già predisposta ad essere ampliata).
Se così fosse, la 2080ti passerebbe in 6 mesi, usata a valere 400 euro, andando bene.
-AMD anticipa è piazza una simil 2080ti (RDNA2), o anche superiore, nvidia si para con la 2080ti super.
Ecco che a giugno, esce la 3080 e ne prende letteralmente il posto, facendo fare un'ulteriore balzo in avanti.
Ricordiamoci che la Titan RTX viene venduta a 2200 euro in quanto possiede la doppia densità che gli permette di avere 24gb, questa densità potrebbe utilizzarla anche la 3080ti.
Navi di AMD, sarebbe la 2660 per dire, ed anche qua c'è un altro salto di fascia.
Siamo sicuri che una 3070 (2080ti o quali like), a 500 euro?
-AMD con nvidia rilasciano quasi contemporaneamente i chip, e RDNA2 si "scorna" come da prevvisione con la 3080 a 699/799 e vissero tutti felici e contenti, con il portafogli meno gonfio, ma non in bancarotta.:p
TigerTank
06-12-2019, 21:36
Guarda sono sincero, se quando tornerò a giocare ai videogames (suppongo sarà nel 2022) la situazione sarà ancora questa, valuterò per la prima volta di passare alle scatolette sifil e di farmi un pc middle/low per gli strategici/esclusive.....
Comunque per il passaggio alle future schede, nella rivendita credo che chi venderà una 2080Ti perderà una cifra intorno ai 600 euro, chi venderà una 2080 intorno ai 300 e chi venderà una 2070 intorno ai 200..... giusto per capire quanto sia sbagliata la 2080Ti.
Inviato dal mio iPhone utilizzando Tapatalk Pro
Anche il budget a mia disposizione è sempre quello, razionalmente dovrei stare sotto i 500€, "sbulaccando" posso arrivare a 750€, ma oltre proprio no.
Per questo motivo ho saltato la generazione attuale, (e l'unica che avevo saltato in precedenza è stata la 4xx) e alla prossima gen comprerò la migliore GPU sotto tale soglia, (rossa o verde che sia) anche se non sarà più una x80ti.
L'importante è che abbia HDMI2.1 e vada almeno un 50% in più della mia attuale 1080ti.
Motivo per cui io ho preso una 2080 custom, anche per "liberarmi" dello Sli di 1070, ottimo l'anno precedente con vari titoli dx11 ma il più delle volte problematico in dx12. Ma imponendomi una spesa massima di 800€...e la trovai a qualcosa meno su amazon.
Mi auguro davvero che con le nuove le cose non peggiorino ulteriormente...e peggio ancora che le Ti siano lanciate ancora subito e di nuovo overpriced di brutto.
Senza entrare troppo nei dettagli data la velocità con cui si svalutano le vga, io più di 550 euro non le spendo mai in assoluto, anzi per me vale la regola dei 500 come tetto massimo per qualsiasi singolo componente (monitor escluso).
Sempre trovato benissimo :)
aled1974
07-12-2019, 08:34
Anche il budget a mia disposizione è sempre quello, razionalmente dovrei stare sotto i 500€, "sbulaccando" posso arrivare a 750€, ma oltre proprio no.
Per questo motivo ho saltato la generazione attuale, (e l'unica che avevo saltato in precedenza è stata la 4xx) e alla prossima gen comprerò la migliore GPU sotto tale soglia, (rossa o verde che sia) anche se non sarà più una x80ti.
L'importante è che abbia HDMI2.1 e vada almeno un 50% in più della mia attuale 1080ti.
dubito che i prezzi delle future top scenderanno così tanto (siamo ancora oltre i 1100 euro per le 2080ti), mi sa che la maggior parte degli acquirenti seguirà il tuo percorso :mano:
oppure prenderà le attuali x80ti svalutate nei mercatini se le prossime x70/x80 saranno pesantemente castrate :(
ciao ciao
thunderforce83
21-12-2019, 08:24
novità riguardo a questi nuovi chip full? (2080 TI super)
TigerTank
21-12-2019, 14:37
dubito che i prezzi delle future top scenderanno così tanto (siamo ancora oltre i 1100 euro per le 2080ti), mi sa che la maggior parte degli acquirenti seguirà il tuo percorso :mano:
oppure prenderà le attuali x80ti svalutate nei mercatini se le prossime x70/x80 saranno pesantemente castrate :(
ciao ciao
Bisognerà proprio vedere come saranno le nuove, anche perchè ci si aspetterebbe un'evoluzione del ray tracing in quanto ad architettura e gestione(e si spera anche a livello nativo nei giochi).
fraussantin
21-12-2019, 17:53
Oltre al binning ci sarà anche Samsung vs tsmc ..
Immagino le quantità di resi che faranno per trovare quella giusta .. LoL
https://www.tomshw.it/hardware/gpu-nvidia-a-7-nanometri-tsmc-si-occupera-della-maggior-parte-della-produzione/
mircocatta
21-12-2019, 17:58
Mi auguro davvero che con le nuove le cose non peggiorino ulteriormente...e peggio ancora che le Ti siano lanciate ancora subito e di nuovo overpriced di brutto.
se la top amd nascerà per rispondere alla 2080ti, vedrai che anche la serie 3000 sarà overprice, se poi uscirà prima con la ti ciao, almeno 1500€ di scheda :D
thunderforce83
22-12-2019, 11:17
rassegnatevi ragazzi, per avere la top secondo me sotto i 1000euro sara' difficile scendere, e comunque sarebbe gia' un passo avanti rispetto alle 2080ti che al lancio ci volevano1300/1400 euri. Comunque c e una bella stratificazione di offerte, per quanto riguarda le schede mid amd e' proprio pessima su tutti i fronti, stavo cercando un muletto e vedevo che addirittura la 5700xt costa piu' della 2070...io non capisco come fanno a comprarsi quel ciarpame...devi essere proprio fissato e fanboy accanito per arrivare a quel punto:doh:
comunque credo che fine gennaio inizio febbraio nvidia annuncera' le prossime 2080ti super...
Ale55andr0
22-12-2019, 12:20
Comunque c e una bella stratificazione di offerte, per quanto riguarda le schede mid amd e' proprio pessima su tutti i fronti, stavo cercando un muletto e vedevo che addirittura la 5700xt costa piu' della 2070...io non capisco come fanno a comprarsi quel ciarpame...devi essere proprio fissato e fanboy accanito per arrivare a quel punto:doh:
comunque credo che fine gennaio inizio febbraio nvidia annuncera' le prossime 2080ti super...
ma che stai a dire?
qua l'unico fanboy che leggo sei tu, complimenti per il flame :rolleyes::
2070 più economica al momento che scrivo su trovaprezzi: gigabyte biventola 397 euro
https://i.imgur.com/KL0aU8g.jpg
5700xt più economica al momento in cui scrivo su trovaprezzi: shappire biventola 380
https://i.imgur.com/lh0D15f.png
e la 5700xt è mediamente più veloce della 2070, (e in qualche game particolarmente ottmizzato va addirittura come la 2080)
ora, se hai finito di fare disinformazione (ma che è giornata oggi? :asd: )
fraussantin
22-12-2019, 12:55
ma che stai a dire?
qua l'unico fanboy che leggo sei tu, complimenti per il flame :rolleyes::
2070 più economica al momento che scrivo su trovaprezzi: gigabyte biventola 397 euro
https://i.imgur.com/KL0aU8g.jpg
5700xt più economica al momento in cui scrivo su trovaprezzi: shappire biventola 380
https://i.imgur.com/lh0D15f.png
e la 5700xt è mediamente più veloce della 2070, (e in qualche game particolarmente ottmizzato va addirittura come la 2080)
ora, se hai finito di fare disinformazione (ma che è giornata oggi? :asd: )Guarda con i problemi che mi sta dando la 5700 messa sul PC del mio amico non la comprerei manco se costasse 200 euro meno. Io mi auguro che sia o provvisori .. perché chi ha le vega non ha problemi .. ma non é una bella situazione.
Ale55andr0
22-12-2019, 13:06
e già, sono sicuro che i problemi del tuo amico fanno testo per tutti i possessori di quella scheda :)
...e comunque non ci azzeccava nulla col commento che ho quotato...:stordita:
Comunque hai controllato che non siano i tflop calcolati in modo errato il problema? :asd:
(si scherza :p)
fraussantin
22-12-2019, 13:14
e già, sono sicuro che i problemi del tuo amico fanno testo per tutti i possessori di quella scheda :)
...e comunque non ci azzeccava nulla col commento che ho quotato...:stordita:
Comunque hai controllato che non siano i tflop calcolati in modo errato il problema? :asd:
(si scherza :p)
Prova a cercare black screen sulle 5700xt su Google e vedi che non é stato sfortunato. Puoi farti anche un giro su gruppi FB o altri luoghi di supporto se non ti basta Google.
Adesso cambiamo anche l'alimentatore , l'unico pezzo vecchio di quel PC , ma non credo proprio sia quello il problema, il problema sono i driver.
Li sistemeranno di sicuro , ma intanto i santi sistanno rivoltando.
Una 3080 a 1000 euro non la prenderei manco morto, deve costare non più della 2080, altrimenti qua supportiamo un sistema suicidario alla base e non se ne verrà mai a capo.
Oirasor_84
22-12-2019, 13:36
Prova a cercare black screen sulle 5700xt su Google e vedi che non é stato sfortunato. Puoi farti anche un giro su gruppi FB o altri luoghi di supporto se non ti basta Google.
Adesso cambiamo anche l'alimentatore , l'unico pezzo vecchio di quel PC , ma non credo proprio sia quello il problema, il problema sono i driver.
Li sistemeranno di sicuro , ma intanto i santi sistanno rivoltando.Prova cercare black screen nvidia,prova a cercare driver nvidia che fermano la ventola.Ogni volta si ripetono sempre le stesse cose,anche sul thread della 5700xt spali merda sulla scheda che possiede fra le altre cose un amico,un altro utente si è lamentato per pagine della 5700 per scoprire poi che la scheda audio era fallata e gli ha bruciato 2 schede video.
L'altro utente sopra quello del ciarpame meglio ignorarlo...
Ma capisco che rode il culo agli nvidia boy che amd ha una vga che costa meno va più di una 2070,in media ha le stesse prestazioni di una 2070s e in giochi tipi rdr2 e bf5 vola e a momenti le suona anche ad una 2080.
Inviato dal mio Mi A1 utilizzando Tapatalk
TigerTank
22-12-2019, 13:37
se la top amd nascerà per rispondere alla 2080ti, vedrai che anche la serie 3000 sarà overprice, se poi uscirà prima con la ti ciao, almeno 1500€ di scheda :D
Una 3080 a 1000 euro non la prenderei manco morto, deve costare non più della 2080, altrimenti qua supportiamo un sistema suicidario alla base e non se ne verrà mai a capo.
Eh auguriamoci davvero non si finisca a tali livelli altrimenti altro che 4K, si torna ad accontentarsi del fullHD per contenere prestazioni necessarie e spese :asd:
fraussantin
22-12-2019, 13:43
Prova cercare black screen nvidia,prova a cercare driver nvidia che fermano la ventola.Ogni volta si ripetono sempre le stesse cose,anche sul thread della 5700xt spali merda sulla scheda che possiede fra le altre cose un amico,un altro utente si è lamentato per pagine della 5700 per scoprire poi che la scheda audio era fallata e gli ha bruciato 2 schede video.
L'altro utente sopra quello del ciarpame meglio ignorarlo...
Ma capisco che rode il culo agli nvidia boy che amd ha una vga che costa meno va più di una 2070,in media ha le stesse prestazioni di una 2070s e in giochi tipi rdr2 e bf5 vola e a momenti le suona anche ad una 2080.
Inviato dal mio Mi A1 utilizzando TapatalkTu sbaglio o eri quello che arava i campi in rdr2?
Dove avrei Spalato merda sul 3d delle 5700? Al massimo ho riportato un fatto.
Non ricominciamo col vittimismo per piacere.
I problemi li hanno avuti entrambe le marche.
L'anno passato le Nvidia si rompevano a sfracello rtx era Una perculata e costavano un botto , quest'anno tocca alle 5700 , ma ripeto il problema non sono solo i guasti cmq elevati ,.ma i driver che sulla navi non vanno bene.
A me rode il culo solo per una cosa: che mi tocca sistemare il PC ad una persona cui l'ho montato.
Per la scheda audio il problema non é un guasto e non rompe niente , sarebbe il colmo.
É solo incompatibile con certi BIOS x570.
Altra bella storia piena di bug in casa amd. Sempre se lo posso dire non vorrei passare da fanboy.
Eh auguriamoci davvero non si finisca a tali livelli altrimenti altro che 4K, si torna ad accontentarsi del fullHD per contenere prestazioni necessarie e spese :asd:
Non compro nulla e vedrò cosa offrirà il mercato GPU nel 2021, probabilmente la nuova Ti a tipo 1700 euro, praticamente il prezzo che ho speso per farmi la nuova build con 3900X X570 e 32GB di RAM. Follia:mc:
mikael84
22-12-2019, 14:41
Eh auguriamoci davvero non si finisca a tali livelli altrimenti altro che 4K, si torna ad accontentarsi del fullHD per contenere prestazioni necessarie e spese :asd:
A marzo con il debutto, o presentazione, del chip HPC, si potranno trarre tante conclusioni. Ovviamente ci sono vari parametri da tenere in considerazione, ad esempio::)
https://www.hwupgrade.it/forum/showpost.php?p=46520765&postcount=46054
A marzo con il debutto, o presentazione, del chip HPC, si potranno trarre tante conclusioni. Ovviamente ci sono vari parametri da tenere in considerazione, ad esempio::)
https://www.hwupgrade.it/forum/showpost.php?p=46520765&postcount=46054
Ipotizzi una 3080 più economica di quanto è stata all'uscita la 2080, più sui 700 euro piuttosto che 850. Magari fosse così, comunque anche io credo che le 3000 usciranno con una tempistica simil Pascal del 2016.
mikael84
22-12-2019, 14:55
Ipotizzi una 3080 più economica di quanto è stata all'uscita la 2080, più sui 700 euro piuttosto che 850. Magari fosse così, comunque anche io credo che le 3000 usciranno con una tempistica simil Pascal del 2016.
Come percentuale maggiore mi aspetto un duello RDNA2 AMD (HBM2) contro la 3080 sui 699/799$.
Nvidia se utilizza ancora il 256bit, dovrebbe montare la doppia densità da 16gb, quindi i costi di produzione aumentano, ma non è un problema, vendono in lucro.
Tuttavia, nel link del post precedente, ho anche ipotizzato altri scenari.
Come percentuale maggiore mi aspetto un duello RDNA2 AMD (HBM2) contro la 3080 sui 699/799$.
Nvidia se utilizza ancora il 256bit, dovrebbe montare la doppia densità da 16gb, quindi i costi di produzione aumentano, ma non è un problema, vendono in lucro.
Tuttavia, nel link del post precedente, ho anche ipotizzato altri scenari.
Sui prezzi ci sono molti dubbi, questa tua prima ipotesi è allettante per ovvi motivi, una 3080 sui 700 euro sarebbe eccellente, ma resta ancora molto opinabile. Riguardo però la data di uscita, il periodo giugno 2020 è molto più verosimile. Riguardo la presentazione del chip HPC a Marzo, è possibile ipotizzare anche gli eventuali prezzi della serie 3000 oltre le plausibili performance?
Oirasor_84
22-12-2019, 15:18
Tu sbaglio o eri quello che arava i campi in rdr2?
Dove avrei Spalato merda sul 3d delle 5700? Al massimo ho riportato un fatto.
Non ricominciamo col vittimismo per piacere.
I problemi li hanno avuti entrambe le marche.
L'anno passato le Nvidia si rompevano a sfracello rtx era Una perculata e costavano un botto , quest'anno tocca alle 5700 , ma ripeto il problema non sono solo i guasti cmq elevati ,.ma i driver che sulla navi non vanno bene.
A me rode il culo solo per una cosa: che mi tocca sistemare il PC ad una persona cui l'ho montato.
Per la scheda audio il problema non é un guasto e non rompe niente , sarebbe il colmo.
É solo incompatibile con certi BIOS x570.
Altra bella storia piena di bug in casa amd. Sempre se lo posso dire non vorrei passare da fanboy.
Aravo i campi in rdr2?:confused: non so a cosa ti riferisci,non sto facendo nessun vittimismo non lavoro per amd,tu hai scritto che i driver amd fanno pena basandoti sull'esperienza del tuo amico a cui hai montato il pc,e su gruppi di facebook e io ti ho fatto notare che i problemi ci son da ambo i lati.
A me i driver su navi vanno benissimo.
TigerTank
22-12-2019, 16:07
A marzo con il debutto, o presentazione, del chip HPC, si potranno trarre tante conclusioni. Ovviamente ci sono vari parametri da tenere in considerazione, ad esempio::)
https://www.hwupgrade.it/forum/showpost.php?p=46520765&postcount=46054
Ciao Mike, esatto...troppe variabili in ballo :)
thunderforce83
23-12-2019, 01:08
Prova cercare black screen nvidia,prova a cercare driver nvidia che fermano la ventola.Ogni volta si ripetono sempre le stesse cose,anche sul thread della 5700xt spali merda sulla scheda che possiede fra le altre cose un amico,un altro utente si è lamentato per pagine della 5700 per scoprire poi che la scheda audio era fallata e gli ha bruciato 2 schede video.
L'altro utente sopra quello del ciarpame meglio ignorarlo...
Ma capisco che rode il culo agli nvidia boy che amd ha una vga che costa meno va più di una 2070,in media ha le stesse prestazioni di una 2070s e in giochi tipi rdr2 e bf5 vola e a momenti le suona anche ad una 2080.
Inviato dal mio Mi A1 utilizzando Tapatalk
ma che stai a dire?
qua l'unico fanboy che leggo sei tu, complimenti per il flame :
2070 più economica al momento che scrivo su trovaprezzi: gigabyte biventola 397 euro
https://i.imgur.com/KL0aU8g.jpg
5700xt più economica al momento in cui scrivo su trovaprezzi: shappire biventola 380
https://i.imgur.com/lh0D15f.png
e la 5700xt è mediamente più veloce della 2070, (e in qualche game particolarmente ottmizzato va addirittura come la 2080)
ora, se hai finito di fare disinformazione (ma che è giornata oggi? )
https://gpu.userbenchmark.com/Compare/Nvidia-RTX-2070-vs-AMD-RX-5700-XT/4029vs4045
ma ci credete veramente quando sparate queste cavolate?
comunque stranamente qui dice che la 2070 va piu' forte e non sembra che userbenchmark sia un sito fanboy nvidia...il flame lo fate voi visto che venite su un thread nvidia a fare proselitismo amd e per giunta in modo sgarbato...ah c'e' da dire anche che non c'e' il raytracing,che ha 7nm rispetto ai 12 nvidia e che comunque consuma e scalda di piu', che e' uscita dopo mesi e mesi,disinformazione io...andatevi a comprare una consolle che ci trovate hw amd almeno siete contenti va'.
mircocatta
23-12-2019, 10:28
https://gpu.userbenchmark.com/Compare/Nvidia-RTX-2070-vs-AMD-RX-5700-XT/4029vs4045
ma ci credete veramente quando sparate queste cavolate?
comunque stranamente qui dice che la 2070 va piu' forte e non sembra che userbenchmark sia un sito fanboy nvidia...il flame lo fate voi visto che venite su un thread nvidia a fare proselitismo amd e per giunta in modo sgarbato...ah c'e' da dire anche che non c'e' il raytracing,che ha 7nm rispetto ai 12 nvidia e che comunque consuma e scalda di piu', che e' uscita dopo mesi e mesi,disinformazione io...andatevi a comprare una consolle che ci trovate hw amd almeno siete contenti va'.
ancora fai il troll?
https://tpucdn.com/review/gigabyte-radeon-rx-5500-xt-gaming-oc-8-gb/images/relative-performance_2560-1440.png
https://www.hwupgrade.it/articoli/5588/comparate.png
https://www.guru3d.com/index.php?ct=articles&action=file&id=57050
"eh ma userbenchmark dice altro"
devil_mcry
23-12-2019, 10:49
Ma già a marzo escono le nuove? Io passerò alla 3080 sperando costi alla peggio come la 2080 super
thunderforce83
23-12-2019, 10:54
ancora fai il troll?
https://tpucdn.com/review/gigabyte-radeon-rx-5500-xt-gaming-oc-8-gb/images/relative-performance_2560-1440.png
https://www.hwupgrade.it/articoli/5588/comparate.png
https://www.guru3d.com/index.php?ct=articles&action=file&id=57050
"eh ma userbenchmark dice altro"
cosa vorresti dire? parla invece di attaccare come i tuoi amici...da quello che leggo qui la 2070 ha piu performance per watt no? se devi dire qualcosa spiega , scrivilo in italiano e non accendendo polemiche o flame inutili appunto, grazie...
mircocatta
23-12-2019, 11:24
cosa vorresti dire? parla invece di attaccare come i tuoi amici...da quello che leggo qui la 2070 ha piu performance per watt no? se devi dire qualcosa spiega , scrivilo in italiano e non accendendo polemiche o flame inutili appunto, grazie...
nel tuo primo messaggio hai definito ciarpame la 5700xt perchè costa più della 2070
nel secondo messaggio cerchi poi di dimostrare che la 2070 va anche di più
ora, non ho ne 2070 ne 5700xt, come tutti mi baso sulle review dei siti più blasonati/affidabili che ti ho girato, come puoi vedere su tutte le review la 5700xt è stabilmente sopra la 2070 come performance, e, a conti fatti, costa anche meno ed è sicuramente più reperibile (visto che la 2070 piano piano sta sparendo in favore delle versioni super, sia 2060 che 2070)
si può parlare per ore sul fatto che non abbia RT (di cui personalmente nel 2019 non ne ho sentito la necessità, e quando ne sentirò l'esigenza probabilmente queste prime RTX saranno fermacarte) e sul fatto che consuma una 20ina di watt in più della 2070 liscia, ma definirla ciarpame per il rapporto performance/costo è alquanto fuorviante
thunderforce83
23-12-2019, 12:06
nel tuo primo messaggio hai definito ciarpame la 5700xt perchè costa più della 2070
nel secondo messaggio cerchi poi di dimostrare che la 2070 va anche di più
ora, non ho ne 2070 ne 5700xt, come tutti mi baso sulle review dei siti più blasonati/affidabili che ti ho girato, come puoi vedere su tutte le review la 5700xt è stabilmente sopra la 2070 come performance, e, a conti fatti, costa anche meno ed è sicuramente più reperibile (visto che la 2070 piano piano sta sparendo in favore delle versioni super, sia 2060 che 2070)
si può parlare per ore sul fatto che non abbia RT (di cui personalmente nel 2019 non ne ho sentito la necessità, e quando ne sentirò l'esigenza probabilmente queste prime RTX saranno fermacarte) e sul fatto che consuma una 20ina di watt in più della 2070 liscia, ma definirla ciarpame per il rapporto performance/costo è alquanto fuorviante
ti ringrazio..adesso e' piu chiaro:)
non vi dovete offendere se personalmente considero amd ciarpame...e' semplicemente un mio punto di vista e non credo di ledere nessuna sensibiita', sopratutto perche' scrivo nel thread nvidia, se sul thread amd scrivete la stessa cosa di nvidia a me non me ne puo' fregar di meno e sinceramente non sto a sindacare tra persone che possiedono amd, e' normale fare paragoni tra le due case ed ognuno ha le sue idee, per me amd e' morta dalla r290, ultima scheda che veramente era in grado di tirare fuori qualcosa di buono e competere con nvidia, nonostante costasse anche meno, se calcoliamo quanti miliardi investe nvidia in ricerca è anche normale che l'ha stracciata su tutti i fronti no?
quindi cosa vi offendete a fare? volete dire che a tutti i costi che la 5700xt e' meglio della 2070? ok va bene, basta che la finiamo con questi inutili attacchi...io resto della mia idea, amd purtroppo non e' piu' competitiva lato gpu da un pezzo...adesso per favore torniamo in topic perche' e' spiacevole e noioso fare questi cori da stadio perche' qui stiamo parlando del nulla mischiato al niente...la cosa che piu' mi interessa adesso e' capire quando esce la nuova 2080ti super grazie.
Ma già a marzo escono le nuove? Io passerò alla 3080 sperando costi alla peggio come la 2080 super
No marzo non direi, più probabile giugno come mese di uscita. Il prezzo a me piacerebbe molto un 750 euro, circa 100 euro in meno della 2080 all'uscita.
mikael84
23-12-2019, 14:36
Ma già a marzo escono le nuove? Io passerò alla 3080 sperando costi alla peggio come la 2080 super
A marzo presentazione modello HPC, tesla GA100, a giugno forse le gaming.
La presentazione della GPU tesla, sarà quasi fondamentale per vedere quanto può spingere questo chip, le migliorie (come quelle introdotte tramite Independent Thread Scheduling, l1 condivisa, warp a 4 cicli, 2 x rop's in blending non z-buffer) la composizione dei GPC, e sopratutto i livelli di clock, fattore che direi fondamentale.
mircocatta
23-12-2019, 14:45
No marzo non direi, più probabile giugno come mese di uscita. Il prezzo a me piacerebbe molto un 750 euro, circa 100 euro in meno della 2080 all'uscita.
Che amarezza pensare ai tempi in cui le x80 costavano meno di 500€ all'uscita, ed erano considerati comunque già tanti soldini..
La cosa che mi fa ridere è che con l'infalzione paurosa dell'elettronica di consuno la gente ancora si aspetta le buove console a massimo 500, quando manco 10 anni fa costavano così
Andy1111
23-12-2019, 15:47
https://www.tomshw.it/hardware/gpu-nvidia-a-7-nanometri-tsmc-si-occupera-della-maggior-parte-della-produzione/
Ormai è ufficiale sarà TSMC a fare le nuove gpu a 7
Si legge nella news
Quanto al debutto di nuove schede video, il direttore finanziario di Nvidia Colette Kress ha dichiarato che l’azienda vuole sorprendere il pubblico. Secondo voci di corridoio, Nvidia svelerà le prime GPU Ampere a 7 nanometri a marzo 2020 nel corso della GPU Technology Conference (GTC), mentre l’offerta gaming sarà presentata al Computex 2020 di giugno. Ovviamente prendete queste date con cautela, almeno fino a quando non ci sarà qualche prova concreta.
Quindi sempre più probabile la tempistica d'uscita che abbiamo visto nel 2016 con Pascal, ci sta che le GPU vengano messe in commercio per l'estate 2020. Per chiunque abbia in mente di rivendere al meglio possibile una RTX 2000, sarà meglio tenere a mente che forse converrà rivenderle verso maggio :D
thunderforce83
27-12-2019, 15:44
Secondo le stime di DRAMeXchange, i prezzi dei contratti di grafica DRAM per il primo trimestre 2020 aumenteranno progressivamente di oltre il 5%, con un rialzo dei prezzi che ha sovraperformato gli aumenti dei prezzi di altri prodotti DRAM.
Nel 2020 il settore è destinato a passare da GDDR5 a GDDR6 su larga scala, ha indicato DRAMeXchange.
Nel mercato delle schede grafiche, Nvidia e AMD stanno entrambi spedendo più prodotti utilizzando chip GDDR6, ha affermato DRAMeXchange. La maggior parte delle spedizioni di schede grafiche di Nvidia si basa sulla sua piattaforma GeForce RTX che utilizza la memoria GDDR6, mentre AMD è "completamente" passata a GDDR6 per le sue ultime GPU serie 7i Navi.
Inoltre, Sony e Microsoft stanno entrambi cercando di implementare le loro console di gioco di nuova generazione dotate di memoria GDDR6 nella seconda metà del 2020, ha osservato DRAMeXchange. La domanda complessiva di DRAM grafica dovrebbe superare il lato dell'offerta il prossimo anno, continua DRAMeXchange.
DRAMeXchange ritiene che i prezzi dei contratti per la grafica DRAM rimbalzeranno nel prossimo futuro.
altro che diminuzione prezzi:O
Secondo le stime di DRAMeXchange, i prezzi dei contratti di grafica DRAM per il primo trimestre 2020 aumenteranno progressivamente di oltre il 5%, con un rialzo dei prezzi che ha sovraperformato gli aumenti dei prezzi di altri prodotti DRAM.
Nel 2020 il settore è destinato a passare da GDDR5 a GDDR6 su larga scala, ha indicato DRAMeXchange.
Nel mercato delle schede grafiche, Nvidia e AMD stanno entrambi spedendo più prodotti utilizzando chip GDDR6, ha affermato DRAMeXchange. La maggior parte delle spedizioni di schede grafiche di Nvidia si basa sulla sua piattaforma GeForce RTX che utilizza la memoria GDDR6, mentre AMD è "completamente" passata a GDDR6 per le sue ultime GPU serie 7i Navi.
Inoltre, Sony e Microsoft stanno entrambi cercando di implementare le loro console di gioco di nuova generazione dotate di memoria GDDR6 nella seconda metà del 2020, ha osservato DRAMeXchange. La domanda complessiva di DRAM grafica dovrebbe superare il lato dell'offerta il prossimo anno, continua DRAMeXchange.
DRAMeXchange ritiene che i prezzi dei contratti per la grafica DRAM rimbalzeranno nel prossimo futuro.
altro che diminuzione prezzi:O
ma guarda che caso, ad ogni volta c'è sempre qualcosa pronto a giustificare un aumento di prezzi...chi l'avrebbe mai detto! :D
Ale55andr0
28-12-2019, 00:19
https://gpu.userbenchmark.com/Compare/Nvidia-RTX-2070-vs-AMD-RX-5700-XT/4029vs4045
ma ci credete veramente quando sparate queste cavolate?
comunque stranamente qui dice che la 2070 va piu' forte e non sembra che userbenchmark sia un sito fanboy nvidia...il flame lo fate voi visto che venite su un thread nvidia a fare proselitismo amd e per giunta in modo sgarbato...ah c'e' da dire anche che non c'e' il raytracing,che ha 7nm rispetto ai 12 nvidia e che comunque consuma e scalda di piu', che e' uscita dopo mesi e mesi,disinformazione io...andatevi a comprare una consolle che ci trovate hw amd almeno siete contenti va'.
- ah quindi conta userbenchmark, non le review tecniche, credevo di stare su hwupgrade :stordita:
-fra parentesi, questo e altri tuoi messaggi parlano tanto di thread nvidia e thread amd e di cosa ci si scrive sugli "avversari": non mi risulta che il forum sia diviso per caste o sia di natura "campanilistica", ma soprattutto, non mi pare che i thread sul brand xyz o zyx siano fatti per sparare sulla fazione "opposta" flammando o dicendo cose NON vere e facendola passare come cosa legittima "perchè io non scrivo li' quindi ok non vi offendete". Peraltro, parlando di me nello specifico, mi pare di avere una nvidia gtx1080 in firma, non una amd rx5700 e pure con una spennellata di verde :asd: (per il nulla che conta comunque, visto che io non faccio parte di alcun club e i thread sono aperti a tutti e vi partecipo volentieri. Mi pare ripeto, che questo sia un forum di tecnica, non un club di ultras)
- la disinformazione, hai iniziato a farla tu e continui: hai definito la 2070 più veloce e NON lo è per le recensioni tecniche (che ti sono state pure postate), stacce. Come pure hai definito la 5700xt più costosa e ti è stato mostrato, pure li', che non lo è o almeno così è nel mercato del mio pianeta, la terra, fine. Il tutto trascendendo sulle frasi volutamente provocatorie e i toni con i quali hai espresso queste tue personalissime "verità" (perchè i benchmark delle testate specialistiche e il mercato di cui sopra dicono altro), che NON mi pare facciano parte della netiquette accettata dalla moderazione di questo sito, o almeno di solito è stato così.
Free Gordon
28-12-2019, 11:35
A marzo presentazione modello HPC, tesla GA100, a giugno forse le gaming.
La presentazione della GPU tesla, sarà quasi fondamentale per vedere quanto può spingere questo chip, le migliorie (come quelle introdotte tramite Independent Thread Scheduling, l1 condivisa, warp a 4 cicli, 2 x rop's in blending non z-buffer) la composizione dei GPC, e sopratutto i livelli di clock, fattore che direi fondamentale.
ecco certo che sì... :)
voglio proprio vedere come se la cavano coi 7nm+; sarà quello il parametro chiave per stabilire le vere prestazioni di questi nuovi chip, a meno di stravolgimenti architetturali importanti.... (cosa che parrebbe non realistica allo stato attuale dei rumors, se non erro)
Free Gordon
28-12-2019, 11:39
ti ringrazio..adesso e' piu chiaro:)
non vi dovete offendere se personalmente considero amd ciarpame...e' semplicemente un mio punto di vista e non credo di ledere nessuna sensibiita',
Beh ma così ti auto-elidi da solo da qualsiasi discussione seria di carattere tecnico. :)
Parti già da un preconcetto infondato...
Free Gordon
28-12-2019, 11:54
https://www.tomshw.it/hardware/gpu-nvidia-a-7-nanometri-tsmc-si-occupera-della-maggior-parte-della-produzione/
Ormai è ufficiale sarà TSMC a fare le nuove gpu a 7
Quindi tutti i rumors che davano Samsung davanti a TSMC sui 7nm e con migliore pp e quindi lo switch di Nvidia erano delle caxxate.. :rotfl:
AMD ed Nvidia si scontreranno sullo stesso pp questa volta, i 7nm+ di TSMC... :sofico: :asd:
Ale55andr0
28-12-2019, 12:07
Quindi tutti i rumors che davano Samsung davanti a TSMC sui 7nm e con migliore pp e quindi lo switch di Nvidia erano delle caxxate.. :rotfl:
AMD ed Nvidia si scontreranno sullo stesso pp questa volta, i 7nm+ di TSMC... :sofico: :asd:
..che basta tranquillamente a mantenere un vantaggio in efficienza nei consumi stante i precedenti. Più che altro si parla di prestazioni nettamente migliori lato ray tracing rispetto la prima implementazione, ecco, questo mi incuriosisce (come pure i listini...)
mikael84
28-12-2019, 14:29
ecco certo che sì... :)
voglio proprio vedere come se la cavano coi 7nm+; sarà quello il parametro chiave per stabilire le vere prestazioni di questi nuovi chip, a meno di stravolgimenti architetturali importanti.... (cosa che parrebbe non realistica allo stato attuale dei rumors, se non erro)
Dovremmo passare alla fase tock, con MCM nel 2022 (MCM significa sino a 8196cc/128/256 rop's in caso di rasterizzazione a 32 pixel, ma è difficile, anche per la BW classica a 16 e 512bit o 4096/6144 tesla.
Gli 8 GPC per la top sarebbero una soluzione davvero logica già a partire da ora, mentre i 6 sono già stati creati per la 2080 ed espandibili.
Con i 7nm+ mi aspetto una tensione di 0,95v con clock da vedere. Il modello HPC potrebbe indicare qualcosa, questo boosta a 1500/1550, in entrambe le versioni.
Dovessimo vedere 1900/2000 già qua, potremmo ben sperare.
..che basta tranquillamente a mantenere un vantaggio in efficienza nei consumi stante i precedenti. Più che altro si parla di prestazioni nettamente migliori lato ray tracing rispetto la prima implementazione, ecco, questo mi incuriosisce (come pure i listini...)
Si, sotto questo punto di vista mi aspetto miglioramenti, il problema del RT non è dato dal chip in se, ma da come viene sfruttato.
Nvidia ha da sempre menzionato una formuleta in RTX-OPS, ma a lato pratico non si è dimostrata veritiera.
Il chip non viene sfruttato per nulla.
Lo shading viene eseguito mediamente suddividendo fp32+int al 50% e 50% tra RT e TC.
In linea teorica una 2080ti diventa una 2060/2070 in fp32 ed utilizza 20/28RT core
https://tpucdn.com/review/metro-exodus-benchmark-performance-test/images/rtx-1440.png
Quindi il margine è elevatissimo per il miglioramento.
oZonoRobotics
03-01-2020, 09:33
https://wccftech.com/nvidia-next-gen-ampere-gpu-50-percent-faster-twice-efficient-than-turing/?fbclid=IwAR0n6ubHMH7A_sy6krdI9PJ_HHt9jmi0YT0cBImEaM4uKInXtdmrbFTIR5s
tutto sta a vedere se al lancio esce la TI o se la rimandano a fine anno :D la 1080ti inizia a starmi strettina :P
magic carpet
03-01-2020, 15:29
Secondo voi le 3080 avranno HDMI 2.1?
Quattro righe anche in italiano:
https://www.pcgaming.tech/nvidia-ampere-50-percento-piu-veloce-dell-attuale-turing.html
Ma da hwupgrade nessuna news?
thunderforce83
03-01-2020, 16:11
- ah quindi conta userbenchmark, non le review tecniche, credevo di stare su hwupgrade :stordita:
-fra parentesi, questo e altri tuoi messaggi parlano tanto di thread nvidia e thread amd e di cosa ci si scrive sugli "avversari": non mi risulta che il forum sia diviso per caste o sia di natura "campanilistica", ma soprattutto, non mi pare che i thread sul brand xyz o zyx siano fatti per sparare sulla fazione "opposta" flammando o dicendo cose NON vere e facendola passare come cosa legittima "perchè io non scrivo li' quindi ok non vi offendete". Peraltro, parlando di me nello specifico, mi pare di avere una nvidia gtx1080 in firma, non una amd rx5700 e pure con una spennellata di verde :asd: (per il nulla che conta comunque, visto che io non faccio parte di alcun club e i thread sono aperti a tutti e vi partecipo volentieri. Mi pare ripeto, che questo sia un forum di tecnica, non un club di ultras)
- la disinformazione, hai iniziato a farla tu e continui: hai definito la 2070 più veloce e NON lo è per le recensioni tecniche (che ti sono state pure postate), stacce. Come pure hai definito la 5700xt più costosa e ti è stato mostrato, pure li', che non lo è o almeno così è nel mercato del mio pianeta, la terra, fine. Il tutto trascendendo sulle frasi volutamente provocatorie e i toni con i quali hai espresso queste tue personalissime "verità" (perchè i benchmark delle testate specialistiche e il mercato di cui sopra dicono altro), che NON mi pare facciano parte della netiquette accettata dalla moderazione di questo sito, o almeno di solito è stato così.
ma sei serio quando dici queste cose o scherzi? ancora stai a fare il tifo da stadio? ma sei obiettivo oppure i test li vedi in positivo solo per amd mentre nella miriade di giochi in cui la 2070 fa meglio della 5700xt chiudi gli occhi? ti esorto per l'ennesima volta a non fare tifo da stadio,che sicuramente amd non ti ha nel libro paga,eppoi cortesemente ti esorto per l'ennesima volta a fare proselitismo o fanboysmo sulle pagine dedicate ad amd che li puoi farlo, qui no...perche' e' poco consono dire che amd e' meglio di nvidia su una discussione NVIDIA!
Beh ma così ti auto-elidi da solo da qualsiasi discussione seria di carattere tecnico. :)
Parti già da un preconcetto infondato...
stai dando manforte all'amico sopra oppure te nei test vedi solo amd che va meglio in 4/5 giochi su 50 in cui nvidia sovrasta?senza considerare che' e' vecchia di un anno, non ha rtx ed' ha un vantaggio di PP e nonostante tutto non serve. Cortesemente smettetela con questi discorsi da 15enni...se amd aveva una scheda megliore della 2070 stavo a chiedere consiglio sull5700xt ma cosi' non e', quindi per favore finitela e se dovete tifare fatelo almeno nelle pagine dedite ad AMD che li nessuno vi disturba,almeno di certo non vengo io a scrivere quanto sia meglio amd su una discussione nvidia...:doh:
OvErClOck82
03-01-2020, 16:21
ma sei serio quando dici queste cose o scherzi? ancora stai a fare il tifo da stadio? ma sei obiettivo oppure i test li vedi in positivo solo per amd mentre nella miriade di giochi in cui la 2070 fa meglio della 5700xt chiudi gli occhi? ti esorto per l'ennesima volta a non fare tifo da stadio,che sicuramente amd non ti ha nel libro paga,eppoi cortesemente ti esorto per l'ennesima volta a fare proselitismo o fanboysmo sulle pagine dedicate ad amd che li puoi farlo, qui no...perche' e' poco consono dire che amd e' meglio di nvidia su una discussione NVIDIA!
stai dando manforte all'amico sopra oppure te nei test vedi solo amd che va meglio in 4/5 giochi su 50 in cui nvidia sovrasta?senza considerare che' e' vecchia di un anno, non ha rtx ed' ha un vantaggio di PP e nonostante tutto non serve. Cortesemente smettetela con questi discorsi da 15enni...se amd aveva una scheda megliore della 2070 stavo a chiedere consiglio sull5700xt ma cosi' non e', quindi per favore finitela e se dovete tifare fatelo almeno nelle pagine dedite ad AMD che li nessuno vi disturba,almeno di certo non vengo io a scrivere quanto sia meglio amd su una discussione nvidia...:doh:Il punto, che ti sfugge, è che il primo a fare "tifo da stadio" sei tu. Il forum è libero, e nessuno ha detto che amd è meglio.. al contrario, se usi termini come ciarpame dimostri solo la tua partigianeria. Quindi please, evita la morale :asd:
Inviato dal mio COL-L29 utilizzando Tapatalk
Ton90maz
03-01-2020, 18:54
Quattro righe anche in italiano:
https://www.pcgaming.tech/nvidia-ampere-50-percento-piu-veloce-dell-attuale-turing.html
Ma da hwupgrade nessuna news?
50% in più di prestazioni E consumi dimezzati, ci crediamo tutti :asd:
oZonoRobotics
03-01-2020, 19:04
ho letto tutte le news sulle nuove vga ma nessuno parlava di HDMI 2.0 o 2.1...
50% di prestazioni in più é plausibile, 50% in meno di consumi un po' meno
ma chissà che nvidia con i 7nm non faccia un miracolo
Per l'anno nuovo sarebbe bello se la finiste di flammare e trollare.. così magari anche noi potremmo bannare di meno....
finitela :rolleyes:
>bYeZ<
ho letto tutte le news sulle nuove vga ma nessuno parlava di HDMI 2.0 o 2.1...
50% di prestazioni in più é plausibile, 50% in meno di consumi un po' meno
ma chissà che nvidia con i 7nm non faccia un miracolo
+200% di efficienza con un salto di nodo? Non ci credo manco se lo vedo :D
Poi sarei ben felice di cestinare il mio 1000W e usare l'alimentatore del portatile :asd:
fraussantin
03-01-2020, 20:17
+200% di efficienza con un salto di nodo? Non ci credo manco se lo vedo :asd:Se salteranno direttamente al 7+ saranno 2 nodi +o-
Cmq secondo me si è travisato un po' il senso del discorso , prob tra nuova architettura e pp Che permetterà frequenze assurde prob la tesla ampere andrà realmente il doppio della tesla Turing , consumando anche di meno .
Bisogna poi vedete come tagliano i chip.
Un utente stamattina mi ha messo una pulce nell'orecchio riguardo ad una probabile 3080ti con lo am104 full 3080 con am104cut 3070 con am106 cut e 3060 am106 cutcut
Per poi scalare verso l'alto con le super fra 1 anno.
E questa pulce mi sta pizzicando da tutto i giorno
Se salteranno direttamente al 7+ saranno 2 nodi +o-
Cmq secondo me si è travisato un po' il senso del discorso , prob tra nuova architettura e pp Che permetterà frequenze assurde prob la tesla ampere andrà realmente il doppio della tesla Turing , consumando anche di meno .
Bisogna poi vedete come tagliano i chip.
Un utente stamattina mi ha messo una pulce nell'orecchio riguardo ad una probabile 3080ti con lo am104 full 3080 con am104cut 3070 con am106 cut e 3060 am106 cutcut
Per poi scalare verso l'alto con le super fra 1 anno.
E questa pulce mi sta pizzicando da tutto i giorno
È un salto di nodo full, il 12 sta al 14 come il 7+ al 7, all'incirca. Sono "piccoli" upgrade del processo originale.
Non ho mai visto un +100%, figuriamoci un +200%. Poi oh, ci spero, la comprerei subito.
thunderforce83
03-01-2020, 20:27
Il punto, che ti sfugge, è che il primo a fare "tifo da stadio" sei tu. Il forum è libero, e nessuno ha detto che amd è meglio.. al contrario, se usi termini come ciarpame dimostri solo la tua partigianeria. Quindi please, evita la morale :asd:
Inviato dal mio COL-L29 utilizzando Tapatalk
getto la spugna...avete ragione voi, e' meglio amd...passo e chiudo :asd:
fraussantin
03-01-2020, 20:32
È un salto di nodo full, il 12 sta al 14 come il 7+ al 7, all'incirca. Sono "piccoli" upgrade del processo originale.
Non ho mai visto un +100%, figuriamoci un +200%. Poi oh, ci spero, la comprerei subito.Poi aspe' il 50 % di performance in più non è il doppio ..
Se la vecchia fa 100 consumando 100 la nuova fa 150 consumando 50 ( è questa è un po' una sparata secondo me consumerà meno ma non la.metà. . Sicuramente tengono conto anche del RT che su Turing sta fermo.
Poi aspe' il 50 % di performance in più non è il doppio ..
Se la vecchia fa 100 consumando 100 la nuova fa 150 consumando 50 ( è questa è un po' una sparata secondo me consumerà meno ma non la.metà. . Sicuramente tengono conto anche del RT che su Turing sta fermo.
Esatto, se fai 150 e consumi 50, hai aumentato l'efficienza del 200%. È un valore altissimo per un "semplice" cambio nodo.
oZonoRobotics
03-01-2020, 20:49
+200% di efficienza con un salto di nodo? Non ci credo manco se lo vedo :D
Poi sarei ben felice di cestinare il mio 1000W e usare l'alimentatore del portatile :asd:
non sappiamo a che fascia si riferiscano ma ho visto nelle review 2080ti custom con power limit al massimo consumare fino a 375w... questo mi sembra un po' esagerato
quando uscirono le pascal consumavano un po' di meno e andavano tanto di più... speriamo sia una cosa simile
che poi a me la riduzione dei consumi interessa fino ad un certo punto, il 50% di prestazioni in più rispetto a turing (anche qua non sappiamo a che fascia si riferiscano) molto invece :P comunque vada il salto per me sarà enorme dalla 1080ti alla 3080ti... l'unica incognita vera è il prezzo, non ho preso la 2080ti proprio per il costo esagerato della strix e le prestazioni mediamente superiori del 30% (all'epoca, ora invece sugli ultimi titoli arriviamo al 50%) a sto giro però anche se dovesse costare uguale la prenderei... speriamo non costino ancora di più (probabile) :P
non sappiamo a che fascia si riferiscano ma ho visto nelle review 2080ti custom con power limit al massimo consumare fino a 375w... questo mi sembra un po' esagerato
quando uscirono le pascal consumavano un po' di meno e andavano tanto di più... speriamo sia una cosa simile
che poi a me la riduzione dei consumi interessa fino ad un certo punto, il 50% di prestazioni in più rispetto a turing (anche qua non sappiamo a che fascia si riferiscano) molto invece :P comunque vada il salto per me sarà enorme dalla 1080ti alla 3080ti... l'unica incognita vera è il prezzo, non ho preso la 2080ti proprio per il costo esagerato della strix e le prestazioni mediamente superiori del 30% (all'epoca, ora invece sugli ultimi titoli arriviamo al 50%) a sto giro però anche se dovesse costare uguale la prenderei... speriamo non costino ancora di più (probabile) :P
Uno dei salti più corposi che abbiamo avuto è stato quello da Maxwell a Pascal.
All'incirca +65/70% di performance medie con lo stesso consumo (nel caso delle 980/1080).
Quindi un salto di nodo completo, architettura rivista e aumento di efficienza +70%. Per questo dico che secondo me è impossibile avere un +200% in queste condizioni. In merito alle prestazioni non discuto, è possibilissimo e anzi doveroso.
È un salto di nodo full, il 12 sta al 14 come il 7+ al 7, all'incirca. Sono "piccoli" upgrade del processo originale.
Non ho mai visto un +100%, figuriamoci un +200%. Poi oh, ci spero, la comprerei subito.
Forse mi sfugge qualcosa a me, ma il 50% con architettura nuova non mi sembra un miracolo.
Il nuovo pp lo sfrutteranno per il consumo, e anche li non mi sembra esagerato il 50% a frequenze simili visto che è quasi un doppio salto. Se i 7+ sono cosi buoni ne benificera anche amd che ne ha un gran bisogno.
E comunque sarebbero il 100% a parità di consumo con turing.
Immagino prezzi in linea cartello.
IMHO
amon.akira
03-01-2020, 22:25
Forse mi sfugge qualcosa a me, ma il 50% con architettura nuova non mi sembra un miracolo.
Il nuovo pp lo sfrutteranno per il consumo, e anche li non mi sembra esagerato il 50% a frequenze simili visto che è quasi un doppio salto. Se i 7+ sono cosi buoni ne benificera anche amd che ne ha un gran bisogno.
E comunque sarebbero il 100% a parità di consumo con turing.
Immagino prezzi in linea cartello.
IMHO
be in ottica RT(d'ora in poi iniziate a ragionare in questo senso visto che sarà imprescindibile) il salto del 100% potrebbe esserci chissà, anzi lo spero ^^'
be in ottica RT(d'ora in poi iniziate a ragionare in questo senso visto che sarà imprescindibile) il salto del 100% potrebbe esserci chissà, anzi lo spero ^^'
Ormai la porta è stata aperta, anche se a molti non va giù questa cosa, chi sa perché. Credo comunque che ci vorrà almeno altre 2gen di schede video prima che diventi lo standard.
IMHO
mikael84
03-01-2020, 23:40
Se salteranno direttamente al 7+ saranno 2 nodi +o-
Cmq secondo me si è travisato un po' il senso del discorso , prob tra nuova architettura e pp Che permetterà frequenze assurde prob la tesla ampere andrà realmente il doppio della tesla Turing , consumando anche di meno .
Bisogna poi vedete come tagliano i chip.
Un utente stamattina mi ha messo una pulce nell'orecchio riguardo ad una probabile 3080ti con lo am104 full 3080 con am104cut 3070 con am106 cut e 3060 am106 cutcut
Per poi scalare verso l'alto con le super fra 1 anno.
E questa pulce mi sta pizzicando da tutto i giorno
Il doppio è difficile, a 7nm+ probabilmente sarebbe un chip da 460mm2, relativamente piccolo, però per raddoppiare devi sparare 8196st a 2ghz almeno.
Se si rimane su 6 GPC il massimo accettabile è 6144cc.
Riguardo i gaming, bisogna vedere le quadro.
Sia in game che via quadro, bisognerebbe passare ad 8 ed a 6 GPC, che significherebbe elevare bus e ram per entrambe.
Con Ampere cmq, c'è molta probabilità di tornare come ai vecchi tempi.
GA 102 (quadro/3080ti/titan)
GA104( quadro/ 3080/3070)
GA106 (quadro/ 3060)
non sappiamo a che fascia si riferiscano ma ho visto nelle review 2080ti custom con power limit al massimo consumare fino a 375w... questo mi sembra un po' esagerato
quando uscirono le pascal consumavano un po' di meno e andavano tanto di più... speriamo sia una cosa simile
che poi a me la riduzione dei consumi interessa fino ad un certo punto, il 50% di prestazioni in più rispetto a turing (anche qua non sappiamo a che fascia si riferiscano) molto invece :P comunque vada il salto per me sarà enorme dalla 1080ti alla 3080ti... l'unica incognita vera è il prezzo, non ho preso la 2080ti proprio per il costo esagerato della strix e le prestazioni mediamente superiori del 30% (all'epoca, ora invece sugli ultimi titoli arriviamo al 50%) a sto giro però anche se dovesse costare uguale la prenderei... speriamo non costino ancora di più (probabile) :P
La 3080ti con la stessa carica dei GPC consumerebbe circa 155/160watt a stock, però a questa si aggiungono il clock superiore e gli shader, o altri stadi moltiplicatori aggiuntivi.
Le schede top seguono una linea di carico, ma spesso contenuta, di conseguenza, via PL e bios prendono il largo.
Pascal, aveva la carica dei GPC a 45 watt sino alla 1080 e 41 per la 1080ti, con il risultato però che aveva dei picchi di caduta sino a 1600mhz.
Tante custom salivano sopr ai 300watt.
Chiaro, era anche meno complesso della 2080ti.:)
oZonoRobotics
04-01-2020, 07:36
La 3080ti con la stessa carica dei GPC consumerebbe circa 155/160watt a stock, però a questa si aggiungono il clock superiore e gli shader, o altri stadi moltiplicatori aggiuntivi.
quindi può essere che loro intendano o 50% dei consumi in meno o 50% di prestazioni in più?
nel senso, o uno o l'altro? cioè a parità di prestazioni consuma il 50% di meno, ma stock out of the box andrà il 50% in più e con consumi simili alla precedente generazione?
il 50% di salto potrebbe essere riferito alle prestazioni con il ray tracing attivo...
mikael84
04-01-2020, 11:37
No aspè, attenzione:p
Le prestazioni aumenteranno in modo importante (almeno un 50% di fascia lo immagino).
L'esempio della 2080ti vale a stock, la 3080ti avrà più cavalli sotto il cofano ed un clock sicuramente più elevato, non certo 1730 in downclock da review.
E' come la 1080ti, se a 16nm l'avessero lasciata a 1200mhz medi, anzichè 1860....
Una volta che aggiungi i cc ed il clock i consumi cambiano radicalmente.
Aspettati i classici 250 watt almeno. :)
oZonoRobotics
04-01-2020, 11:55
No aspè, attenzione:p
Le prestazioni aumenteranno in modo importante (almeno un 50% di fascia lo immagino).
L'esempio della 2080ti vale a stock, la 3080ti avrà più cavalli sotto il cofano ed un clock sicuramente più elevato, non certo 1730 in downclock da review.
E' come la 1080ti, se a 16nm l'avessero lasciata a 1200mhz medi, anzichè 1860....
Una volta che aggiungi i cc ed il clock i consumi cambiano radicalmente.
Aspettati i classici 250 watt almeno. :)
ok ok :D
Con Ampere cmq, c'è molta probabilità di tornare come ai vecchi tempi.
GA 102 (quadro/3080ti/titan)
GA104( quadro/ 3080/3070)
GA106 (quadro/ 3060)
Speriamo. Che poi il refresh di Ampere me lo devo comprare, quindi è importante che facciano un buon lavoro già con queste :D
Spider-Mans
04-01-2020, 13:18
Ampere
il nome gia mi solletica
vediamo i prezzi :stordita:
thunderforce83
04-01-2020, 14:31
sono curioso di vedere se anche a questo giro nvidia fara' uscire tutto in una volta...da una parte spero di no visto il caos incontrato con le 2080ti introvabili all' inizio,d'altro canto avere gia' tutta la potenza sviluppata dall' architettura ampere sarebbe un bel salto...la vedo molto difficile visto le varie difficolta' iniziali avute con la serie 2xxx...credo piu' facile che uscita con 3070/3080 e con la titan da 2000euro ed oltre :sofico: :oink:
Con Ampere cmq, c'è molta probabilità di tornare come ai vecchi tempi.
GA 102 (quadro/3080ti/titan)
GA104( quadro/ 3080/3070)
GA106 (quadro/ 3060)
Il massimo per me sarebbe una nuova scheda con la potenza di una 2070 ed il costo/consumo di una 1660Ti: quando nvidia sfornerà una scheda simile sarò pronto per il prossimo upgrade :D
Che dite, sarà fattibile o sto solo sognando?
Tanta roba +50% in performance a metà consumi, si ritorna come nel 2016 con Pascal, se poi queste Ampere costassero 100 in meno rispetto Turing ancora meglio :rolleyes:
mikael84
04-01-2020, 15:37
Speriamo. Che poi il refresh di Ampere me lo devo comprare, quindi è importante che facciano un buon lavoro già con queste :D
Le potenzialità ci sono.
Tra 2 mesi, 2 mesi e mezzo dovrebbe essere presentato l'HPC Tesla.
Dopo si potranno trarre buone conclusioni, sopratutto se hanno aumentato l'efficienza degli shader (più si va avanti, meglio avere meno shader ma più efficienti), la composizione dei GPC e via dicendo.
Per dire, una 3070 potrebbe eguagliare una 2080ti e batterla in RT:fagiano:
sono curioso di vedere se anche a questo giro nvidia fara' uscire tutto in una volta...da una parte spero di no visto il caos incontrato con le 2080ti introvabili all' inizio,d'altro canto avere gia' tutta la potenza sviluppata dall' architettura ampere sarebbe un bel salto...la vedo molto difficile visto le varie difficolta' iniziali avute con la serie 2xxx...credo piu' facile che uscita con 3070/3080 e con la titan da 2000euro ed oltre :sofico: :oink:
A sto giro è probabile anche l'opzione x80 + Titan, in quanto si spera che la x80 sia più veloce della 2080ti, sopratutto in RT.
Non solo, con Micron che ora ha lanciato la doppia densità, in caso di bus a 256bit, la memoria della x80 sarà di 16gb.
Tuttavia nvidia si è ritagliata un'altra fascia, quindi è anche immaginabile una 3080ti devastata a 1200 euro.
Molto dipenderà anche da quello che deve, o dovrà fare AMD, se nvidia deve viaggiare da sola, ti calibra le schede per lucrarci il più possibile.
Stai cmq tranquillo che si faranno cartello.:)
Il massimo per me sarebbe una nuova scheda con la potenza di una 2070 ed il costo/consumo di una 1660Ti: quando nvidia sfornerà una scheda simile sarò pronto per il prossimo upgrade :D
Che dite, sarà fattibile o sto solo sognando?
Alla tua domanda rispondo si, con Ampere nvidia può devastare una 2070 con poco.
Bisogna vedere come organizzarà quella fascia, considerando che il RT si potrà inserire anche a tale fascia.
Probabile vedere una 3060 con chip apposito (2080 circa) ed un relativo cut (2070/s).
Mentre rimarebbero GTX, quindi senza RT le GA107 x50.:)
fraussantin
04-01-2020, 15:43
Per dire, una 3070 potrebbe eguagliare una 2080ti e batterla in RT:fagiano:
Che poi è come è sempre stato più o meno a parte stavolta con le Turing.
Se così fosse su una offertaccia sui 500 potrei valutare un upgrade della 2070 ovviamente mi dovranno dare almeno 12 giga di RAM senza cuttoni strani che limitano la.banda.
Però se amd non sarà competitiva al pari livello potrebbero fare il giochino come con Turing dandoci scarti o chip più piccoli per poi calare gli assi con le super .
mikael84
04-01-2020, 15:58
Che poi è come è sempre stato più o meno a parte stavolta con le Turing.
Se così fosse su una offertaccia sui 500 potrei valutare un upgrade della 2070 ovviamente mi dovranno dare almeno 12 giga di RAM senza cuttoni strani che limitano la.banda.
Però se amd non sarà competitiva al pari livello potrebbero fare il giochino come con Turing dandoci scarti o chip più piccoli per poi calare gli assi con le super .
12gb te li danno nel caso dei 384bit, che in versione x70 sarebbero sicuramente devastati, con partizioni cache fallate.
Se la 3070 sarà un cut della 3080 su un bus da 256bit, possono anche darti 16gb.
Sembrano numeri elevati, ma a cambio nodo e tagli ram finalmente accettabili, tutto si può fare.
La ram di turing era sperimentale, bassi clock, e la doppia densità un lusso per la sola quadro, ora l'hanno messa addirittura sulle 5500 di AMD.
Riguardo la differenza tra nvidia e AMD, partiamo sempre da un presupposto.
Nvidia non lancia un chip ad inseguire, ma lancia tutta la gamma e ci gioca come vuole.
Se AMD ti lancia a giugno RDNA2 con prestazioni superiori alla 3080, nvidia avendo già i chip, ti decurta la 3080ti e te la posiziona a 699/799.
Se AMD va quanto la 3080ti, la 3080ti miracolosamente la vedrai a 699/799.
Se a giugno nvidia esce da sola, probabile ti venda una 3080 cut a 799$
Il succo è tutto li.
Cmq in caso debuttino devastate io ve lo dico, poi ognuno acquista consapevolmente.:)
Tanta roba +50% in performance a metà consumi, si ritorna come nel 2016 con Pascal, se poi queste Ampere costassero 100 in meno rispetto Turing ancora meglio :rolleyes:
:asd: nella migliore delle ipotesi prezzi invariati ma a conti fatti è più facile che come al solito aumentino, tanto comprano a prescindere
fraussantin
04-01-2020, 16:06
12gb te li danno nel caso dei 384bit, che in versione x70 sarebbero sicuramente devastati, con partizioni cache fallate.
Se la 3070 sarà un cut della 3080 su un bus da 256bit, possono anche darti 16gb.
Sembrano numeri elevati, ma a cambio nodo e tagli ram finalmente accettabili, tutto si può fare.
La ram di turing era sperimentale, bassi clock, e la doppia densità un lusso per la sola quadro, ora l'hanno messa addirittura sulle 5500 di AMD.
Riguardo la differenza tra nvidia e AMD, partiamo sempre da un presupposto.
Nvidia non lancia un chip ad inseguire, ma lancia tutta la gamma e ci gioca come vuole.
Se AMD ti lancia a giugno RDNA2 con prestazioni superiori alla 3080, nvidia avendo già i chip, ti decurta la 3080ti e te la posiziona a 699/799.
Se AMD va quanto la 3080ti, la 3080ti miracolosamente la vedrai a 699/799.
Se a giugno nvidia esce da sola, probabile ti venda una 3080 cut a 799$
Il succo è tutto li.
Cmq in caso debuttino devastate io ve lo dico, poi ognuno acquista consapevolmente.:)Sì bus cuttato ovvio , ma che lavori bene non come sulle 970 col mezzo giga a casaccio.
Con 16 giga il problema sarà il prezzo.
Andrà a costare minimo quanto una 2080 imho.
:asd: nella migliore delle ipotesi prezzi invariati ma a conti fatti è più facile che come al solito aumentino, tanto comprano a prescindere
A tirare la corda prima o poi si spezza, peraltro sembrava acclarato, visto quante news sono uscite in merito, di come Nvidia abbia ben recepito uno dei più grandi problemi di Turing, ovvero i prezzi troppo alti.
mikael84
04-01-2020, 16:22
Sì bus cuttato ovvio , ma che lavori bene non come sulle 970 col mezzo giga a casaccio.
Con 16 giga il problema sarà il prezzo.
Andrà a costare minimo quanto una 2080 imho.
Non per forza, magari speculano sulla x80 inizialmente. I prezzi sono gonfiati alla fine.
Il bus da 384bit e 12gb di ram risolverebbe molti colli di bottiglia sia del chip x80 che del 80ti.
Il problema è che nvidia creando collegamenti spreca tanto silicio e transistor.
Per dire la tua scheda ha i 3 GPC che chiedono solo 216mm2, il restante è bus, rop's, l2 etc., con un canale monco.
Quindi da una parte, meno costi ram (che a loro non sono certo tantissimi), ma die più grossi.:p
nicola1283
04-01-2020, 16:23
Sì bus cuttato ovvio , ma che lavori bene non come sulle 970 col mezzo giga a casaccio.
Con 16 giga il problema sarà il prezzo.
Andrà a costare minimo quanto una 2080 imho.
Intanto quelle 970 si pagavano poco sopra i 300 € e andavano quanto una 780ti.
Ricordiamocelo
Ale55andr0
04-01-2020, 16:37
Se AMD va quanto la 3080ti, la 3080ti miracolosamente la vedrai a 699/799.
Se a giugno nvidia esce da sola, probabile ti venda una 3080 cut a 799$
no se AMD te la spara pure a 1000+ :asd:
Ale55andr0
04-01-2020, 16:38
Il succo è tutto li.
Cmq in caso debuttino devastate io ve lo dico, poi ognuno acquista consapevolmente.:)
vabè ma l'utente non considera se il chip è devastato o meno, ma quanto va e costa, indipendentemente dai soprusi subiti dal laseratore psicopatico :asd:. Anche tu, se ho ben capito, hai un chip "devastato", ma lo hai preso uguale perchè ripsondeva alle tue esigenze, suppongo :)
fraussantin
04-01-2020, 16:44
Intanto quelle 970 si pagavano poco sopra i 300 e andavano quanto una 780ti.
RicordiamoceloSe me la fanno a 299 euro mi sta bene anche con 7.5 giga .. chiaro .. la 970 l'avevo e non mi lamento assolutamente anzi .. ma siccome costeranno..
freddye78
04-01-2020, 16:52
A tirare la corda prima o poi si spezza, peraltro sembrava acclarato, visto quante news sono uscite in merito, di come Nvidia abbia ben recepito uno dei più grandi problemi di Turing, ovvero i prezzi troppo alti.
Sarà, ma ci credo molto poco, anzi se AMD non riuscirà nemmeno nella prossima generazione ad offrire in contemporanea un'alternativa credibile, come ha fatto alla grande sulle CPU con ryzen, nvidia continuerà a vederci come la vacca grassa da mungere e ad applicare prezzi da monopolio.
Basta vedere cosa ha fatto con le super inchiappettando alla grande chi come me aveva comprato una "vanilla" pochi mesi prima, che si è trovato dall'oggi al domani con una scheda a fine vita a distanza di solo un anno dall'uscita e quindi poco appetibile sul mercato dell'usato se non svendendola.
Per quanto mi riguarda non mi fregheranno più, da ora in poi solo usato.
fraussantin
04-01-2020, 17:34
Ragazzi l'unica cosa certa è che non costeranno meno di Turing. Speriamo almeno che riescano siano costretti a mantenere i prezzi delle attuali super.
Tanta roba +50% in performance a metà consumi, si ritorna come nel 2016 con Pascal, se poi queste Ampere costassero 100 in meno rispetto Turing ancora meglio :rolleyes:
Dire che sia ottimistico è un eufemismo :asd:
Mi aspetto il +50% di performance e il 10% in meno di consumi (efficienza +70%).
Oppure +70% di performance e stessi consumi.
Non credo proprio avremo di più...la seconda è esattamente quello che abbiamo avuto con il passaggio da Maxwell a Pascal nel lancio.
mikael84
04-01-2020, 19:20
vabè ma l'utente non considera se il chip è devastato o meno, ma quanto va e costa, indipendentemente dai soprusi subiti dal laseratore psicopatico :asd:. Anche tu, se ho ben capito, hai un chip "devastato", ma lo hai preso uguale perchè ripsondeva alle tue esigenze, suppongo :)
La mia è funzionale ma ovviamente devastata. JHH per 512 shader voleva farmi pagare 300 euro in più.
Diciamo che la mia è monca e laserata, le vere devastate sono quelle con cache fallate, come la 2080ti/2060 liscia.:)
Cmq l'utente medio ovviamente non si pone certi problemi (rode solo dopo), è chiaro. Diciamo che rode a chi ha comprato una tot. gpu monca, per poi essere sostituita da una full o da un chip laserato di fascia superiore.
Giochetti che nvidia ed AMD hanno sempre fatto. Nvidia poi si presta pure meglio, in quanto lancia tutti i chip e se li gestisce.
Per dire, una 3070 potrebbe eguagliare una 2080ti e batterla in RT:fagiano:
Esticazzi (si può dire? :D )
Spider-Mans
07-01-2020, 14:58
no se AMD te la spara pure a 1000+ :asd:
eh ma amd fa bene alla concorrenza :stordita: (si a chi spara il prezzo piu alto :asd: )
no scherzi a parte se amd prende coraggio come in ambito cpu.. (prestazioni e prezzi competitivi) avremo un futuro migliore
se si allinea a chi spara il prezzo piu alto puo anche uscire dal mercato gpu ...tanto non cambierebbe la politica di nvidia attuale
Spider-Mans
07-01-2020, 15:00
Ragazzi l'unica cosa certa è che non costeranno meno di Turing. Speriamo almeno che riescano siano costretti a mantenere i prezzi delle attuali super.
una 3080 che va piu di una 2080ti e in rtx molto di piu (ma rtx mi frage zero aparte forse su minecraft xD) al prezzo di 700-800 euro
la comprerei instant
non mi faccio sogni sulla 3080ti che otrni sui prezzi delle 1080ti e precedenti..almeno finche amd non uscira qualcosa di portentoso al prezzo di 700-800 euro
AceGranger
07-01-2020, 15:20
eh ma amd fa bene alla concorrenza :stordita: (si a chi spara il prezzo piu alto :asd: )
no scherzi a parte se amd prende coraggio come in ambito cpu.. (prestazioni e prezzi competitivi) avremo un futuro migliore
se si allinea a chi spara il prezzo piu alto puo anche uscire dal mercato gpu ...tanto non cambierebbe la politica di nvidia attuale
in ambito CPU non ha preso coraggio, ha preso Keller :stordita: ... solo che non esiste il Keller delle GPU e nVidia non ha i problemi che sta avendo Intel.
AMD è ancora palesemente dietro come architettura, visto che il pareggio di prestazioni e consumi attuale lo ha con un nodo di silicio di vantaggio, nodo di silicio che ha potuto utilizzare grazie la fatto che produce 1/3 delle GPU di nVidia, perchè TSMC non aveva abbastanza linee.
Ora che saranno entrambe sui 7nm+, a meno che nVidia non faccia errori architetturali, RDNA2 deve fare un salto consistente, o semplicemente si riproporra il solito divario.
mikael84
07-01-2020, 17:39
Esticazzi (si può dire? :D )
Niente di impossibile con Ampere, poi, chiaro, bisogna vedere come le tarerà nvidia.:)
una 3080 che va piu di una 2080ti e in rtx molto di piu (ma rtx mi frage zero aparte forse su minecraft xD) al prezzo di 700-800 euro
la comprerei instant
non mi faccio sogni sulla 3080ti che otrni sui prezzi delle 1080ti e precedenti..almeno finche amd non uscira qualcosa di portentoso al prezzo di 700-800 euro
Quest'anno potrebbe debuttare proprio la sola 3080, con probabile cut (salvo non sia una fascia separata).
Per i prezzi, se tutto va bene rimangono allineati. Ormai le fasce sono belle che stabilite. Come successe per la 680 non si tornò più indietro, anzi...
Anche AMD sparerà alto, sopratutto integrando le HBM2 stile aquabolt.
in ambito CPU non ha preso coraggio, ha preso Keller :stordita: ... solo che non esiste il Keller delle GPU e nVidia non ha i problemi che sta avendo Intel.
AMD è ancora palesemente dietro come architettura, visto che il pareggio di prestazioni e consumi attuale lo ha con un nodo di silicio di vantaggio, nodo di silicio che ha potuto utilizzare grazie la fatto che produce 1/3 delle GPU di nVidia, perchè TSMC non aveva abbastanza linee.
Ora che saranno entrambe sui 7nm+, a meno che nVidia non faccia errori architetturali, RDNA2 deve fare un salto consistente, o semplicemente si riproporra il solito divario.
La seconda che hai detto temo :muro:
Spider-Mans
07-01-2020, 20:00
Niente di impossibile con Ampere, poi, chiaro, bisogna vedere come le tarerà nvidia.:)
Quest'anno potrebbe debuttare proprio la sola 3080, con probabile cut (salvo non sia una fascia separata).
Per i prezzi, se tutto va bene rimangono allineati. Ormai le fasce sono belle che stabilite. Come successe per la 680 non si tornò più indietro, anzi...
Anche AMD sparerà alto, sopratutto integrando le HBM2 stile aquabolt.
bene e male xD
si andra di 3080 :oink:
fraussantin
07-01-2020, 20:05
Anche AMD sparerà alto, sopratutto integrando le HBM2
Dici che non potranno farle con gddr6 come navi?
mikael84
07-01-2020, 22:50
Dici che non potranno farle con gddr6 come navi?
Si che si può, però un bus da 384bit sarebbe un vero freno a mano per un chip del genere, senza considerare che la ram sarebbe di soli 12gb.
La VII è la dimostrazione di quanto sia limitante quella BW.:)
in ambito CPU non ha preso coraggio, ha preso Keller :stordita: ... solo che non esiste il Keller delle GPU e nVidia non ha i problemi che sta avendo Intel.
AMD è ancora palesemente dietro come architettura, visto che il pareggio di prestazioni e consumi attuale lo ha con un nodo di silicio di vantaggio, nodo di silicio che ha potuto utilizzare grazie la fatto che produce 1/3 delle GPU di nVidia, perchè TSMC non aveva abbastanza linee.
Ora che saranno entrambe sui 7nm+, a meno che nVidia non faccia errori architetturali, RDNA2 deve fare un salto consistente, o semplicemente si riproporra il solito divario.Menomale che ogni tanto c'è qualcuno che la pensa come me, senza sentieri dire di tifare oer una fazione o l'altra
Personalmente mi piacerebbe vedere un po' di competizione, ma soprattutto un bel calo prezzi, ma non sono così fiducioso, se in ambito CPU AMD sta seminando bene (e incomincia anche a raccogliere e accogliere consensi), su lato GPU siamo ad un nuovo inizio, se va bene con RDNA 3 avremo un AMD competitiva anche lato GPU, per adesso è prematuro, non l'ho vista né competitiva né venire in aiuto del consumatore, bisognerà vedere quanto nvidia guadagnerà dal salto di nodo, se una 3070 andrà quanto una 2080ti la vedo difficile lottare nella fascia enthusiast, RDNA2 dovrebbe non solo recuperare la già potente 2080ti, ma una eventuale 3080ti,ma forse AMD non ci oensa nemmeno a coprire quella fascia
Menomale che ogni tanto c'è qualcuno che la pensa come me, senza sentieri dire di tifare oer una fazione o l'altra
Personalmente mi piacerebbe vedere un po' di competizione, ma soprattutto un bel calo prezzi, ma non sono così fiducioso, se in ambito CPU AMD sta seminando bene (e incomincia anche a raccogliere e accogliere consensi), su lato GPU siamo ad un nuovo inizio, se va bene con RDNA 3 avremo un AMD competitiva anche lato GPU, per adesso è prematuro, non l'ho vista né competitiva né venire in aiuto del consumatore, bisognerà vedere quanto nvidia guadagnerà dal salto di nodo, se una 3070 andrà quanto una 2080ti la vedo difficile lottare nella fascia enthusiast, RDNA2 dovrebbe non solo recuperare la già potente 2080ti, ma una eventuale 3080ti,ma forse AMD non ci oensa nemmeno a coprire quella fascia
Sono quasi sicuro che Big Navi 2 andrà a puntare la 3080, magari superandola di qualcosa e costando uguale. Il che non vorrà certo dire prezzi bassi :asd:
La fascia "TI" non credo proprio che sarà presa in considerazione...
Free Gordon
08-01-2020, 00:13
Ora che saranno entrambe sui 7nm+, a meno che nVidia non faccia errori architetturali, RDNA2 deve fare un salto consistente, o semplicemente si riproporra il solito divario.
7nm+ che a quanto pare saranno per entrambi by TSMC.... :D
Se RDNA2 da RDNA1 fa lo stesso salto che ha fatto RDNA1 da GCN, allora AMD supererà Nvidia in performance.. :sofico:
Free Gordon
08-01-2020, 00:14
Sono quasi sicuro che Big Navi 2 andrà a puntare la 3080, magari superandola di qualcosa e costando uguale. Il che non vorrà certo dire prezzi bassi :asd:
La fascia "TI" non credo proprio che sarà presa in considerazione...
:mano:
AceGranger
08-01-2020, 00:31
7nm+ che a quanto pare saranno per entrambi by TSMC.... :D
Se RDNA2 da RDNA1 fa lo stesso salto che ha fatto RDNA1 da GCN, allora AMD supererà Nvidia in performance.. :sofico:
certo, se nVidia rimane sui 12nm :sofico:
mikael84
08-01-2020, 00:41
certo, se nVidia rimane sui 12nm :sofico:
Paradossalmente non è neppure scontato.:p Già il chip full tirato (non a 1700 come da review) e le samsung da 16, ci prende un 20% e passa rispetto alla 2080ti.
Ale55andr0
08-01-2020, 16:06
Si che si può, però un bus da 384bit sarebbe un vero freno a mano per un chip del genere, senza considerare che la ram sarebbe di soli 12gb.
La VII è la dimostrazione di quanto sia limitante quella BW.:)
si ma proprio perchè la VII ha 16 giga, visto che trovo improbabile un passo indietro sulla nuova top di gamma, in caso usassero le gddr6 staranno sui 512bit di bus, di logica
Paradossalmente non è neppure scontato.:p Già il chip full tirato (non a 1700 come da review) e le samsung da 16, ci prende un 20% e passa rispetto alla 2080ti.
quale chip full tirato?
mikael84
08-01-2020, 16:22
si ma proprio perchè la VII ha 16 giga, visto che trovo improbabile un passo indietro sulla nuova top di gamma, in caso usassero le gddr6 staranno sui 512bit di bus, di logica
Assolutamente si, però penso che per il chippone utilizzino ancora le HBM2 da 1tb o 1,256tb/s.
Il 512bit ddr si può creare a discapito dei consumi però. che con ram ddr6 si porterebbe via qualche watt.;)
quale chip full tirato?
La 2080ti è un chip a versione devastata, un vero scarto.
Il GT102 full, con TDP maggiorato in custom e ram 16gb/s (come la 2080/s) può staccare anche il 20% la 2080ti stock in base ai clock.
A 1870 circa dopo downclock ha medi del 17/18% superiori.
amon.akira
08-01-2020, 21:52
Assolutamente si, però penso che per il chippone utilizzino ancora le HBM2 da 1tb o 1,256tb/s.
Il 512bit ddr si può creare a discapito dei consumi però. che con ram ddr6 si porterebbe via qualche watt.;)
La 2080ti è un chip a versione devastata, un vero scarto.
Il GT102 full, con TDP maggiorato in custom e ram 16gb/s (come la 2080/s) può staccare anche il 20% la 2080ti stock in base ai clock.
A 1870 circa dopo downclock ha medi del 17/18% superiori.
già la mia a 925mv se spremuta arrivo a 310-320watt, urge ampere ^^'
mikael84
08-01-2020, 23:06
già la mia a 925mv se spremuta arrivo a 310-320watt, urge ampere ^^'
Parlo ovviamente di un modello standard, non custom.
thunderforce83
10-01-2020, 18:39
Una misteriosa GPU Radeon RX batte Nvidia RTX 2080 Ti nei primi benchmark, è la nuova Navi?31
Una nuova e misteriosa AMD Radeon RX è comparsa su alcuni benchmark dedicati alla VR e a quanto pare straccia del 17% le performance della GeForce RTX 2080 Ti.
qualcuno ha pubblicato questa informazione...voi cosa ne pensate?
Una misteriosa GPU Radeon RX batte Nvidia RTX 2080 Ti nei primi benchmark, è la nuova Navi?31
Una nuova e misteriosa AMD Radeon RX è comparsa su alcuni benchmark dedicati alla VR e a quanto pare straccia del 17% le performance della GeForce RTX 2080 Ti.
qualcuno ha pubblicato questa informazione...voi cosa ne pensate?
Chi?
Dove?
Come?
Perchè?
:eek: :eek: :eek:
Fosse vero ... :ave: :ave: :ave:
Magari giusto un mese prima che escano le nuove Nvidia; se invece dovesse uscire più tardi o nello stesso periodo, nemmeno quello :D
Come ben sappiamo lato schede video sta ancora inseguendo se parliamo delle top di gamma, anche perché credo che la nuova verde sarà ben sopra il 17%, quindi il confronto andrà fatto con quelle.
Sperare che la nuova AMD vada a competere con la 3080 Ti non credo sia realistico: per me se già arriva a quel 17% in più della 2080 Ti sarà già un miracolo, poi ben felice di sbagliarmi eh
mikael84
10-01-2020, 19:30
Una misteriosa GPU Radeon RX batte Nvidia RTX 2080 Ti nei primi benchmark, è la nuova Navi?31
Una nuova e misteriosa AMD Radeon RX è comparsa su alcuni benchmark dedicati alla VR e a quanto pare straccia del 17% le performance della GeForce RTX 2080 Ti.
qualcuno ha pubblicato questa informazione...voi cosa ne pensate?
E' un fake;)
Riguarda tutt'altro
thunderforce83
10-01-2020, 19:40
E' un fake;)
Riguarda tutt'altro
mi pareva strano...io avevo capito che poteva trattarsi della 3080:O
vabe' e' ancora presto...grazie mik;)
AceGranger
10-01-2020, 19:43
Una misteriosa GPU Radeon RX batte Nvidia RTX 2080 Ti nei primi benchmark, è la nuova Navi?31
Una nuova e misteriosa AMD Radeon RX è comparsa su alcuni benchmark dedicati alla VR e a quanto pare straccia del 17% le performance della GeForce RTX 2080 Ti.
qualcuno ha pubblicato questa informazione...voi cosa ne pensate?
che in realta il bench era di un nuovo portatile ASUS con APU AMD e GPU nVidia :asd:
per la precisione questi
https://www.tomshw.it/hardware/asus-annuncia-i-nuovi-rog-zephyrus-g14-e-g15-durante-il-ces-2020/
poi non ho mai capito il perchè tutta questa fiducia riposta in bench che alla fine sono carta da culo.
thunderforce83
10-01-2020, 19:50
io la ntizia l ho letta da qui invece...in effetti era un po' stramba...
https://multiplayer.it/notizie/amd-misteriosa-gpu-radeon-rx-batte-nvidia-rtx-2080-ti-primi-benchmark-nuova-navi.html
AceGranger
10-01-2020, 19:54
io la ntizia l ho letta da qui invece...in effetti era un po' stramba...
https://multiplayer.it/notizie/amd-misteriosa-gpu-radeon-rx-batte-nvidia-rtx-2080-ti-primi-benchmark-nuova-navi.html
si il tutto è nato da quello screen solo che, visto che ormai la qualita delle news si è abbassata notevolmente, nessuno controlla piu le fonti... alla fine un utente ha postato il LOG del bench e si sono lette le caratteristiche...
una situazione abbastanza grottesca.
thunderforce83
10-01-2020, 19:59
si il tutto è nato da quello screen solo che, visto che ormai la qualita delle news si è abbassata notevolmente, nessuno controlla piu le fonti... alla fine un utente ha postato il LOG del bench e si sono lette le caratteristiche...
una situazione abbastanza grottesca.
infatti...se parliamo di testate abbastanza famose mi vien da ridere:p
le fake news sono ovunque, tra noi ormai:doh:
mikael84
10-01-2020, 20:12
che in realta il bench era di un nuovo portatile ASUS con APU AMD e GPU nVidia :asd:
per la precisione questi
https://www.tomshw.it/hardware/asus-annuncia-i-nuovi-rog-zephyrus-g14-e-g15-durante-il-ces-2020/
poi non ho mai capito il perchè tutta questa fiducia riposta in bench che alla fine sono carta da culo.
Ancora esiste quel sito. Praticamente morto dai commenti.
io la ntizia l ho letta da qui invece...in effetti era un po' stramba...
https://multiplayer.it/notizie/amd-misteriosa-gpu-radeon-rx-batte-nvidia-rtx-2080-ti-primi-benchmark-nuova-navi.html
Per le news, consultate sempre siti seri, hwu, tech, guru3d, anandtech.
Testate minori, o non proprio del settore fanno copia e incolla per qualsiasi cosa.:)
mattxx88
10-01-2020, 20:26
si discuteva nella sezione monitor 4k di alti refresh a 4k, compressione colore ecc ecc
da qui mi chiedo, perchè non equipaggiano le schede high-end con Thunderbolt 3? per non far concorrenza alle serie pro?
fraussantin
10-01-2020, 20:27
io la ntizia l ho letta da qui invece...in effetti era un po' stramba...
https://multiplayer.it/notizie/amd-misteriosa-gpu-radeon-rx-batte-nvidia-rtx-2080-ti-primi-benchmark-nuova-navi.htmlFai una prova :
Inventati una news , la posti qui , su Tom's su reddit e su un paio di altri forum , scommetti che tempo 2 giorni su multiplayer ci fanno un articolone? :asd:
Ancora esiste quel sito. Praticamente morto dai commenti.
Sono una comica.
mattxx88
10-01-2020, 20:37
Ancora esiste quel sito. Praticamente morto dai commenti.
Sono una comica.
quando sono triste ci faccio un giro a leggermi i commenti di Bivvoz e altri 2/3 fenomeni :ciapet:
AceGranger
10-01-2020, 21:14
quando sono triste ci faccio un giro a leggermi i commenti di Bivvoz e altri 2/3 fenomeni :ciapet:
:asd:
bè senza andare troppo lontano basta che vai nel thread delle GPU AMD a leggerti le ultime pagine che hanno come focus quel bench :asd:; si prospettava una mattinata noiosa ad aspettare le elaborazioni di Recap e invece è passata velocemente :asd:
mattxx88
10-01-2020, 22:37
:asd:
bè senza andare troppo lontano basta che vai nel thread delle GPU AMD a leggerti le ultime pagine che hanno come focus quel bench :asd:; si prospettava una mattinata noiosa ad aspettare le elaborazioni di Recap e invece è passata velocemente :asd:
preferisco quello delle cpu, ci bazzica meno Nostradanus85 ma un personaggio altrettanto simpatico (https://www.hwupgrade.it/forum/showthread.php?p=46485571#post46485571)
fraussantin
11-01-2020, 06:25
preferisco quello delle cpu, ci bazzica meno Nostradanus85 ma un personaggio altrettanto simpatico (https://www.hwupgrade.it/forum/showthread.php?p=46485571#post46485571)
Lol , ho tolto il sub a quel 3d , non vale neanche la pena seguirlo.
thunderforce83
11-01-2020, 16:08
preferisco quello delle cpu, ci bazzica meno Nostradanus85 ma un personaggio altrettanto simpatico (https://www.hwupgrade.it/forum/showthread.php?p=46485571#post46485571)
noooooo,vabe'!!ahahahahahahh. Verament non ci posso credere!:D ahahahha
comunque ancora oggi molte testate piu' o meno famose hanno postato la stessa notizia...ma veramente ragazzi, questi hanno come informatore topolino oppure le fake news stanno diventando reali?:p
mikael84
11-01-2020, 18:19
noooooo,vabe'!!ahahahahahahh. Verament non ci posso credere!:D ahahahha
comunque ancora oggi molte testate piu' o meno famose hanno postato la stessa notizia...ma veramente ragazzi, questi hanno come informatore topolino oppure le fake news stanno diventando reali?:p
Gli unici bench veritieri, 3dmark etc, vengono rilasciati un mesetto prima.
Per dire, Turing, 2 mesi prima veniva apostrofata come serie x1100 ancora (ed il vero 3dmark della 2080 era uscito 3 settimane prima).
Pascal stessa cosa, 2 mesi prima ancora dubitavano sui tagli bus.
Se qualcosa di AMD fosse nell'aria, vedresti la 2080ti super, pure anticiparli.:)
thunderforce83
12-01-2020, 01:27
Gli unici bench veritieri, 3dmark etc, vengono rilasciati un mesetto prima.
Per dire, Turing, 2 mesi prima veniva apostrofata come serie x1100 ancora (ed il vero 3dmark della 2080 era uscito 3 settimane prima).
Pascal stessa cosa, 2 mesi prima ancora dubitavano sui tagli bus.
Se qualcosa di AMD fosse nell'aria, vedresti la 2080ti super, pure anticiparli.:)
per come sta messa male amd a livello tecnologico ma sopratutto con la distanza siderale nella ricerca e sviluppo tra quest'ultima e nvidia credo che potrebbe avere quel risultato sulla 2080ti solo con una soluzione dual gpu, eppure ci sarebbe da vedere...la cosa buffa e' che e' diventata notizia di dominio pubblico con le news che circolano...per assurdo potrebbe essere la 2080ti super mascherata? mah.....vedremo a breve tanto di cosa si tratta:)
Giovamas
12-01-2020, 08:38
anche se posto quasi mai ultimamente per trasferte eterne lavorative seguo sempre, in particolare Mike :)
intanto letto ora
https://wccftech.com/nvidia-will-be-annnouncing-7nm-ampere-gpus-at-gtc-2020-in-march/
oZonoRobotics
12-01-2020, 08:59
https://wccftech.com/nvidia-will-be-annnouncing-7nm-ampere-gpus-at-gtc-2020-in-march/
top, ho visto che quando presentano dopo mettono subito sul mercato... se presentano a marzo, ad aprile può essere siano già ordinabili... se non esce la TI mi sa che faccio la minchiata di prendere una x80 liscia andando contro a tutti i discorsoni che ho fatto che per non prender più schienate bisogna prender sempre e solo la x80ti :P
thunderforce83
12-01-2020, 10:56
anche se posto quasi mai ultimamente per trasferte eterne lavorative seguo sempre, in particolare Mike :)
intanto letto ora
https://wccftech.com/nvidia-will-be-annnouncing-7nm-ampere-gpus-at-gtc-2020-in-march/
queste sono le belle notizie, che adoro sentire la domenica mattina prima del megapranzo in famiglia:) ;)
anche se posto quasi mai ultimamente per trasferte eterne lavorative seguo sempre, in particolare Mike :)
intanto letto ora
https://wccftech.com/nvidia-will-be-annnouncing-7nm-ampere-gpus-at-gtc-2020-in-march/
Ottimo, sempre più probabile l'uscita delle nuove RTX Ampere per maggio/giugno, tempistica Pascal 2016.
mikael84
12-01-2020, 15:43
anche se posto quasi mai ultimamente per trasferte eterne lavorative seguo sempre, in particolare Mike :)
intanto letto ora
https://wccftech.com/nvidia-will-be-annnouncing-7nm-ampere-gpus-at-gtc-2020-in-march/
top, ho visto che quando presentano dopo mettono subito sul mercato... se presentano a marzo, ad aprile può essere siano già ordinabili... se non esce la TI mi sa che faccio la minchiata di prendere una x80 liscia andando contro a tutti i discorsoni che ho fatto che per non prender più schienate bisogna prender sempre e solo la x80ti :P
Teoricamente le presentazioni dovrebbero essere:
-Marzo (HPC)
-Giugno (computex) gaming
-Luglio (siggraph) gaming
Quindi per marzo è lecito aspettarsi la Tesla HPC ampere GA100, per giugno le gaming.
Tuttavia una volta presentata la Tesla, siamo a cavallo, in quanto si protranno stilare tante cose.:)
Riguardo le fasce gaming, potrebbe ripetersi quanto visto in passato, con la top 3080, e la 3080ti a seguire.
TigerTank
12-01-2020, 15:57
Teoricamente le presentazioni dovrebbero essere:
-Marzo (HPC)
-Giugno (computex) gaming
-Luglio (siggraph) gaming
Quindi per marzo è lecito aspettarsi la Tesla HPC ampere GA100, per giugno le gaming.
Tuttavia una volta presentata la Tesla, siamo a cavallo, in quanto si protranno stilare tante cose.:)
Riguardo le fasce gaming, potrebbe ripetersi quanto visto in passato, con la top 3080, e la 3080ti a seguire.
Ok, considerando poi il periodo di rodaggio(augurandoci che non ci siano ancora vga fallate nei primi lotti :D ) e quello di mercato, mi sa che settembre potrà essere un buon periodo di upgrade :D
Prezzi, modelli papabili e aspettative permettendo :)
mikael84
12-01-2020, 16:05
Ok, considerando poi il periodo di rodaggio(augurandoci che non ci siano ancora vga fallate nei primi lotti :D ) e quello di mercato, mi sa che settembre potrà essere un buon periodo di upgrade :D
Prezzi, modelli papabili e aspettative permettendo :)
Si, se verranno presentate e lanciate a giugno, l'accessibilità migliore sarà settembre, sopratutto per certe custom.:)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.