View Full Version : Radeon RX 6000, AMD anticipa le prestazioni: RTX 3080 nel mirino?
Redazione di Hardware Upg
08-10-2020, 19:31
Link alla notizia: https://www.hwupgrade.it/news/skvideo/radeon-rx-6000-amd-anticipa-le-prestazioni-rtx-3080-nel-mirino_92628.html
A margine della presentazione dei Ryzen 5000, AMD ha anticipato alcuni numeri di Big Navi, la top di gamma della famiglia Radeon RX 6000: le prestazioni sembrano indicare una battaglia serrata con la RTX 3080 di Nvidia.
Click sul link per visualizzare la notizia.
ma il 28 presenteranno solo la gpu top di gamma o qualche altra proposta nelle fasce dalla rtx 3070 in giu'?
StylezZz`
08-10-2020, 19:43
ma il 28 presenteranno solo la gpu top di gamma o qualche altra proposta nelle fasce dalla rtx 3070 in giu'?
Penso anche qualche altra proposta, nvidia aspetta questo per decidere cosa fare con la 3070.
SinapsiTXT
08-10-2020, 20:11
ma il 28 presenteranno solo la gpu top di gamma o qualche altra proposta nelle fasce dalla rtx 3070 in giu'?
Così come Nvidia ha proposto 3 schede (3070-3080-3090) loro probabilmente annunceranno più di una scheda video e potrebbero decidere di metterle in vendita in maniera scaglionato (come ha fatto Nvidia con la differenza che avevano uno stock di Zio Paperino :muro: ) però l'unica persona che potrebbe risponderti con certezza è Lisa ma lo ritengo poco probabile un evento così atteso e annunciano una sola gpu (considerando che i numeri di vendita più grossi sono sempre delle schede intermedie come la 3070 di Nvidia e controparte di AMD).
Anche questa una mostruosità da 3 slot?
Ormai i PC gaming occupano quanto un monolocale...
bagnino89
08-10-2020, 20:34
Non male se arrivano alla 3080. Unito al fatto che probabilmente avranno 16 GB di VRAM, questo costringerà Nvidia a tirare fuori le "vere" nuove GPU con VRAM doppia.
Speriamo. Magari BLJ abbassa un po' la crestina e le sforna dalla sua cucina un po' più rapidamente.
nickname88
08-10-2020, 21:46
Anche su Gears 5 ci siamo : LINK (https://www.guru3d.com/articles_pages/zotac_geforce_rtx_3080_trinity_review,15.html)
sebbene sia ipotizzabile che l'azienda ci abbia mostrato i migliori numeri a sua disposizione.Non ci piacerebbe.
Non male se arrivano alla 3080. Unito al fatto che probabilmente avranno 16 GB di VRAM, questo costringerà Nvidia a tirare fuori le "vere" nuove GPU con VRAM doppia.
Speriamo. Magari BLJ abbassa un po' la crestina e le sforna dalla sua cucina un po' più rapidamente.Le GPU saranno le stesse in realtà.
Anche questa una mostruosità da 3 slot?
Ormai i PC gaming occupano quanto un monolocale...La VGA sta dentro il case e il case non lievita mica, entra in un qualsiasi decente case ATX e mATX e alcuni mITX, non ci vedo nulla di tragico. Se poi avete un ultra compatto o un case vecchio anni 90 con i cestelli non vi potete lamentare.
Basta un banalissimo Fractal Define Compact piuttosto che un Phantecs Evolv mATX e molti altri, che rispetto ad un monolocale sono piuttosto ridotti.
Mi raccomando, AMD, i driver, i driver...
Possono veramente fare la differenza
Spero davvero che la concorrenza sia spietata!!
rexjanuarius
08-10-2020, 22:24
Auguriamoci che i numeri siano vicini alla RTX 3080, così potremmo forse vedere un abbassamento di prezzo ed una concorrenza agguerrita nei prossimi mesi. L'unica cosa che mi preoccupa davvero sono il supporto di AMD sulle GPU: sebbene sul fronte processori siano in maniera indiscussa superiori in termini tecnici, sul fronte video vi è stata grande impreparazione e scarsa attenzione sul fronte driver, che ha reso anche le soluzioni interessanti quali le schede 5000 un vero disastro, per non parlare dei supporti dismessi sulle schede video meno recenti, che ad un cliente più affezionato come me che vuole mantenere un certo hardware riciclandolo non fa mai piacere. Sotto questo profilo Nvidia è avanti nettamente, e credo che proprio su quest'aspetto dovrebbero dare prova della propria maturità. A questo aggiungiamoci il supporto al Ray Tracing e le nuove funzionalità delle schede Nvidia, di cui non sappiamo nulla circa una controparte AMD. Insomma, la carissima Lisa Su è chiamata ad una prova durissima, anche perché la concorrenza, nonostante il Paper-Launch, ha convinto la clientela.
aldo87mi
08-10-2020, 22:51
L'ho detto raga, se AMD il 28 ottobre (marcia su roma) caccia fuori una Radeon con 32GB e ray tracing a 600-700 eur la compro. A questo giro lascio Nvidia
StylezZz`
08-10-2020, 22:54
L'ho detto raga, se AMD il 28 ottobre (marcia su roma) caccia fuori una Radeon con 32GB e ray tracing a 600-700 eur la compro. A questo giro lascio Nvidia
Così finalmente potrai giocare in 8k :asd:
kliffoth
08-10-2020, 23:09
28 ottobre, una data che non dimenticherò: mi scadono le uova che ho comprato oggi
matrix83
09-10-2020, 00:14
Anche su Gears 5 ci siamo : [B]
Basta un banalissimo Fractal Define Compact piuttosto che un Phantecs Evolv mATX e molti altri, che rispetto ad un monolocale sono piuttosto ridotti.
C'è un posto all'inferno per quelli come te che non sanno cosa significa e come si usa "piuttosto che". Sta cosa ammazza l'italiano peggio di chi non sa usare i congiuntivi.
Spero davvero che la concorrenza sia spietata!!
Assolutamente.
Speriamo che si ammazzino a vicenda.
Va tutto a nostro vantaggio.
Mi raccomando, AMD, i driver, i driver...
Possono veramente fare la differenza
Se anche a questo ennesimo giro sfornano hardware valido(tipo le 5000) e poi tirano fuori roba come le schermate nere, vi garantisco che vado la. Con un bastone.
28 ottobre, una data che non dimenticherò: mi scadono le uova che ho comprato oggi
Giusto giusto giorno di paga.:)
L'ho detto raga, se AMD il 28 ottobre (marcia su roma) caccia fuori una Radeon con 32GB e ray tracing a 600-700 eur la compro. A questo giro lascio Nvidia
Ma sì, dopo tutto Amd è una società senza scopo di lucro no?
cronos1990
09-10-2020, 07:42
Assolutamente.
Speriamo che si ammazzino a vicenda.
Va tutto a nostro vantaggio.Oddio, se si fanno fuori a vicenda ci rimarrebbe da comprare le GPU Intel, e a quel punto non la vedo tanto rosea la situazione :asd:
si però dovrebbero anche aggiungere un ryzen in confezione a quel prezzo...Non dimentichiamoci dell'omino AMD che viene direttamente a casa tua dal Canada e te la installa nel tuo PC gratis. E ti offre anche il caffè :asd:
Assolutamente.
Speriamo che si ammazzino a vicenda.
Va tutto a nostro vantaggio.
Oddio, se si fanno fuori a vicenda ci rimarrebbe da comprare le GPU Intel, e a quel punto non la vedo tanto rosea la situazione :asd:
Banchetteremo sui loro resti!! (Qui immaginatevi una risata malefica che riecheggia in tutto l'universo)
Non dimentichiamoci dell'omino AMD che viene direttamente a casa tua dal Canada e te la installa nel tuo PC gratis. E ti offre anche il caffè :asd:
Viene direttamente Lisa Su a portartela (che a me sembra Jackie Chan e nessuno mi convincerà mai del contrario)
Gyammy85
09-10-2020, 07:56
Le perf ci sono, e non sappiamo neanche se sia la top o qualcosa di appena sotto
Mi stuzzica particolarmente cod che fa 88 fps, e potrebbe benissimo essere con rt on, andando come 3090...improbabile che doppi la 5700xt negli altri due ma solo un +60% in cod
Let them fight!
Non ho in programma l'acquisto di una gpu (anche perché al momento gioco su un portatile e per quel poco che gioco non posso giustificare 1500 euro di spesa per un fisso) ma mi piacerebbe vedere una bella lotta sui prezzi e sulle prestazioni come qualche anno fa...
Viene direttamente Lisa Su a portartela (che a me sembra Jackie Chan e nessuno mi convincerà mai del contrario)
V.M.18
Solo a me viene il pensiero di consumare con lei mentre tengo in mano una 3090 dicendole...sii...daii...fammi vedere che puoi darmi più di nVidia e meglio !!!
Si comunque un pochetto ci somiglia...ma è questione di rivalsa e di rivalità tra fazioni e proprietari di schede video...
:asd:
V.M.18
Solo a me viene il pensiero di consumare con lei mentre tengo in mano una 3090 dicendole...sii...daii...fammi vedere che puoi darmi più di nVidia e meglio !!!
:asd:
Mi si ripropongono i cappelletti del primo dell'anno :asd:
Mi si ripropongono i cappelletti del primo dell'anno :asd:
ahahahhaahaha.....scusa è che stamattina m'ha preso bene...in ditta urlano come demoni inferociti in ogni ufficio e tento di sdrammatizzare...:asd:
Portocala
09-10-2020, 08:13
Viene direttamente Lisa Su a portartela (che a me sembra Jackie Chan e nessuno mi convincerà mai del contrario)
Jackie Chan doppelganger :asd:
Ma qualcuno sa se quei numeri sono fatti con un 10900k o un 5950x? :asd:
Prestazioni medie comprese tra 2080ti e 3080 (piu` vicine alla seconda).
Ora bisogna vedere prezzi e consumi.
V.M.18
Solo a me viene il pensiero di consumare con lei mentre tengo in mano una 3090 dicendole...sii...daii...fammi vedere che puoi darmi più di nVidia e meglio !!!
Si comunque un pochetto ci somiglia...ma è questione di rivalsa e di rivalità tra fazioni e proprietari di schede video...
:asd:
Cioè...ma sei sicuro?
https://cdn.pressebox.de/a/d0ed91c60fb4c6a2/attachments/0434268.attachment/filename/lisa_su_bio_img_hi_res.jpg
Cioè...ma sei sicuro?
Guarda piuttosto che svegliarmi altri 25, se va bene, e riportare due spicci di stipendio....SI, lo faccio lo sforzo. Ma mi deve dare un posto di potere in AMD e sedia in pelle umana ! :D
p.s. mettila più grande l'immagine, che non si vede bene...! :asd:
nickname88
09-10-2020, 08:52
Le perf ci sono, e non sappiamo neanche se sia la top o qualcosa di appena sotto
Mi stuzzica particolarmente cod che fa 88 fps, e potrebbe benissimo essere con rt on, andando come 3090...improbabile che doppi la 5700xt negli altri due ma solo un +60% in codBravo continua con le tue esagerazioni.
Non mi pare ci sia un bench integrato per MW, quindi con come abbia tu aver fatto un confronto diretto con la 3090 è un mistero.
Come la 3090 ? Questa è la 3080 e mi pare in linea.
https://www.youtube.com/watch?v=nAqwC7rrOwI&ab_channel=xyz2theb
improbabile che doppi la 5700xtIl doppio delle CU, con architettura affinata e con frequenze probabilmente simili o superiori ? Mediamente dovrebbe invece fornire almeno un +100% rispetto ad una 5700XT, perchè la 3080 lo fa.
https://tpucdn.com/review/nvidia-geforce-rtx-3080-founders-edition/images/relative-performance_3840-2160.png
Poi c'è da capire cosa tirerà fuori AMD per competere col DLSS, argomento ben più importante.
Guarda piuttosto che svegliarmi altri 25, se va bene, e riportare due spicci di stipendio....SI, lo faccio lo sforzo. Ma mi deve dare un posto di potere in AMD e sedia in pelle umana ! :D
p.s. mettila più grande l'immagine, che non si vede bene...! :asd:
Volevo che fossi proprio sicuro, più è grande meglio è! :asd:
Volevo che fossi proprio sicuro, più è grande meglio è! :asd:
Quanto sei crudele comunque !
Poraccia. É un tipo ! :mad:
Quanto sei crudele comunque !
Poraccia. É un tipo ! :mad:
https://pbs.twimg.com/profile_images/502409323717615616/cwojDzz9.jpeg
Un tipo ? [...] Il tipo più brutto d'Europa... -cit. Loris Batacchi, lo Spattolatore Folle :D
nickname88
09-10-2020, 09:13
V.M.18
Ci vuole coraggio.
Ma tanto !
Gyammy85
09-10-2020, 09:19
Bravo continua con le tue esagerazioni.
Non mi pare ci sia un bench integrato per MW, quindi con come abbia tu aver fatto un confronto diretto con la 3090 è un mistero.
Come la 3090 ? Questa è la 3080 e mi pare in linea.
https://www.youtube.com/watch?v=nAqwC7rrOwI&ab_channel=xyz2theb
Il doppio delle CU, con architettura affinata e con frequenze probabilmente simili o superiori ? Mediamente dovrebbe invece fornire almeno un +100% rispetto ad una 5700XT, perchè la 3080 lo fa.
https://tpucdn.com/review/nvidia-geforce-rtx-3080-founders-edition/images/relative-performance_3840-2160.png
Poi c'è da capire cosa tirerà fuori AMD per competere col DLSS, argomento ben più importante.
Su toms la 3090 fa esattamente 88 fps a 4k, poi mi sembra che in quel video che hai postato la 3080 faccia 10 fps buoni in meno, ok dxr ma sarebbe davvero strano che rdna2 faccia solo 88 fps quando pure una 5700xt ne fa 60 a 4k
Per il dlss faranno sicuro una cosa simile, senza però la fascinazione delle unità dedicate intelligenti deep lerniche che pompano 200 tf in int2 interpolate fp11
Ci vuole coraggio.
Ma tanto !
https://64.media.tumblr.com/27042c16f3a273eff4e3079db4979067/tumblr_p1zn0xJoEg1rfd7lko1_500.gifv
Chissà lui come commenterebbe...:p
Se le prestazioni sono quelle, sarà un'ottima cosa ed AMD avrà colmato il gap tecnologico con le proposte top di gamma Nvidia che negli ultimi anni rimanevano irraggiungibili.
CarmackDocet
09-10-2020, 09:49
Sarrebbe interessante sapere se loro piattaforma di test era basata sui nuovi Ryzen 5000... ma penso proprio di si
MiKeLezZ
09-10-2020, 10:11
Se i numeri di AMD la mostrano vicino alla 3080, significa che andrà come la 3070. Forse 1 o 2 fps in più.
Vedendo la grandezza della scheda e conoscendo i trascorsi progettuali (cioè aggiungere silicio su silicio usando sempre la solita architettura di 10 anni fa), consumerà circa il doppio della stessa.
Costi probabilmente paragonabili alla 3070 e quindi flop di vendite annunciato.
Ovviamente i fan AMD diranno, una volta recensita e mostrati gli amari dati, che le scarse prestazioni sono causate dall'architetuttura acerba e giureranno sulla propria madre che con fantasiosi e magici nuovi driver si otterranno prestazioni di una 3090 - cosa che sarà ovviamente disattesa dai fatti.
Sic et simpliciter.
Segnatevelo e ritroviamoci qua fra 1 mese.
nickname88
09-10-2020, 10:18
Su toms la 3090 fa esattamente 88 fps a 4kNon hai capito :rolleyes:
poi mi sembra che in quel video che hai postato la 3080 faccia 10 fps buoni in menoMa il paraocchi l'hai tolto prima di guardare ?
ok dxr ma sarebbe davvero strano che rdna2 faccia solo 88 fps quando pure una 5700xt ne fa 60 a 4kQuindi ora contesti pure i dati di Lisa Su ? Anche le Nvidia presentano casi di questo tipo, succede quando non ci sono drivers dotati di profilo ottimizzato per nessun gioco o quasi nessuno.
Per il dlss faranno sicuro una cosa simile, senza però la fascinazione delle unità dedicate intelligenti deep lerniche che pompano 200 tf in int2 interpolate fp11Si faran qualcosa di simile, DLSS però ha già cominciato a prendere piede a partire dalla serie precedente.
Senza la fascinazione delle unità dedicate ? Quindi avrà performance inferiori a tuo dire, ma esiste già in realtà.
cronos1990
09-10-2020, 10:22
Segnatevelo e ritroviamoci qua fra 1 mese.Se lo avessi fatto per ogni tuo messaggio sul forum e ci avessimo scommesso 1 centesimo ogni volta, oggi sarei miliardario :asd:
nickname88
09-10-2020, 10:23
Se i numeri di AMD la mostrano vicino alla 3080, significa che andrà come la 3070. Forse 1 o 2 fps in più.
Vedendo la grandezza della scheda e conoscendo i trascorsi progettuali (cioè aggiungere silicio su silicio usando sempre la solita architettura di 10 anni fa), consumerà circa il doppio della stessa.
Costi probabilmente paragonabili alla 3070 e quindi flop di vendite annunciato.
Ovviamente i fan AMD diranno, una volta recensita e mostrati gli amari dati, che le scarse prestazioni sono causate dall'architetuttura acerba e giureranno sulla propria madre che con fantasiosi e magici nuovi driver si otterranno prestazioni di una 3090 - cosa che sarà ovviamente disattesa dai fatti.
Sic et simpliciter.
Segnatevelo e ritroviamoci qua fra 1 mese.Io invece mi aspettavo e mi aspetto che competa con la 3080, il PP Samsung si è rivelato ridicolo non dimentichiamocelo. +15% di P/W rispetto alla 2080. Una performance doppia rispetto ad una 5700XT per AMD invece è molto probabile.
cronos1990
09-10-2020, 10:25
ok dxr ma sarebbe davvero strano che rdna2 faccia solo 88 fps quando pure una 5700xt ne fa 60 a 4kSolo? Siamo ad un +50% di prestazioni (SE... SE quei numeri saranno confermati).
Che ti aspettavi, 150 FPS in 10K con RT attivo e 3 giochi fatti girare contemporaneamente? :asd:
SE (SE) questa Big Navi si attesterà vicino alla 3080 come prestazioni sarà già tanta roba.
Davirock
09-10-2020, 10:31
Ma qualcuno sa se quei numeri sono fatti con un 10900k o un 5950x? :asd:
Sarrebbe interessante sapere se loro piattaforma di test era basata sui nuovi Ryzen 5000... ma penso proprio di si
Test fatti con Ryzen 5950X... dichiarato durante la presentazione (seguito la diretta e trascrizione di Anandtech).
Sono veramente curioso di capire soprattutto l'implementazione di RT, perchè questa è la vera novità tecnologica per AMD. Sicuramente NVIDIA ha la sua esperienza e la sua architettura su questo fronte mentre AMD è indietro su questo punto, anche se avrà il vantaggio poter avere a breve un parco macchine molto grande considerando le nuove console.
Quanto sei crudele comunque !
Poraccia. É un tipo ! :mad:
Io non ho detto nulla, ho solo postato un suo ritratto significativo. :D
Scommetto che da ragazza lei era l'amica simpatica. :asd:
DrSto|to
09-10-2020, 10:54
A me piace pensare che Lisa stia bluffando :D
Comunque c'è da notare che Borderlands 3 e GoW5 girano su UE.
HwWizzard
09-10-2020, 11:05
Io invece mi aspettavo e mi aspetto che competa con la 3080, il PP Samsung si è rivelato ridicolo non dimentichiamocelo. +15% di P/W rispetto alla 2080. Una performance doppia rispetto ad una 5700XT per AMD invece è molto probabile.
Beh diciamo che quello che si aspettano tutti (tolti gli estremisti) è un sostanziale pareggio al livello della RTX3080. La 3090 è chiaramente una presa per il culo visto che uscirà la 3080 20Gb che costerà molto meno.
Ma la battaglia credo sarà tra 3070 e la 6700, anche per questo nVidia ha posticipato il lancio della scheda. Comunque per tutti è positivo il ritorno alla competizione a tutti i livelli anche in campo VGA.
Speriamo solo che riescano a renderle più fresche e silenziose della 5700XT, vero punto debole delle attuali AMD
StylezZz`
09-10-2020, 11:18
Speriamo solo che riescano a renderle più fresche e silenziose della 5700XT, vero punto debole delle attuali AMD
Beh certo, la reference blower è una turbina, oltre ad essere bruttissima esteticamente imho, ma ci sono custom come le sapphire che sono ottime.
https://videocardz.com/newz/amd-teases-radeon-rx-6000-big-navi-4k-performance
Before the event, Radeon Scott Herkelmann stressed that AMD did not disclose which Radeon RX 6000 graphics card was used for these benchmarks. It is also important to note that AMD tested RX 6000 with Ryzen 9 5900X CPU, yet an unreleased processor. No GPU reviewer has had access to this processor hence apple to apple comparison between platforms is not possible. This is important because AMD claims that this processor will be better than Intel CPUs in gaming. Whether that affects 4K performance, we don’t know yet.
https://cdn.videocardz.com/1/2020/10/Radeon-RX-6000-Performance-1.png
Di modelli Big Navi al lancio ce ne potrebbero essere 2 o persino 3, non è ancora chiaro.
Quindi in realtà sappiamo ben poco, meglio aspettare la presentazione di fine mese.
cronos1990
09-10-2020, 11:41
Io torno solo a dire quello che ho già detto alla presentazione delle 3080: se Nvidia è tornata a fare prezzi "normali" per le varie fasce prestazionali, e oltretutto si è mostrata con largo anticipo rispetto alla concorrenza, potrebbe essere per il fatto che suppone che AMD stia per sfornare schede competitive.
Staremo a vedere; mi piacerebbe poter davvero scegliere. Il nodo principale da sciogliere, probabilmente, sarà il RT.
DrSto|to
09-10-2020, 11:43
Di modelli Big Navi al lancio ce ne potrebbero essere 2 o persino 3, non è ancora chiaro.
Quindi in realtà sappiamo ben poco, meglio aspettare la presentazione di fine mese.
Lisa Su ha chiaramente detto "the most powerful gaming GPU we've ever build".
Il nodo principale da sciogliere, probabilmente, sarà il RT.
Al momento il RT è solo un tarlo che il marketing Nvidia ha messo nella testa del consumatore.
nickname88
09-10-2020, 11:47
C'è comunque da dire che BL3 e Gears5 sono due titoli sponsorizzati AMD.
Quindi il timore che siano i suoi risultati migliori c'è.
nickname88
09-10-2020, 11:49
Al momento il RT è solo un tarlo che il marketing Nvidia ha messo nella testa del consumatore.Si certo come no.
Il RT tracing è il futuro, futuro prossimo viste le nuove console per altro.
E il DLSS e tecnologie analoghe idem.
Lisa Su ha chiaramente detto "the most powerful gaming GPU we've ever build".
Ha mostrato la scheda ed ha detto quelle parole.
Ma poi mostrando subito dopo la slide non ha detto quale RX6000 fosse stata testata, quindi non è scontato che fosse "la più potente" tra le RX6000, sebbene sia l'ipotesi più plausibile.
https://cdn.videocardz.com/1/2020/10/AMD-Ryzen-5900X-Radeon-6000.jpg
Alla fine hanno speso meno di 5 minuti per la RX 6000, praticamente non hanno detto nulla.
Oddio, se si fanno fuori a vicenda ci rimarrebbe da comprare le GPU Intel, e a quel punto non la vedo tanto rosea la situazione :asd:
Aahahahhahaah no, non intendevo "ammazzarsi" in quel significato :asd:
V.M.18
Solo a me viene il pensiero di consumare con lei mentre tengo in mano una 3090 dicendole...sii...daii...fammi vedere che puoi darmi più di nVidia e meglio !!!
Si comunque un pochetto ci somiglia...ma è questione di rivalsa e di rivalità tra fazioni e proprietari di schede video...
:asd:
Guarda piuttosto che svegliarmi altri 25, se va bene, e riportare due spicci di stipendio....SI, lo faccio lo sforzo. Ma mi deve dare un posto di potere in AMD e sedia in pelle umana ! :D
Per un posto in AMD, "consumo" con chi ti pare :asd:
Per il resto, se Lisa Su fosse l'ultima donna al mondo, diventerei omosessuale senza pensarci più di tanto :D
Lisa Su ha chiaramente detto "the most powerful gaming GPU we've ever build".
Scusate, ma dove sarebbe la cosa strana in questa dichiarazione?
La 6000 andrà certamente più veloce della 5700, che andava più veloce delle generazioni precedenti, che andavano più veloci di quelle precedenti, e cosi via fino alle vecchissime Radeon 8000SE del 1714
Al momento la 6000 è sicuramente la GPU più potente mai costruita da AMD, e tra 2 anni dirà lo stesso della 7000
StylezZz`
09-10-2020, 12:32
Al momento il RT è solo un tarlo che il marketing Nvidia ha messo nella testa del consumatore.
Al momento si, 4 giochi in croce e differenze visive davvero ridicole, serie 2000 venduta a prezzo d'oro per una feature in beta.
Ma in futuro sarà davvero una bella roba da guardare e giocare, rimane da vedere se la serie 3000 e le RX 6000 saranno la generazione giusta.
cronos1990
09-10-2020, 12:42
Al momento il RT è solo un tarlo che il marketing Nvidia ha messo nella testa del consumatore.L'RT sarà presente sulle future console, cioè il traino e il grosso del mercato videoludico, e sia a livello marketing che di contenuti veri e propri stanno spingendo tutti, dai publisher alle SH. E le console montano AMD, non Nvidia.
Nvidia ha semplicemente buttato fuori con largo anticipo la sua tecnologia... in anticipo rispetto a tante cose. Ma tra tutte le cose che hanno buttato fuori (tra cui il PhysX o i "peli della barba di Geralt" :asd: ) l'RT è la cosa meno marchettara che hanno mai proposto. Oltretutto non è neanche una loro proprietà intellettuale come tante altre proposte.
Il punto focale è che mentre per Nvidia si hanno delle certezze riguardo all'RT, per AMD ancora non si sa una beneamata mazza. Data la centralità per i futuri giochi di tale tecnologia, ritengo che sia un nodo fondamentale dal quale passare.
StylezZz`
09-10-2020, 12:53
Ma tra tutte le cose che hanno buttato fuori (tra cui il PhysX o i "peli della barba di Geralt" :asd: ) l'RT è la cosa meno marchettara che hanno mai proposto. Oltretutto non è neanche una loro proprietà intellettuale come tante altre proposte.
Eppure il PhysX mi piaceva da matti, ogni tanto mi rigioco Batman Arkham, aveva effetti davvero carucci, e personalmente li trovo migliori del raytracing attuale :rolleyes:
Eppure il PhysX mi piaceva da matti, ogni tanto mi rigioco Batman Arkham, aveva effetti davvero carucci, e personalmente li trovo migliori del raytracing attuale :rolleyes:
A chi lo dici...comprai la GTX580 all'epoca per sostituire la Radeon 5870. Era appena uscito Alice Madness Returns e con il physx su massimo era ingocabile senza nvidia...fumo, liquidi, detriti...:cry:
Eppure il PhysX mi piaceva da matti, ogni tanto mi rigioco Batman Arkham, aveva effetti davvero carucci, e personalmente li trovo migliori del raytracing attuale :rolleyes:
A quanto pare alla massa giocante piacciono più i riflessi nelle pozze che la fisica e l'interazione.
Intendiamoci, il RT inteso come miglioramento di workflow nel lavoro dei grafici è una tecnologia meravigliosa ma sbandierarlo come il cambiamento epocale nei VG è prematuro adesso e solo marketing.
cronos1990
09-10-2020, 13:40
Eppure il PhysX mi piaceva da matti, ogni tanto mi rigioco Batman Arkham, aveva effetti davvero carucci, e personalmente li trovo migliori del raytracing attuale :rolleyes:Il problema è che c'era già Havok che funzionava uguale ed era più leggero, oltre ad essere un formato "libero" utilizzabile da chiunque.
Nvidia invece spingeva a piazzare il suo PhysX per 4 cretinate nei giochi, al fine di spingerti all'acquisto delle loro schede; perchè se non avevi una GPU Nvidia, il PhysX di fatto non lo potevi usare.
Va bo, siamo decisamente OT.
A chi lo dici...comprai la GTX580 all'epoca per sostituire la Radeon 5870. Era appena uscito Alice Madness Returns e con il physx su massimo era ingocabile senza nvidia...fumo, liquidi, detriti...:cry:C.V.D. :asd:
nickname88
09-10-2020, 13:42
A quanto pare alla massa giocante piacciono più i riflessi nelle pozze che la fisica e l'interazione.
Intendiamoci, il RT inteso come miglioramento di workflow nel lavoro dei grafici è una tecnologia meravigliosa ma sbandierarlo come il cambiamento epocale nei VG è prematuro adesso e solo marketing.
Il sistema di illuminazione in realtà è la componente più importante.
E si è un cambiamento epocale, visto che è l'unico vero sistema di illuminazione calcolato in tempo reale e realistico che è seguito da oltre 20 anni.
majinbu7
09-10-2020, 13:43
Beh diciamo che quello che si aspettano tutti (tolti gli estremisti) è un sostanziale pareggio al livello della RTX3080. La 3090 è chiaramente una presa per il culo visto che uscirà la 3080 20Gb che costerà molto meno.
Ma la battaglia credo sarà tra 3070 e la 6700, anche per questo nVidia ha posticipato il lancio della scheda. Comunque per tutti è positivo il ritorno alla competizione a tutti i livelli anche in campo VGA.
Speriamo solo che riescano a renderle più fresche e silenziose della 5700XT, vero punto debole delle attuali AMD
Veramente il punto debole della serie 5000 di AMD , sono stati i driver, per il resto erano ottime vga...certo che se ogni 3x2 ti crashava il gioco a desktop o ti dava black screen...beh ciao proprio.
nickname88
09-10-2020, 13:46
Veramente il punto debole della serie 5000 di AMD , sono stati i driver, per il resto erano ottime vga...certo che se ogni 3x2 ti crashava il gioco a desktop o ti dava black screen...beh ciao proprio.
E che cosa vi aspettate da questa nuova serie ?
Migliorare la qualità dei drivers non significa tirare fuori 2-3 versioni buone consecutive e basta, ma va valutato nell'arco di anni.
Se AMD è rimasta con questo livello fino ad ora, statisticamente è improbabile che cambi proprio adesso. A meno che non esca domani la news che tutti i programmatori addetti son stati licenziati in tronco dal primo all'ultimo e il know how cancellato definitivamente.
Il sistema di illuminazione in realtà è la componente più importante.
E si è un cambiamento epocale, visto che è l'unico vero sistema di illuminazione calcolato in tempo reale e realistico che è seguito da oltre 20 anni.
Sono giochi, e come tali il gameplay è la parte più importante, la fisica può essere usata moltissimo a pro del gameplay, il RT è più una questione grafica per raggiungere la verosimiglianza rispetto alla realtà cui siamo abituati.
Inoltre per come è implementata a livello attuale aggiunge si dei piacevoli effetti ma è lontano dalla completezza che ci si aspetta, proprio per un problema di prestazioni e di tecnologia disponibile.
Per i programmatori è una panacea, l'ho detto chiaramente. Fossi un programmatore sarei felicissimo di poter usufruire di tale tecnologia. Finché però non sarà largamente diffusa e facilmente gestibile toccherà comunque fare doppio lavoro per i sistemi non compatibili e quelli invece compatibili.
nickname88
09-10-2020, 14:00
è più una questione grafica per raggiungere la verosimiglianza rispetto alla realtà cui siamo abituati.L'inseguimento del fotorealismo, che è il traguardo tecnico principale dell'industria videoludica.
Per i programmatori è una panacea, l'ho detto chiaramente. Fossi un programmatore sarei felicissimo di poter usufruire di tale tecnologia. Finché però non sarà largamente diffusa e facilmente gestibile toccherà comunque fare doppio lavoro per i sistemi non compatibili e quelli invece compatibili.Anche se non applicata in tutti i punti ella scena, in quelli in cui è applicata non ci sarebbe bisogno di effettuare il rastering. Quindi il doppio lavoro esiste perchè si concede ancora di disabilitarlo per far giocare chi non ha prodotti che lo supportano.
Sono giochi, e come tali il gameplay è la parte più importante, la fisica può essere usata moltissimo a pro del gameplayLa fisica è una cosa, accentuare l'effetto della fisica è solo a scopo di spettacolo.
Inoltre il motore Physx non è sparito come pensate, dopo essere diventato open source, è stato integrato su alcuni degli attuali motori grafici, semplicemente non vanno a ricercare quell'effettistica così spinta.
L'inseguimento del fotorealismo, che è il traguardo tecnico principale dell'industria videoludica.
Esatto, però i VG non sono diapositive ma frame che danno l'illusione di una scena in movimento. Se mi costruisci una scena bellissima ma non interattiva allora sono dentro una bella fotografia ma non in un mondo verosimile.
Inoltre è anche sbagliato parlare di fotorealismo, apposta ho usato verosimile. Fortnite con RT non è fotorealistico come non lo sono altri titoli che riportano versioni alternative della realtà digitale.
Esprimo pertanto rammarico di questo "inseguire il fotorealismo" quando deve andare a discapito del realismo o del verosimile e quindi di tutto l'insieme.
Anche se non applicata in tutti i punti ella scena, in quelli in cui è applicata non ci sarebbe bisogno di effettuare il rastering. Quindi il doppio lavoro esiste perchè si concede ancora di disabilitarlo per far giocare chi non ha prodotti che lo supportano.
Che è quello che ho detto io, per ora gli tocca fare il lavoro doppio ma sulla carta è un vantaggio enorme. Nella pratica lo sarà e pertanto oltre ad ottenere un maggior realismo per quanto riguarda il comportamento della luce si ottimizzano tantissimo i processi attinenti.
La fisica è una cosa, accentuare l'effetto della fisica è solo a scopo di spettacolo.
Inoltre il motore Physx non è sparito come pensate, dopo essere diventato open source, è stato integrato su alcuni degli attuali motori grafici, semplicemente non vanno a ricercare quell'effettistica così spinta.
Lo so e sono contento di vedere finalmente più diffuse alcune caratteristiche ma, per fare un esempio, già un Halflife2, che aveva una fisica di tutto rispetto per l'epoca, sapeva farne gameplay arricchendo a dismisura il titolo.
Vogliamo poi parlare di un Dark Messiah of Might and Magic?
StylezZz`
09-10-2020, 14:29
La fisica è una cosa, accentuare l'effetto della fisica è solo a scopo di spettacolo
Che è esattamente quanto fatto con il raytracing e alcuni giochi attuali come Control, dove le pareti sono esageratamente lucide, oppure si tende a inserire liquidi a ogni costo (pioggia, strade bagnate etc..) per accentuare l'effetto.
Metro Exodus è l'unico che offre un esperienza realistica, o qualche altro gioco meno famoso come Deliver Us The Moon, ma comunque siamo ancora lontani dal dire ''WOW'' e giustificare i centoni in più IMHO.
bagnino89
09-10-2020, 14:55
Se i numeri di AMD la mostrano vicino alla 3080, significa che andrà come la 3070. Forse 1 o 2 fps in più.
Vedendo la grandezza della scheda e conoscendo i trascorsi progettuali (cioè aggiungere silicio su silicio usando sempre la solita architettura di 10 anni fa), consumerà circa il doppio della stessa.
Costi probabilmente paragonabili alla 3070 e quindi flop di vendite annunciato.
Ovviamente i fan AMD diranno, una volta recensita e mostrati gli amari dati, che le scarse prestazioni sono causate dall'architetuttura acerba e giureranno sulla propria madre che con fantasiosi e magici nuovi driver si otterranno prestazioni di una 3090 - cosa che sarà ovviamente disattesa dai fatti.
Sic et simpliciter.
Segnatevelo e ritroviamoci qua fra 1 mese.
Ahahah, sarebbe veramente da ridere (per non piangere) se fosse come dici tu :asd:
nickname88
09-10-2020, 15:04
Lo so e sono contento di vedere finalmente più diffuse alcune caratteristiche ma, per fare un esempio, già un Halflife2, che aveva una fisica di tutto rispetto per l'epoca, sapeva farne gameplay arricchendo a dismisura il titolo.
Vogliamo poi parlare di un Dark Messiah of Might and Magic?Si ma gli script complessi di Physx non centrano nulla con ciò.
mircocatta
09-10-2020, 18:39
E che cosa vi aspettate da questa nuova serie ?
Migliorare la qualità dei drivers non significa tirare fuori 2-3 versioni buone consecutive e basta, ma va valutato nell'arco di anni.
Se AMD è rimasta con questo livello fino ad ora, statisticamente è improbabile che cambi proprio adesso. A meno che non esca domani la news che tutti i programmatori addetti son stati licenziati in tronco dal primo all'ultimo e il know how cancellato definitivamente.
mah in realtà prima degli adrenaline sinceramente non ricordo tutti questi problemi che vengono segnalati da un anno a questa parte, sono stato possessore di vari modelli di amd (4870/6970/7950) e mai mezzo problema driver, discorso diverso in casa nvidia dove negli anni qualche problemuccio è sempre saltato fuori, da giochi che crashavano, stutter, da quello che ferma le ventole a quello che fa saltare le ampere.. giusto un mese fa la gtx 1650 del mio portatile era andata completamente in banana, stutterava pesantemente rendendo inutilizzabile il pc, non c'è stata versione di driver che ha risolto, nemmeno pulendo con ddu, ho dovuto fare una installazione pulita del sistema (in un portatile che ha meno di un anno di vita in cui l'unica cosa che faccio è installare steam+dota2)
MiKeLezZ
09-10-2020, 19:14
mah in realtà prima degli adrenaline sinceramente non ricordo tutti questi problemi che vengono segnalati da un anno a questa parte, sono stato possessore di vari modelli di amd (4870/6970/7950) e mai mezzo problema driver, discorso diverso in casa nvidia dove negli anni qualche problemuccio è sempre saltato fuori, da giochi che crashavano, stutter, da quello che ferma le ventole a quello che fa saltare le ampere.. giusto un mese fa la gtx 1650 del mio portatile era andata completamente in banana, stutterava pesantemente rendendo inutilizzabile il pc, non c'è stata versione di driver che ha risolto, nemmeno pulendo con ddu, ho dovuto fare una installazione pulita del sistema (in un portatile che ha meno di un anno di vita in cui l'unica cosa che faccio è installare steam+dota2)I casi sono due: o sei un ragazzino (99% probabile) e quindi parli per sentito dire o sei un fanatico con i prosciutti in mezzo agli occhi.
Io avevo la 9700pro, in realtà ancora ce l'ho dentro a un quadro, e già allora i driver non erano il massimo, ma si chiudeva un occhio perché era una bomba.
Poi dopo un certo periodo passato con NVIDIA (e una parentesi con AMD, chi si ricorda la scheda che si sbloccava e raddoppiava di potenza? la X300?) son tornato in AMD (ATI) con una X1650 e sono uscito pazzo con incompatibilità, crash, consumi impazziti, ventole che non si potevano regolare e mi sono detto "mai più".
Perché dopo che ti abitui bene poi non ci torni indietro (ed ero abituato alla stragrande: 100% compatibilità, driver solidi come una roccia e VGA che customizzavo il firmware rendendole già allora semi passive).
Te ora mi parli di "problemi recenti" dei driver AMD?? Ahahahaha. Che simpatico (ps. la serie X1000 ha 14 anni).
Quando si parla di certe cose lascia la parola agli adulti.
Pandemio
09-10-2020, 20:26
Se fanno una scheda video da 64 Gb a 800 euro la comprosubito... Poi non so che farmene di 50 gb ma almeno ce li ho tanti.
Segnatevelo e ritroviamoci qua fra 1 mese.
segnato... ma poi che fai?
perché....:read: è segnato.
Il problema è che c'era già Havok che funzionava uguale ed era più leggero, oltre ad essere un formato "libero" utilizzabile da chiunque.
Nvidia invece spingeva a piazzare il suo PhysX per 4 cretinate nei giochi, al fine di spingerti all'acquisto delle loro schede; perchè se non avevi una GPU Nvidia, il PhysX di fatto non lo potevi usare.
Va bo, siamo decisamente OT.
C.V.D. :asd:
prova una 5700 XT con una GTX710 messa sotto e poi rifai certi benchmark.. ;)
Inoltre il motore Physx non è sparito come pensate, dopo essere diventato open source, è stato integrato su alcuni degli attuali motori grafici, semplicemente non vanno a ricercare quell'effettistica così spinta.
veramente è l'SDK che è open source.
physx continuerà ad usare Cuda, che non è open source.
la questione è che nvidia ha "donato" l'SDK di sviluppo alla comunità solo per cercare di farlo integrare nei motori fisici e nei giochi degli sviluppatori sconsciuti, cercando di evitare che anche questo tools fosse mandato in pensione nei nuovi giochi, su cui difficilmente potrà mettere le mani, in quanto saranno fatti principalmente per le console da chi fa le console (e loro non li convinci con una mazzetta di spicci).
quindi sta cercando di convincere gli sviluppatori offrendolo "gratis".
c'è sempre stata la possibilità con physx, come sugli altri tools che "offre", che nvidia potrebbe creare workaround che gimpano le prestazioni della concorrenza, rallentandone i processi se non sono Genuine Nvidia... e ci sono sospetti che l'abbia fatto più di una volta.
il codice è chiuso e compilato a parte e nessuno, se non nvidia, ne conosce ogni singola stringa.
quindi, se proprio voleva fare qualcosa di buono, avrebbe dovuto aprire Cuda ed il suo compilatore in Open source, non l'SDK di physx.
ma poi c'è Havock, che va 10 volte meglio su tutto...
I casi sono due: o sei un ragazzino (99% probabile) e quindi parli per sentito dire o sei un fanatico con i prosciutti in mezzo agli occhi.
Io avevo la 9700pro, in realtà ancora ce l'ho dentro a un quadro, e già allora i driver non erano il massimo, ma si chiudeva un occhio perché era una bomba.
Poi dopo un certo periodo passato con NVIDIA (e una parentesi con AMD, chi si ricorda la scheda che si sbloccava e raddoppiava di potenza? la X300?) son tornato in AMD (ATI) con una X1650 e sono uscito pazzo con incompatibilità, crash, consumi impazziti, ventole che non si potevano regolare e mi sono detto "mai più".
Perché dopo che ti abitui bene poi non ci torni indietro (ed ero abituato alla stragrande: 100% compatibilità, driver solidi come una roccia e VGA che customizzavo il firmware rendendole già allora semi passive).
Te ora mi parli di "problemi recenti" dei driver AMD?? Ahahahaha. Che simpatico (ps. la serie X1000 ha 14 anni).
Quando si parla di certe cose lascia la parola agli adulti.
si potrebbero citare decine e decine di casi in cui nvidia ha fatto peggio e le ultime relase fanno da esempio lampante.
la questione è che troppe volte problemi che interessano la stabilità dei computers sono addossati ai software, quando magari sono altri componenti troppo stressati che causano i difetti.
ad oggi la situazione è che una 5700 XT va come un treno e nvidia ha rilasciato driver per togliere l'overclock da quelli usati per i test delle 3080 e 3090...
eviterei di parlare ancora dei driver AMD.
bagnino89
10-10-2020, 12:16
ad oggi la situazione è che una 5700 XT va come un treno
Sì, e va talmente forte che poi si schianta e ritrovi con dei bei black screen :asd:
nickname88
10-10-2020, 12:20
ma poi che fai?
perché....:read: è segnato.Io mi domando cosa farai tu :asd:
HwWizzard
10-10-2020, 12:28
Sì, e va talmente forte che poi si schianta e ritrovi con dei bei black screen :asd:
Guarda ho una Mech OC e in 6 mesi mai un black screen. Ho preso la 5700XT per dare fiducia a AMD, ma col senno di poi avrei fatto meglio a prendere una 2070S.
Non tanto per le prestazioni ma per la gestione temperature e driver. Di fatto la mia ha sempre le ventole sparate, mentre una 2070 sarebbe stata sicuramente più silenziosa.
Speriamo che a questo giro riescano a rendere le schede più fresche, io sono orientato verso una 3070 o equivalente AMD e la scelta ricadrà su quella più silenziosa.
StylezZz`
10-10-2020, 12:37
Guarda ho una Mech OC...
Diciamo che la Mech OC non è proprio una delle migliori custom, già solo la Sapphire Pulse è decisamente superiore come dissipatore e rumorosità ventole.
C'è poco da fare, con le Radeon se si vuole andare sul sicuro con silenziosità e temperature basse si deve scegliere Sapphire, oppure PowerColor come la Red Devil.
diciamo che su GPU AMD sono da evitare certi brand...
nickname88
10-10-2020, 13:00
C'è poco da fare, con le Radeon se si vuole andare sul sicuro con silenziosità e temperature basse si deve scegliere Sapphire, oppure PowerColor come la Red Devil.
diciamo che su GPU AMD sono da evitare certi brand...
Che adesso il calore emesso dipende dal brand ?
Semmai scegli diverse soluzioni dissipanti, il brand centra relativamente.
Fa comunque ridere una scheda di fascia media che necessita di un triventola per essere dissipata silenziosamente.
Sì, e va talmente forte che poi si schianta e ritrovi con dei bei black screen :asd:
ehm.. in realtà lo fanno le 3080...
su AMD questi problemi magari ci sono, ma stranamente non sono riconducibili ad una casistica precisa, come invece lo sono stati per la 3080 e 3090.
con un amico ci abbiamo perso mezza giornata di test per capire perché la sua AMD andava in crash con l'avvento della stagione calda, poi abbiamo scoperto che erano le RAM di sistema che non reggevano effettivamente il carico termico ai settaggi utilizzati...
abbassate le frequenze delle RAM di sistema stiamo ancora aspettando che si verifichi un altro crash.
tra processori overclockati, ram mandate altamente fuori specifica e overclock malsani delle GPU, non mi sorprenderebbe verificare che la maggior parte di quei problemi non riproducibili siano dovuti ad altre cose e non alla GPU.
il problema di AMD è che offre la possibilità di modificare a piacere la maggior parte dei settaggi, anche oltre i limiti; ma si deve anche saperli gestire...
il problema di nvidia ed Intel è che offrono overclock limitati da loro stessi, facendo credere ai possessori di essere riusciti in imprese titaniche, quando hanno semplicemente sfruttato tutto quello che il produttore gli concede di fare.
probabilmente e giustamente (ma con rammarico da parte degli utenti più esperti) anche AMD farà la stessa cosa sulle prossime GPU e CPU: arrivi fin quanto voglio io, e non di più, perché sennò cominci a parlar male del brand invece di accorgerti di essere un'incapace.
d'altra parte, per estendere lo share, devi anche prendere in grembo gli incapaci... anche loro pagano e ti fanno guadagnare.
nickname88
10-10-2020, 13:10
ehm.. in realtà lo fanno le 3080...
su AMD questi problemi magari ci sono, ma stranamente non sono riconducibili ad una casistica precisa, come invece lo sono stati per la 3080 e 3090.
:sofico:
con un amico ci abbiamo perso mezza giornata di testAh ecco mancavano gli amici che fanno testo ora.
E' scritto fra i 10 comandamenti ?
Una scheda di fascia media dissipabile solo con un triventola o dissipatori di grandi dimensioni ?
Per altro un dissipatore del Mech OC che supera in altezza la staffa quindi di dimensioni non di certo così tanto risicate.
se un dissipatore vale solo per quanto è alto, allora possono applicarci cover plastiche alte tre centimetri e siamo tutti contenti, giusto?
peccato che non funziona propriamente così.
dati alla mano la Meck OC fa 67°C a 52dB per 212W; la Pulse arriva a 75°C, ma offre 35dB (in quiet bios arriva a 74° per 32dB) per 250W (che è il power limit massimo che AMD offre agli AIB), la Red Devil 74° a 31dB o 79° a 29dB.
a 52dB sia la pulse che la Red Devil sarebbero ben più basse di temperatura di una Meck OC per la semplice questione che hanno un dissipatore decisamente migliore della Meck OC... più alto, ma soprattutto molto più largo e lungo e con 5 pipe decisamente più spesse invece che solo 4, con 10 euro di differenza su amazon.
decisamente è preferibile la Pulse, ad una scheda che monta un dissipatore piccolo anche per una 580 (che a dirla tutta la 580 mack OC 2 ne usava uno migliore, per i suoi 177W, 74°C per 32 dB).
Che adesso il calore emesso dipende dal brand ?
Semmai scegli diverse soluzioni dissipanti, il brand centra relativamente.
solo EVGA vendeva schede senza dissipatore... le schede degli altri te le vendono con dissipatore e quello lo sceglie il produttore.
se il brand offre prodotti scadenti, ma comunque cari come gli altri, allora si evita quel brand.
:sofico:
Ah ecco mancavano gli amici ora.
è la semplice osservazione della verità.
nickname88
10-10-2020, 13:13
se un dissipatore vale solo per quanto è alto, allora possono applicarci cover plastiche alte tre centimetri e siamo tutti contenti, giusto?
peccato che non funziona propriamente così.Il volume radiante tiene conto di tutte e 3 le dimensioni, compresa l'altezza.
La Mech è un po' più corta ma più alta, e il suo dissipatore difficilmente è inferiore a quello refence.
Sò che devi arrampicarti per trovare la scusa.
solo EVGA vendeva schede senza dissipatore... le schede degli altri te le vendono con dissipatore e quello lo sceglie il produttore.I produttori offrono più modelli basati sullo stesso chip.
è la semplice osservazione della verità.Si tutti quelli che hanno black screen hanno tutti la RAM di sistema cloccata.
Il volume radiante tiene conto di tutte e 3 le dimensioni, compresa l'altezza.
La Mech è un po' più corta ma più alta, e il suo dissipatore difficilmente è inferiore a quello refence.
Sò che devi arrampicarti per trovare la scusa.
stai parlando con chi può offrirti una intera lezione su come si costruisce un apparato di dissipazione...
ho preso la lode ad un esame che verteva esclusivamente su questo argomento.
non parliamo di confronto di reference e Mack OC, ma di questa e Pulse o Red devil, che costano 10 euro in più su amazon e sono 10 euro ben spesi.
I produttori offrono più modelli basati sullo stesso chip.
ed MSI offre queste ciavatte a prezzi esorbitanti.
Si tutti quelli che hanno black screen hanno tutti la RAM di sistema cloccata.
probabilmente si, visto che molti non hanno avuto tali problemi solo con le prime relase dei driver e poi hanno goduto di un'invidiabile stabilità...
il problema c'era, ma su specifiche e riproducibili casistiche ed è stato risolto.
su quelle in cui il problema non è riproducibile su un gioco, ma anzi affligge la scheda su tutti i giochi... o è la scheda che è proprio rotta o il problema non è riconducibile a questa o ai driver, ma ad altre questioni, perché se è il driver a dare problemi, lo darà con tutte le schede; se è il progetto della scheda a dare problemi, lo darà a quelle che sono al limite delle loro possibilità, ma dal primo all'ultimo giorno... non è che il chip migliora dopo l'acquisto e non è che hanno tagliato il boost, come ha fatto Nvidia.
quindi il sospetto che un problema di black screen sia dovuto al sistema e non ai driver o alla scheda, è abbastanza fondato (anche perché c'è un'infinità di gente che spinge le RAM a frequenze folli anche quando il gioco non se ne fa granché di questa possibilità... del tutto inutile).
con il mio amico (perché io posso vantare un bel po' di amici), abbiamo verificato che le RAM non davano problemi in memtest anche per ore alla frequenza che si usava per giocare, ma poi, in gioco, davano instabilità...
delle 3200mhz che probabilmente erano tirate proprio per i capelli a quelle frequenze, ma che erano stabili esclusivamente a certe condizioni d'uso...
appena le temperature ambientali si sono alzate, hanno semplicemente mostrato i loro veri limiti... per un paio di gradi, non di più...
la scelta era di metterle a 3000mhz o di mettere una ventola sulle ram...
la differenza prestazionale era quasi impercettibile, quindi si è semplicemente optato per la soluzione meno rumorosa.
StylezZz`
10-10-2020, 14:18
Che adesso il calore emesso dipende dal brand ?
Semmai scegli diverse soluzioni dissipanti, il brand centra relativamente.
La maggior parte delle schede custom sono overcloccate di fabbrica rispetto la reference, quindi si, possiamo dire che il calore emesso dipende anche dal brand, e se il dissipatore non è all'altezza, la scheda scalda e le ventole fanno rumore, aggiungici anche la qualità scarsa di quest'ultime.
Fa comunque ridere una scheda di fascia media che necessita di un triventola per essere dissipata silenziosamente.
La Sapphire Pulse è biventola.
nickname88
10-10-2020, 16:04
stai parlando con chi può offrirti una intera lezione su come si costruisce un apparato di dissipazione...
ho preso la lode ad un esame che verteva esclusivamente su questo argomento.Si certo e io sono Adrian Newey.
Lezione certo, come in passato quando sostenevi che ogni DIMM DDR4 consumava 30W perchè lo avevi misurato col tester sul PC del tuo amico ?
Astieniti da queste fantasie per cortesia che non ne capisci non H.
non parliamo di confronto di reference e Mack OC, ma di questa e Pulse o Red devil, che costano 10 euro in più su amazon e sono 10 euro ben spesi.Si certo e infatti il dissipatore è quasi uguale fra le due :
https://www.reddit.com/r/Amd/comments/d1oplw/sapphire_pulse_rx_5700xt_high_temperature/
ed MSI offre queste ciavatte a prezzi esorbitanti.
Strano pensavo si parlasse di prendere Sapphire per calore e silenziosità, adesso magicamente è spuntato un altro parametro ?
probabilmente si, visto che molti non hanno avuto tali problemi solo con le prime relase dei driver e poi hanno goduto di un'invidiabile stabilità...
il problema c'era, ma su specifiche e riproducibili casistiche ed è stato risolto.Avrebbero risolto quindi un problema legato all'overclock della RAM di sistema ( quindi le DDR ) con un driver per la VGA ?
Meno male che non dai lezioni guarda. :rolleyes:
nickname88
10-10-2020, 16:07
La Sapphire Pulse è biventola.
E infatti .... : https://www.reddit.com/r/Amd/comments/d1oplw/sapphire_pulse_rx_5700xt_high_temperature/
HwWizzard
10-10-2020, 16:09
se un dissipatore vale solo per quanto è alto, allora possono applicarci cover plastiche alte tre centimetri e siamo tutti contenti, giusto?
peccato che non funziona propriamente così.
dati alla mano la Meck OC fa 67°C a 52dB per 212W; la Pulse arriva a 75°C, ma offre 35dB (in quiet bios arriva a 74° per 32dB) per 250W (che è il power limit massimo che AMD offre agli AIB), la Red Devil 74° a 31dB o 79° a 29dB.
a 52dB sia la pulse che la Red Devil sarebbero ben più basse di temperatura di una Meck OC per la semplice questione che hanno un dissipatore decisamente migliore della Meck OC... più alto, ma soprattutto molto più largo e lungo e con 5 pipe decisamente più spesse invece che solo 4, con 10 euro di differenza su amazon.
decisamente è preferibile la Pulse, ad una scheda che monta un dissipatore piccolo anche per una 580 (che a dirla tutta la 580 mack OC 2 ne usava uno migliore, per i suoi 177W, 74°C per 32 dB).
solo EVGA vendeva schede senza dissipatore... le schede degli altri te le vendono con dissipatore e quello lo sceglie il produttore.
se il brand offre prodotti scadenti, ma comunque cari come gli altri, allora si evita quel brand.
Guarda, al 99% apprezzo e condivido ciò che scrivi, ma i dati che hai scritto sulle temp delle 5700XT sono pura fantasia o dati falsati da qualche fanboy reviewer.
La MechOC ha un dissipatore più che adatto a quel chip, se lo metti su una 2070S la tiene a bada e va poco ma di più. Quindi alla fine della fiera la 5700XT costava meno, andava quasi uguale ma scaldava di più e faceva un casino infernale.
Se a questo giro risolvono il problema temp e rumore riprendo AMD, altrimenti sarà nVidia.
nickname88
10-10-2020, 16:13
o dati falsati da qualche fanboy reviewer.
No da lui.
StylezZz`
10-10-2020, 16:29
E infatti .... : https://www.reddit.com/r/Amd/comments/d1oplw/sapphire_pulse_rx_5700xt_high_temperature/
Infatti cosa? :rotfl:
Cioè, sei andato a prendere un post qualsiasi di reddit di uno che si lamenta della sua Pulse perché le memorie gli arrivano a 98 gradi :mc:
Ora, non so quale sia il tuo livello di inglese, ma ti basterebbe usare google translate per tradurre le varie risposte che questo qui ha ricevuto, dove gli viene detto chiaramente che la sua scheda molto probabilmente è difettosa o sfortunata :rolleyes:
Recensione della Pulse, temperature e fan noise:
https://www.techpowerup.com/review/sapphire-radeon-rx-5700-xt-pulse/32.html
Memorie 82°C in game.
nickname88
10-10-2020, 16:43
Infatti cosa? :rotfl:
Recensione della Pulse, temperature e fan noise:
https://www.techpowerup.com/review/sapphire-radeon-rx-5700-xt-pulse/32.html
Memorie 82°C in game.
In realtà da quelle recensioni anche altre biventola di altri brand come la GamingX di MSI o la XFX Thicc hanno prestazioni simili che tutte queste han performance simili anche nell'emissione sonora, visto che i dissipatori sono più o meno gli stessi.
E così pure le temp delle VRAM, male che vada può variare di una manciata di gradi.
Quindi scaldano tutte quante, non è che Sapphire fa eccezione.
https://i.ibb.co/p3Swk4d/Cattura.jpg
Anzi la GamingX è la migliore complessivamente di tutte le biventole e fa pure meno rumore.
E il brand in questione si chiama MSI.
ZerOFraG
11-10-2020, 08:18
C'è un posto all'inferno per quelli come te che non sanno cosa significa e come si usa "piuttosto che". Sta cosa ammazza l'italiano peggio di chi non sa usare i congiuntivi.
Anche “Sta cosa” meriterebbe almeno il purgatorio...:asd:
Si certo e io sono Adrian Newey.
Lezione certo, come in passato quando sostenevi che ogni DIMM DDR4 consumava 30W perchè lo avevi misurato col tester sul PC del tuo amico ?
Astieniti da queste fantasie per cortesia che non ne capisci non H.
se ti vuoi far chiamare Adrian Newey basta che cambi alias, ma ad ingegneria chimica queste cose sono le basi: scambiatori di calore in fase liquida, solida e gassosa in ogni tipologia di costruzione e per ogni range di temperature, oltre che di materiale (alcune volte devi trattare sostanze sufficientemente aggressive).
una DIMM DDR4 può arrivare a consumare anche 30W; d'altra parte 8 chippetti su una scheda grafica arrivano a consumare anche 50W...
a no, perdon: le GDDR6x arrivano a consumare 110W, secondo GPU-Z, visto che conteggia il consumo della 3080 a 220W e le schede si succhiano 330W.
Si certo e infatti il dissipatore è quasi uguale fra le due :
https://www.reddit.com/r/Amd/comments/d1oplw/sapphire_pulse_rx_5700xt_high_temperature/
Strano pensavo si parlasse di prendere Sapphire per calore e silenziosità, adesso magicamente è spuntato un altro parametro ?
il rumore emesso è uno dei parametri da considerare:
più rumore a parità di diametro delle ventole significa più portata d'aria (o differenze notevoli nella costruzione delle pale di una delle due ventole, una fatta bene e una fatta decisamente male).
più portata d'aria porta ad un aumento del fattore di dissipazione, perché scambi calore con molta più materia nello stesso arco di tempo.
se tu aumenti il rumore delle ventole da 30dB a 52dB significa che con delle normali ventole da 80-90mm delle GPU odierne, passi da 900RPM a ben oltre 2000RPM; significa raddoppiare la portata d'aria e quindi è facile che raddoppi anche la dissipazione termica.
che la temperatura della stessa GPU cali è normale (e questo porterà anche vantaggi in termini di resistenza del chip, quindi di consumo della scheda), e un consistente taglio di 10°C non è male, ma lo hai ottenuto con ventole sparate a 2300-2400RPM (puoi chiedere di leggerti il valore a chi si lamentava di questo fattore per avere l'esatto numero di giri).
se il dissipatore della Pulse riesce a mantenere la temperatura del chip a 70°C con le ventole a 30dB, ossia a circa 1000RPM, se porti la velocità di queste a 1500RPM farà 40-45dB?
ma è anche vero che aumenterà la sua dissipazione ed è facile che la temperatura del chip venga abbassato di quei 10°C... considerando che la Pulse consuma anche 40W in più, un taglio di 10°C consentirebbe anche un notevole taglio del consumo.
a differenza delle tue H, qui si parla semplicemente di termodinamica e funziona propriamente in questo modo.
Avrebbero risolto quindi un problema legato all'overclock della RAM di sistema ( quindi le DDR ) con un driver per la VGA ?
Meno male che non dai lezioni guarda. :rolleyes:
no... hanno risolto i problemi del driver su specifici giochi (anzi in specifiche situazioni di specifici giochi... hanno risolto i bug del software che lo mandava in crisi).
chi ancora accusa i problemi di black screen random se li tiene, perché l'instabilità non dipende ne dalla scheda ne dai driver, ma dal sistema che va in errore perché sfrutta diversamente RAM e controller della RAM, o proprio la CPU, sforzandola in circuitazioni che non sono stabili quando stressate con quei settaggi.
il sistema, il PC, deve risultare stabile nella precisa applicazione che cerchi, non è che se è stabile in un'altra, di conseguenza lo è anche in tutte, perché per essere così dovresti avere l'applicazione peggiore che stressa tutti i singoli sottosistemi esattamente come lo fanno le singole.
a quel punto sei sicuro della stabilità operativa.
dimostrazione è il fatto che si sono risolti tutti i problemi del mio amico che non potevano dipendere altro che da bug driver o da altri fattori del sistema, visto che dava problemi anche settando la scheda a parametri più che conservativi, come spremere le prestazioni di una iGPU da una dGPU grossa più dell'intera CPU...
visto che per testare le affermazioni di molti sono stati provati anche driver vecchi in cui riscontrava gli stessi problemi e che quei problemi non si sono più presentati, significa che erano dovuto proprio alle RAM di sistema.
se prima li aveva con tutte le ultime 4 relase dei driver che stava testando, anche con valori di temperature, frequenze e voltaggi più che ottimali e parliamo di mandare una polaris a 1ghz con ventole sparate a 2000RPM e temperature a 40°C, mentre poi, abbassando le RAM di sistema, questi problemi spariscono del tutto anche testando le relase vecchie dei driver ed anche facendolo con la scheda in overclock, mi pare più che ovvio che il problema era dovuto alle RAM di sistema e non hai driver buggati o a settaggi troppo spinti o ad un chip di suo instabile.
quindi c'è poco da discutere.
Guarda, al 99% apprezzo e condivido ciò che scrivi, ma i dati che hai scritto sulle temp delle 5700XT sono pura fantasia o dati falsati da qualche fanboy reviewer.
La MechOC ha un dissipatore più che adatto a quel chip, se lo metti su una 2070S la tiene a bada e va poco ma di più. Quindi alla fine della fiera la 5700XT costava meno, andava quasi uguale ma scaldava di più e faceva un casino infernale.
Se a questo giro risolvono il problema temp e rumore riprendo AMD, altrimenti sarà nVidia.
mi dispiace confermartelo ma il dissipatore della MackOC era una ciavatta per quel chip.
a malapena andava bene per una 570 tirata e si vede proprio a confronto di altri dissipatori, come quello della sapphire e della red devil, messi a confronto.
se la scheda produce 52 dB significa che per avere il giusto grado di raffreddamento del chip deve forzare uno dei tre parametri chiave del dissipatore, che sono la superficie di scambio, il materiale e la portata d'aria che lo investe.
che ti trovi una red devil a quasi 80°C ma con soli 30dB hai sempre la possibilità di alzare i giri ventola fino ad un rumore comunque accettabile (almeno per molti) di 40 dB , ma significa anche aumentare lo scambio termico e riportare il chip a temperature consone; significa che hai un ottimo dissipatore e che hai settato i parametri per mitigare il rumore;
con la MeckOC invece hanno sfruttato tutte le possibilità del dissipatore, perché andare oltre i 52dB darebbe fastidio a tutti non solo ai puristi del silenzio.
visto che il costo è praticamente lo stesso (415 contro 425 euro), forse è meglio prendersi la scheda che offre il dissipatore migliore e poi, magari, settarla secondo i propri gusti personali (visto che i driver offrono un ottimo grado di scelte sui parametri da utilizzare).
se quel dissipatore lo metti sotto ad una 2070S cambiano diversi parametri per la dissipazione, perché non stai più parlando di un chip che ha una superficie di scambio termico pari a 251mm^2, ma di uno che ne ha 545mm^2 con la stessa quantità di calore da scambiare... è un parametro che porta ad una dipendenza lineare, ossia, a parità di materiali, l'interfaccia grande il doppio ti permette di dissipare il doppio del calore mantenendo la stessa temperatura del corpo caldo qualora la temperatura del corpo freddo rimanesse la medesima.
sono leggi fisiche e non si scappa da questi postulati.
il problema della 5700 XT, di Navi 10, è che è piccolo ed offre un'interfaccia di scambio termico ridotta, e per mantenere la temperatura nei parametri ottimali per quelle tecnologie (i chip in silicio), devi servirle con dissipatori che offrono una dissipazione molto più efficiente, sennò le temperature, a parità di calore trasmesso (di potenza consumata e che quindi deve essere smaltita sotto forma di calore), aumentano.
se tu metti il dissipatore della Pulse sotto una 2070S allora vedrai che bella scheda ti viene, perché è un bel dissipatore che offrirebbe una ottimale dissipazione per un chip di quelle dimensioni.
ricorda: più il chip è piccolo più, a parità di consumo della scheda, il dissipatore deve diventare grande e più aria gli devi far scambiare con l'ambiente per ottenere le medesime temperature di uno che è molto più grande.
nvidia ha giocato proprio sulla dimensione del chip per ottenere l'efficienza adeguata per le Turing.
No da lui.
prendo dati dalla tua fonte preferita, TPU, proprio per renderli inattaccabili da te, visto che se li contesti dovrai smettere di usare quella fonte... finalmente!
:p
In realtà da quelle recensioni anche altre biventola di altri brand come la GamingX di MSI o la XFX Thicc hanno prestazioni simili che tutte queste han performance simili anche nell'emissione sonora, visto che i dissipatori sono più o meno gli stessi.
E così pure le temp delle VRAM, male che vada può variare di una manciata di gradi.
Quindi scaldano tutte quante, non è che Sapphire fa eccezione.
https://i.ibb.co/p3Swk4d/Cattura.jpg
Anzi la GamingX è la migliore complessivamente di tutte le biventole e fa pure meno rumore.
E il brand in questione si chiama MSI.
la gaming X non è la Meck OC e non costa ne come la meck OC ne come una sapphire Pulse, ma di più, sui 454 euro.
anche un solo dB sulla stessa configurazione base della scheda (numero di ventole e dimensioni di queste, in modo da qualificare la portata d'aria), sono importanti se devi considerare la qualità di una scheda, perché anche un solo dB in più può significare portate d'aria sensibilmente diverse;
anche il 20% in più di massa d'aria, oltre che di velocità di flusso di questa, sono importanti;
anzi, la velocità del flusso e una variabile estremamente importante su cui si è studiato per anni e si continua a studiare anche nello scambio termico perché a seconda della velocità del flusso cambiano propriamente le leggi da usare quel quantificare lo scambio termico; se è un flusso laminare ne usi un tipo, se è un flusso turbolento ne devi usare un altro, per il quale cambiano le costanti di scambio termico... come Bernoulli, Raynold , Moody, Colebrook, Navier e Stokes insegnano... (fammi evitare di schiacciarti dal peso della conoscenza della materia e concedimi di continuare a stuzzicare la tua manifesta ignoranza solo lambendo certi argomenti).
comunque, giusto per farti comprendere esplicitamente che le temperature delle VRAM non c'entrano nulla con il discorso che sto facendo e che non capisco assolutamente perché le hai buttate dentro se non per fare caciara, ti confermo che parlavo propriamente delle RAM di sistema: delle Corsair Vengeance LPX 3200mhz che risultavano stabilissime per ore di memtest e OTTC, ma che in molti giochi alla fine davano errore facendo crashare i giochi.
messe a 3000mhz tutti i problemi si sono magicamente risolti.
e non era nemmeno la CPU il problema, in quanto quelle RAM sono state sostituite con delle Geil (o Patriot, ora non ricordo), sempre da 3200mhz, con trim anche più forzati e i giochi non danno minimamente nessun problema.
erano semplicemente le RAM del sistema che causavano la difettosità; tolte quelle, tolto il problema.
dimmi tu quanti degli sfortunati acquirenti delle 5700 XT che accusano questi problemi hanno un sistema che possono affermare al 100% non porti nessuna instabilità, quando nella maggior parte dei casi, quando cominci ad aiutarli per risolverli, ti trovi con gente con sistemi in overclock a bestia che non sanno nemmeno che cosa sia l'overclock, perché glie lo ha fatto "il cuggino esperto".
l'unica cosa che si può dire è che le AMD, forse, stressano più il comparto RAM del sistema in taluni giochi, facendo evidenziare i problemi di stabilità del resto dell'HW, ma non della scheda video.
PS:
eviterei anche di continuare a difendere allo stremo un brand che ha mostrato in maniera manifesta la considerazione che ha dei suoi stessi acquirenti.
tra le 3080 da bagarini e le schede macri con VRM sottodimensionati, pensare ad MSI è l'ultima cosa.... almeno se si parla di AMD.
nickname88
11-10-2020, 12:07
la gaming X non è la Meck OC e non costa ne come la meck OC ne come una sapphire Pulse, ma di più, sui 454 euro.
perché anche un solo dB in più può significare portate d'aria sensibilmente diverse;La peggiore è la Evoque che è simile alla Mech come dissipazione eppure la temp della GPU è simile alla pulse, il resto è più alto ma in termini di db ne fa solamente 4 più della Pulse, ossia l'11% di differenza, nulla di stravolgente.
Ed è la peggiore della lista, quindi più o meno il livello è quello, non è che se passi dalla Mech alla Pulse passi dal frastuono al canto degli uccellini. :rolleyes:
PS:
eviterei anche di continuare a difendere allo stremo un brand che ha mostrato in maniera manifesta la considerazione che ha dei suoi stessi acquirenti.
tra le 3080 da bagarini e le schede macri con VRM sottodimensionati, pensare ad MSI è l'ultima cosa.... almeno se si parla di AMD.MSI è un ottimo brand, se tu fai di ogni singola erba un fascio è un problema tuo.
Ah adesso MSI discrimina AMD ? :asd:
la gaming X non è la Meck OC No ma l'etichetta è quella di MSI e non quella di Sapphire.
HwWizzard
11-10-2020, 12:25
mi dispiace confermartelo ma il dissipatore della MackOC era una ciavatta per quel chip.
a malapena andava bene per una 570 tirata e si vede proprio a confronto di altri dissipatori, come quello della sapphire e della red devil, messi a confronto.
se la scheda produce 52 dB significa che per avere il giusto grado di raffreddamento del chip deve forzare uno dei tre parametri chiave del dissipatore, che sono la superficie di scambio, il materiale e la portata d'aria che lo investe.
che ti trovi una red devil a quasi 80°C ma con soli 30dB hai sempre la possibilità di alzare i giri ventola fino ad un rumore comunque accettabile (almeno per molti) di 40 dB , ma significa anche aumentare lo scambio termico e riportare il chip a temperature consone; significa che hai un ottimo dissipatore e che hai settato i parametri per mitigare il rumore;
con la MeckOC invece hanno sfruttato tutte le possibilità del dissipatore, perché andare oltre i 52dB darebbe fastidio a tutti non solo ai puristi del silenzio.
visto che il costo è praticamente lo stesso (415 contro 425 euro), forse è meglio prendersi la scheda che offre il dissipatore migliore e poi, magari, settarla secondo i propri gusti personali (visto che i driver offrono un ottimo grado di scelte sui parametri da utilizzare).
se quel dissipatore lo metti sotto ad una 2070S cambiano diversi parametri per la dissipazione, perché non stai più parlando di un chip che ha una superficie di scambio termico pari a 251mm^2, ma di uno che ne ha 545mm^2 con la stessa quantità di calore da scambiare... è un parametro che porta ad una dipendenza lineare, ossia, a parità di materiali, l'interfaccia grande il doppio ti permette di dissipare il doppio del calore mantenendo la stessa temperatura del corpo caldo qualora la temperatura del corpo freddo rimanesse la medesima.
sono leggi fisiche e non si scappa da questi postulati.
il problema della 5700 XT, di Navi 10, è che è piccolo ed offre un'interfaccia di scambio termico ridotta, e per mantenere la temperatura nei parametri ottimali per quelle tecnologie (i chip in silicio), devi servirle con dissipatori che offrono una dissipazione molto più efficiente, sennò le temperature, a parità di calore trasmesso (di potenza consumata e che quindi deve essere smaltita sotto forma di calore), aumentano.
se tu metti il dissipatore della Pulse sotto una 2070S allora vedrai che bella scheda ti viene, perché è un bel dissipatore che offrirebbe una ottimale dissipazione per un chip di quelle dimensioni.
ricorda: più il chip è piccolo più, a parità di consumo della scheda, il dissipatore deve diventare grande e più aria gli devi far scambiare con l'ambiente per ottenere le medesime temperature di uno che è molto più grande.
nvidia ha giocato proprio sulla dimensione del chip per ottenere l'efficienza adeguata per le Turing.
Guarda che i dati delle tabelle riportare sono pura fantasia ricavata in laboratorio con il PC probabilmente in frigorifero.
Per tenere la mia sotto 80 gradi devo sparare la ventola al 100%! E a vedere i dissipatori delle altre schede sono allineati con quello della MechOC.
Poco importa la grandezza del chip e altre cose.
Importano solo prezzo-prestazioni-rumore e il risultato è quello che ho descritto in precedenza. Che mi porta a tirare la conclusione che ho sbagliato a prendere la 5700XT invece della 2070S.
nickname88
11-10-2020, 13:41
nvidia ha giocato proprio sulla dimensione del chip per ottenere l'efficienza adeguata per le Turing.
Certo che non ti trattieni proprio, quindi Nvidia avrebbe realizzato chip grandi apposta quando avrebbe potuto realizzarli più contenuti risparmiando sui costi di produzione per il solo motivo di smaltire il calore ?
:sofico:
Questa ci mancava, la possiamo aggiungere ai fatidici 30W delle DIMM DDR4 misurate col tester by Locusta ed ai problemi di overclock della RAM risolvibili col driver video. :rolleyes:
sono leggi fisiche e non si scappa da questi postulati.No, hai ragione, davanti alle principi della fisica non si scappa, peccato non siano ciò ma solamente tue fantasie da profano totale dell'argomento, che non tengono conto della quasi totalità dei parametri in gioco.
se la scheda produce 52 dB significa che52db de che ? A quale distanza ? :asd:
Il valore varia a seconda della distanza, quindi quel valore detto così significa meno di niente, senza contare che il valore massimo espresso dal produttore non è mica quello medio che senti nell'uso.
No ma l'etichetta è quella di MSI e non quella di Sapphire.
e non hai detto poco, anzi, è proprio questo il problema.
prodotti assai scarsi, quelli di MSI, e se li vuoi a pari livello di altri brand li paghi di più.
Guarda che i dati delle tabelle riportare sono pura fantasia ricavata in laboratorio con il PC probabilmente in frigorifero.
Per tenere la mia sotto 80 gradi devo sparare la ventola al 100%! E a vedere i dissipatori delle altre schede sono allineati con quello della MechOC.
Poco importa la grandezza del chip e altre cose.
Importano solo prezzo-prestazioni-rumore e il risultato è quello che ho descritto in precedenza. Che mi porta a tirare la conclusione che ho sbagliato a prendere la 5700XT invece della 2070S.
il tuo errore è di aver scelto male la scheda, convito probabilmente dall'enfasi che si fa attorno a certi marchi e che, alla fine, non mantengono quello che promettono.
la prossima volta scegli una 2070S così sarai più contento (magari MSI), ma eviterei di scrivere in pubblico che un'intera famiglia di chip è una pessima scelta se tu hai sbagliato a scegliere il modello adatto alle tue esigenze.
volevi MSI?
dovevi prendere la gaming X e non la MackOC.
StylezZz`
11-10-2020, 14:21
il tuo errore è di aver scelto male la scheda, convito probabilmente dall'enfasi che si fa attorno a certi marchi e che, alla fine, non mantengono quello che promettono.
la prossima volta scegli una 2070S così sarai più contento (magari MSI), ma eviterei di scrivere in pubblico che un'intera famiglia di chip è una pessima scelta se tu hai sbagliato a scegliere il modello adatto alle tue esigenze.
volevi MSI?
dovevi prendere la gaming X e non la MackOC.
Quoto, e comunque tralasciando i vari brand (perché purtroppo dipende anche dai chip più o meno fortunati), è molto probabile che la sua scheda sia problematica, 80°C con ventole al 100% non è normale.
Ho avuto la 5700 XT per alcuni mesi, un Asus TUF (considerata una delle peggiori) presa usata, e non l'ho mai vista andare oltre i 76-77°C a pieno carico sulla gpu con PL +50, ventole lasciate a default e in piena estate con 30°C in stanza.
Certo che non ti trattieni proprio, quindi Nvidia avrebbe realizzato chip grandi apposta quando avrebbe potuto realizzarli più contenuti risparmiando sui costi di produzione per il solo motivo di smaltire il calore ?
:sofico:
noooooooooo
non ho detto questo
ho detto che ha preso chip enormi è li ha mandati alle possibilità che potevano con quel consumo.
parliamo di chip che sono il doppio più grandi della concorrenza e che vanno uguale (e no, la densità migliore garantita dal 7nm non c'entra nulla.. le turing sono addirittura meno dense dei 16 FIN FET TMSC, delle Pascal)...
se non sai su cosa verte la tecnologia su silicio non è colpa mia.
prima togliti i panni da fanboy, poi impara, e dopo elabora quello che hai imparato.
quei chip potrebbero garantire prestazioni decisamente superiori, ma a consumi enormemente più alti...
Questa ci mancava, la possiamo aggiungere ai fatidici 30W delle DIMM DDR4 misurate col tester by Locusta ed ai problemi di overclock della RAM risolvibili col driver video. :rolleyes:
aggiungi, aggiungi pure; non farai altro che presentarti con il biglietto da visita adatto a te: "nickname88: tizio che scrive sui forum tecnologici, inconsapevole dell'argomento di cui si parla."
No, hai ragione, davanti alle principi della fisica non si scappa, peccato non siano ciò ma solamente tue fantasie da profano totale dell'argomento, che non tengono conto della quasi totalità dei parametri in gioco.
lo scambio di colore funziona così.
se non vuoi aprire un buon libro di termodinamica, prima di fare la figura dell'ignorante, almeno usa la rete, che wikipedia è fatta anche per quelli come te che non hanno la minima conoscenza sugli argomenti di cui vogliono far sembrare aver piena conoscenza.
detto in parole semplici: sei un ignorante.
52db de che ? A quale distanza ? :asd:
Il valore varia a seconda della distanza, quindi quel valore detto così significa meno di niente, senza contare che il valore massimo espresso dal produttore non è mica quello medio che senti nell'uso.
52dB preso d un test fatto da altro sito, solo perché TPU non ha "censito" quella specifica scheda, ma prima mi sono premunito di controllare sia il modo in cui è stato eseguito il test, sia di confrontare gli altri risultati delle schede in elenco proprio con TPU, ed erano molto simili, anzi... TPU era spesso con uno o due dB superiore, segno che i 52dB sono anche in difetto di stima.
inutile che insisti: la MSI MechOC è la peggiore custom venduta sul mercato ed è venduta a prezzo solo leggermente inferiore rispetto alle migliori sul mercato.
questo la fa diventare, e con ragione, un pessimo acquisto.
PS:
ci tengo a prendere dati da TPU quando discuto proprio con te... personalmente lo ritengo un sito discutibile e ben poco affidabile, ma visto che tu lo proponi sempre come esempio di assoluta verità, mi piace usare le tue stesse verità per dimostrare che quello che scrivi sono tutte stupidaggini.
se contesti i dati, contesti la tua bibbia, miscredente. :sofico:
"Nessuno" te lo dice apertamente, ma la verità è che di queste cose ne capisci realmente poco e nel frattempo inondi di stupidaggini i forum, pensando di fare anche lo spiritoso quando invece fai solo la figura decisamente meschina.
PS2:
la prossima volta che attacchi direttamente la mia persona chiederò un ban permanente nei tuoi confronti, perché un conto è discutere, un conto è avere antipatie, un conto e comportarsi come un bulletto da tastiera, non solo nei miei confronti, ma nei confronti di tutti quelli che non la pensano come te.
non sei adatto a relazionarti con la società.
HwWizzard
11-10-2020, 15:18
il tuo errore è di aver scelto male la scheda, convito probabilmente dall'enfasi che si fa attorno a certi marchi e che, alla fine, non mantengono quello che promettono.
la prossima volta scegli una 2070S così sarai più contento (magari MSI), ma eviterei di scrivere in pubblico che un'intera famiglia di chip è una pessima scelta se tu hai sbagliato a scegliere il modello adatto alle tue esigenze.
volevi MSI?
dovevi prendere la gaming X e non la MackOC.
Quoto, e comunque tralasciando i vari brand (perché purtroppo dipende anche dai chip più o meno fortunati), è molto probabile che la sua scheda sia problematica, 80°C con ventole al 100% non è normale.
Ho avuto la 5700 XT per alcuni mesi, un Asus TUF (considerata una delle peggiori) presa usata, e non l'ho mai vista andare oltre i 76-77°C a pieno carico sulla gpu con PL +50, ventole lasciate a default e in piena estate con 30°C in stanza.
Boh, dire che ho sbagliato scheda è sbagliato in principio, che sia fallata (indimostrabile) è possibile, ma visto che è la seconda, visto che la prima è morta dopo 20minuti e me l’hanno sostituita, ho i miei dubbi, è un chip fatto così, sta quasi sempre a 2Ghz o quasi perciò scalda. Certo posso impostare il voltaggio a 0,9 e guadagno 10 gradi, ma allora la 2070S la vede con il binocolo.
Boh, dire che ho sbagliato scheda è sbagliato in principio, che sia fallata (indimostrabile) è possibile, ma visto che è la seconda, visto che la prima è morta dopo 20minuti e me l’hanno sostituita, ho i miei dubbi, è un chip fatto così, sta quasi sempre a 2Ghz o quasi perciò scalda. Certo posso impostare il voltaggio a 0,9 e guadagno 10 gradi, ma allora la 2070S la vede con il binocolo.
te lo ripeto: al livello di rumore della MeckOC una Pulse sarebbe realmente fredda.
poi dipende dal PC... 80°C con rumore assurdo è uno degli indizi che portano a pensare che non è solo la scheda che potrebbe avere problemi.
poi, se ti piaceva la 2070S (che è una scheda di altro prezzo), mi domando perché non l'hai presa, visto che è uscita anche prima della 5700 XT.
HwWizzard
11-10-2020, 15:32
te lo ripeto: al livello di rumore della MeckOC una Pulse sarebbe realmente fredda.
poi dipende dal PC... 80°C con rumore assurdo è uno degli indizi che portano a pensare che non è solo la scheda che potrebbe avere problemi.
poi, se ti piaceva la 2070S (che è una scheda di altro prezzo), mi domando perché non l'hai presa, visto che è uscita anche prima della 5700 XT.
Ho già scritto perché ho preso la 5700XT, ho voluto dare fiducia ad AMD per la prima volta dalla 7970... certo costa qualcosa in più la 2070S ma alla fine ti da di più in comodità.
Poi oh se AMD non la si può criticare sulla base dell’esperienza personale e non come molti che lo fanno per sentito dire dal cuggino del cuggino di terzo grado allora continua da solo.
nickname88
11-10-2020, 16:14
parliamo di chip che sono il doppio più grandi della concorrenza e che vanno uguale (e no, la densità migliore garantita dal 7nm non c'entra nulla.. le turing sono addirittura meno dense dei 16 FIN FET TMSC, delle Pascal)...
se non sai su cosa verte la tecnologia su silicio non è colpa mia.
I 7nm non fanno differenza sulla dimensione del chip rispetto a Turing ? :rolleyes:
Come dire praticamente che le dimensioni della minkia non fan differenza nel porno.
prima togliti i panni da fanboy
Cioè ? TU che dai del fanboy ad altri ?
Detto da te è come se un alce preistorica mi desse del cornuto.
Uno che ha messo su un monologo OT perchè qualcuno ha osato sollevare una questione sul fatto che forse era meglio prendere la 2070 anzichè la 5700 ? :asd:
lo scambio di colore funziona così.
se non vuoi aprire un buon libro di termodinamica, prima di fare la figura dell'ignoranteSi lo scambio delle castronerie.
ll principio della superficie di contatto è solo l'ABC, ma in un microchip entrano in gioco molti altri fattori oltre all'area del die. :rolleyes:
Se poi tu non riesci nemmeno ad immaginare o concepire che oltre la 5° elementare esistono studi ben più avanzati è un problema solo tuo.
52dB preso d un test fatto da altro sitoE certo ora si mettono a confronto valori presi da recensioni diverse, senza nemmeno riportare strumenti e condizioni, come nulla fosse proprio. :asd: Si vede che sono altri parametri che possiamo aggiungere alla miriade che non conosci.
ci tengo a prendere dati da TPU quando discuto proprio con te... personalmente lo ritengo un sito discutibile e ben poco affidabilePerchè non ti piacciono i risultati ? Un altro dei siti Gomblottistici della tua famigerata lista nera, come no.
TPU è uno dei siti più sicuri e affidabili, assieme a molti altri, anzi a TUTTI gli altri che a te non piacciono, se non sei d'accordo è un problema tuo.
la prossima volta che attacchi direttamente la mia persona chiederò un ban permanente nei tuoi confrontiNon ti attacco mica, a ridicolizzarti ci pensi tu da solo, io sottolineo soltanto e commento.
Poi oh se AMD non la si può criticare sulla base dell’esperienza personale e non come molti che lo fanno per sentito dire dal cuggino del cuggino di terzo grado allora continua da solo.
no, amico mio, non è così che stanno le cose.
se tu prendi un prodotto pessimo te la prendi con chi produce il prodotto, che è MSI, non AMD che produce solo il chip...
se mi dicevi che avevi avuto la stessa esperienza per una decina di custom che hanno quel chip, allora la tua esperienza aveva un peso assai diverso.
quello di cui ti lamentavi era riscontrabile già solo leggendo qualche review e guardando le foto del dissipatore, quindi, se non l'hai fatto, la colpa è la tua; se invece l'hai fatto e l'hai comprata ugualmente... te la sei cercata.
quella scheda va bene per le specifiche di una 5700 o una 5600, non per una 5700 XT.
quindi non ci vuole il cuggino del cuggino di terzo grado per farti dire di essere un pochino più obbiettivo nelle tue valutazioni e non ci vuole nulla a dirti di chiedere anche scusa per le tue nemmeno tante velate insinuazioni, grazie.
di sicuro non era una GPU "rilassata", quindi era consigliabile andare sul sicuro.
I 7nm non fanno differenza sulla dimensione del chip rispetto a Turing ? :rolleyes:
Come dire praticamente che le dimensioni della minkia non fan differenza nel porno.
Cioè ? TU che dai del fanboy ad altri ?
Detto da te è come se un alce preistorica mi desse del cornuto.
Uno che ha messo su un monologo OT perchè qualcuno ha osato sollevare una questione sul fatto che forse era meglio prendere la 2070 anzichè la 5700 ? :asd:
Si lo scambio delle castronerie.
ll principio della superficie di contatto è solo l'ABC, ma in un microchip entrano in gioco molti altri fattori oltre all'area del die. :rolleyes:
Se poi tu non riesci nemmeno ad immaginare o concepire che oltre la 5° elementare esistono studi ben più avanzati è un problema solo tuo.
E certo ora si mettono a confronto valori presi da recensioni diverse, senza nemmeno riportare strumenti e condizioni, come nulla fosse proprio. :asd: Si vede che sono altri parametri che possiamo aggiungere alla miriade che non conosci.
Perchè non ti piacciono i risultati ? Un altro dei siti Gomblottistici della tua famigerata lista nera, come no.
TPU è uno dei siti più sicuri e affidabili, assieme a molti altri, anzi a TUTTI gli altri che a te non piacciono, se non sei d'accordo è un problema tuo.
Non ti attacco mica, a ridicolizzarti ci pensi tu da solo, io sottolineo soltanto e commento.
arrivederci al prossimo account, se te lo faranno aprire.
segnalato:
"credo che sia evidente la questione che nickname88 ha perso il filo della discussione preferendo ammutolire gli altri attaccandoli sul personale e non argomentando le proprie vedute.
credo che a questi ragazzini si debba far capire come ci si deve comportare in un luogo di pubblica lettura.
inutile dire quanti punti del regolamento ha palesemente e consapevolmente infranto.
chiedo quindi che venga esaminata a dovere la sua posizione."
I 7nm non fanno differenza sulla dimensione del chip rispetto a Turing ? :rolleyes:
Come dire praticamente che le dimensioni della minkia non fan differenza nel porno.
non m'interessa sapere se le dimensioni dei tuoi attributi hanno più o meno differenza in quell'ambito, ma ti assicuro che la densità dei transistor è solo uno dei vari indici che caratterizzano un chip; senza considerare gli altri ci fai ben poco.
Cioè ? TU che dai del fanboy ad altri ?
Detto da te è come se un alce preistorica mi desse del cornuto.
probabilmente dalle tue parti ci sono ancora molte alci cornute che girano.
Uno che ha messo su un monologo OT perchè qualcuno ha osato sollevare una questione sul fatto che forse era meglio prendere la 2070 anzichè la 5700 ? :asd:
l'OT, introdotto da altri, è stato fatto per far capire a te e a quella persona che cosa era il senso dell'obbiettività, non per dire che la 5700 XT è meglio di una 2070S, cosa che non mi sembra che sia ne stata detta ne tanto meno sia stato fatto un confronto diretto tra 5700 XT e 2070S...
al massimo, per far capire cosa significa l'obbiettività, si è esplicata la differenza tra la scheda indicata, la MeckOC, e una scheda decisamente migliore, la Pulse.... mi sembra che adottino entrambe Navi 10.
Si lo scambio delle castronerie.
ll principio della superficie di contatto è solo l'ABC, ma in un microchip entrano in gioco molti altri fattori oltre all'area del die. :rolleyes:
Se poi tu non riesci nemmeno ad immaginare o concepire che oltre la 5° elementare esistono studi ben più avanzati è un problema solo tuo.
e allora lo condividiamo, anzi, a quanto mostri non hai nemmeno l'ABC di questa materia.
poche chiacchiere la prossima volta, se non vuoi farti beccare in fallo sulle sciocchezze che scrivi.
E certo ora si mettono a confronto valori presi da recensioni diverse, senza nemmeno riportare strumenti e condizioni, come nulla fosse proprio. :asd: Si vede che sono altri parametri che possiamo aggiungere alla miriade che non conosci.
per prima cosa, se non vuoi farti passare per un millantatore, devi riportare tutta la frase, che è facilmente comprensibile ed avrebbe evitato a me di riscriverti l'osservazione che ha portato a prendere quei valori.
seconda cosa se quel sito riporta valori su una decina di schede coincidenti con quelli che trovi su TPU, le due procedure usate sono sufficientemente simili da poter prendere quel valore anche da quel sito.
poi, te lo ripeto: se contesti quella rivelazione dovresti contestare anche quelle fatte sulle altre schede, che sono talmente simili a quelle di TPU che portano alla conseguenza di contestare ANCHE quelle di TPU.
e ti ho spiegato perchè ti fornisco dati da TPU.
Perchè non ti piacciono i risultati ? Un altro dei siti Gomblottistici della tua famigerata lista nera, come no.
TPU è uno dei siti più sicuri e affidabili, assieme a molti altri, anzi a TUTTI gli altri che a te non piacciono, se non sei d'accordo è un problema tuo.
il problema è mio, infatti.
io giudico TPU uno dei siti più faziosi che ci siano, quasi alla stregua di TomsHW, che è il primo della lista nera, ma ho già detto che quando discuto con te fornisco quei dati, in modo che se li contesti, dovrai ritrattare tutte le tue osservazioni fatte negli anni usando proprio i dati di TPU a supporto...
se tu ritieni inaffidabili quei dati allora hai qualche problema, ecco perché li uso.
Non ti attacco mica, a ridicolizzarti ci pensi tu da solo, io sottolineo soltanto e commento.
assolutamente non ti comporti come un bulletto da quattro soldi, hai ragione...
non insulti mai nessuno; hai ragione.
argomenti ogni volta dettagliatamente le tue ragioni, hai ragione...
:banned:
HwWizzard
11-10-2020, 21:19
no, amico mio, non è così che stanno le cose.
se tu prendi un prodotto pessimo te la prendi con chi produce il prodotto, che è MSI, non AMD che produce solo il chip...
se mi dicevi che avevi avuto la stessa esperienza per una decina di custom che hanno quel chip, allora la tua esperienza aveva un peso assai diverso.
quello di cui ti lamentavi era riscontrabile già solo leggendo qualche review e guardando le foto del dissipatore, quindi, se non l'hai fatto, la colpa è la tua; se invece l'hai fatto e l'hai comprata ugualmente... te la sei cercata.
quella scheda va bene per le specifiche di una 5700 o una 5600, non per una 5700 XT.
quindi non ci vuole il cuggino del cuggino di terzo grado per farti dire di essere un pochino più obbiettivo nelle tue valutazioni e non ci vuole nulla a dirti di chiedere anche scusa per le tue nemmeno tante velate insinuazioni, grazie.
di sicuro non era una GPU "rilassata", quindi era consigliabile andare sul sicuro.
Sicuramente non devo chiedere scusa, non ho insinuato niente, e ho riportato la
Mia personale esperienza. La mia VGA ha un dissipatore più che dimensionato per le prestazioni che offre. Quindi il problema è e rimane di AMD perché con un dissipatore analogo nVidia offre qualcosa in più come prestazioni e un comfort neanche paragonabile.
bagnino89
11-10-2020, 22:41
Sicuramente non devo chiedere scusa, non ho insinuato niente, e ho riportato la
Mia personale esperienza. La mia VGA ha un dissipatore più che dimensionato per le prestazioni che offre. Quindi il problema è e rimane di AMD perché con un dissipatore analogo nVidia offre qualcosa in più come prestazioni e un comfort neanche paragonabile.
Ma veramente pensi di poter fare un discorso razionale con lui? :asd:
Lascia perdere, ignoralo. Ormai è talmente assuefatto dalle castronerie che scrive che neanche se ne rende conto.
La mia VGA ha un dissipatore più che dimensionato per le prestazioni che offre. Quindi il problema è e rimane di AMD perché con un dissipatore analogo nVidia offre qualcosa in più come prestazioni e un comfort neanche paragonabile.
e ritorni a bomba!
la tua scheda ha un dissipatore che non è nemmeno sufficiente per una 5700 liscia e lo si evince dai dati dei test; poi se diminuisci della metà l'interfaccia di scambio termico (la dimensione del chip), ti ci vuole, a stima, un dissipatore il doppio più grande per fare lo stesso lavoro ed ottenere le stesse temperature sul chip.
la 2070S ha un chip che è il doppio rispetto a quello della 5700 XT.
è fisica, non chiacchiere da bar e la termodinamica non è intuitiva... o la sai, o è meglio ne non ne parli affatto.
Ma veramente pensi di poter fare un discorso razionale con lui? :asd:
Lascia perdere, ignoralo. Ormai è talmente assuefatto dalle castronerie che scrive che neanche se ne rende conto.
ed ecco il cuggino del cuggino di terzo grado...
segnalato..
così imparate come ci si comporta in una discussione tecnica.
PS:
giusto per istruirti sull'argomento vai a cercarti la legge di Fourier sulla densità del flusso termico, così la prossima volta potrai intervenire nelle discussioni con cognizione di causa.
bagnino89
11-10-2020, 23:02
ed ecco il cuggino del cuggino di terzo grado...
segnalato..
così imparate come ci si comporta in una discussione tecnica.
Guarda, se mi sospendono me ne faccio una ragione, ma quanto meno mi auguro che tu faccia la stessa fine vista la sistematicità con la quale insudici ogni thread delle notizie che riguardi Nvidia o Intel...
Detto questo, puoi anche usare l'ignore list se ti danno fastidio i commenti degli altri. Addio.
Guarda, se mi sospendono me ne faccio una ragione, ma quanto meno mi auguro che tu faccia la stessa fine vista la sistematicità con la quale insudici ogni thread delle notizie che riguardi Nvidia o Intel...
Detto questo, puoi anche usare l'ignore list se ti danno fastidio i commenti degli altri. Addio.
non ho capito?
ora si deve chiedere preventivamente il permesso a qualcuno se si vuole lasciare un commento su una pagina che è pubblica?
si deve chiedere magari a te se lo gradisci o meno?
qui possono scrivere e scambiarsi idee tutti, basta che lo facciano nel rispetto reciproco e con l'educazione che ci vuole, cosa che a molti utenti non riesce affatto facile da capire, visto che quando finiscono le proprie argomentazioni si gettano disperati in uno shitstorm contro chi la pensa diversamente.
io le mie parole le supporto abbastanza dettagliatamente con argomentazioni che puoi trovare anche in maniera sufficientemente facile e cerco di non lasciarmi andare in diatribe personali che hanno ben poco a che fare con la discussione in atto, ma la questione è che se te non le capisci per una tua mancanza, non ci posso fare nulla, se non cercare di spiegartele meglio, perché è sufficiente aprire un buon libro di fisica per avere tutte le indicazioni possibili.
è sufficiente essere un po' più umili e saper accettare la questione che non si può sapere tutto nella vita, soprattutto se non si è studiata anche solo grossolanamente.
forse è meglio che cambiate registro, perché qui non avete nessun diritto che potete vantare che sovrasta quegli degli altri utenti e sono sicuro che qui si esige il rispetto reciproco per scrivere.
o crescete, o è preferibile che vi asteniate dal commentare.
imparate l'educazione che necessita nello scrivere in pubblico, se non volete problemi.
forse il consiglio che mi hai offerto è più valido per te stesso.
compatitelo bagnino, uno che spreca tutto questo tempo a parlar male di amd ha qualche problema, insozza tutti i 3d, talebani così nel forum non si sono mai visti.
compatitelo bagnino, uno che spreca tutto questo tempo a parlar male di amd ha qualche problema, insozza tutti i 3d, talebani così nel forum non si sono mai visti.
li ho compatiti e scusati anche per troppo tempo.
oggi credo che sia necessaria una epurazione di certi elementi, se non accettano di buon grado di cambiare e di comportarsi ragionevolmente con gli altri.
o diventano grandi, o è meglio che lo facciano altrove, perché qui disturbano le discussioni degli altri.
cronos1990
12-10-2020, 07:05
Non per fare l'avvocato del diavolo ma...
...potrà anche non far piacere quello che scrive locusta o non essere d'accordo, ma sinceramente mi sembra uno dei pochi che quando scrive lo fa spiegano dettagliatamente il suo pensiero. Certi attacchi sinceramente non li capisco proprio.
Detto ciò, per curiosità oggi controllo le temperature della mia 5700XT giusto per curiosità mentre ho attivo qualche gioco, e vediamo che salta fuori.
Magari dopo aver pulito i filtri del case che saranno del tutto intasati dalla polvere :asd:
grazie cronos1990; ma la questione che mi sa più a cuore è soprattutto l'educazione.
certe persone creano un ambiente tossico con i loro atteggiamenti e quando lo fanno devono essere riprese e segnalate, così in un modo o nell'altro capiranno che non ci si può comportare in quel modo.
StylezZz`
12-10-2020, 10:33
La mia VGA ha un dissipatore più che dimensionato per le prestazioni che offre
A giudicare dalle temperature sembra proprio di no, e leggendo le varie recensioni su amazon di chi ha acquistato il tuo stesso modello, direi che sei in buona compagnia.
Quindi il problema è e rimane di AMD perché con un dissipatore analogo nVidia offre qualcosa in più come prestazioni e un comfort neanche paragonabile.
Il problema è che tu continui a paragonare due chip diversi che richiedono anche una dissipazione diversa, quindi se il dissipatore della MSI Ventus (che è uguale alla Mech) può andare bene con la 2070 Super, non è adatto con la 5700 XT.
Il brand non è sinonimo di qualità, non è perché sta scritto ''MSI'' allora tutto quello che ti vende è perfetto, anche EVGA con alcune schede nvidia fa ridere se prendiamo come esempio alcuni modelli ''economici'', ma spesso le persone non guardano oltre la marca.
Poi oh se AMD non la si può criticare sulla base dell’esperienza personale e non come molti che lo fanno per sentito dire dal cuggino del cuggino di terzo grado allora continua da solo.
Tu puoi criticare e scrivere quello che vuoi su AMD, Nvidia, Intel etc...siamo in forum e qui tutti abbiamo il diritto di esporre le proprie opinioni rispettando quelle degli altri ed evitando attacchi personali (non mi riferisco a te).
Chiaramente anche gli altri hanno il diritto di risponderti, e se mi scrivi che è un problema di AMD se tutte le schede 5700 XT scaldano, allora scusami, ma va in conflitto con l'esperienza di tantissimi altri utenti che non hanno questi problemi di temperature alte con schede che montano un dissipatore migliore.
Comunque lucusta è stato abbastanza chiaro, quindi non ho altro da aggiungere, la chiudo qui.
Perchè Amd non vende un bundle cpu+gpu? Sono gli unici a realizzare sia cpu e gpu di alto profilo sino ad ora perchè non proporre entrambi con un piccolo sconto? Io fossi Amd farei una cosa banalissima: pc semi assemblato con gli spazi liberi per metterci ssd, ali e memorie. Piccolo sconto con giochi magari in regalo.
Ciao Scar, come stai tutto ok ? E' un po che non ci si sente du TD2.
Il Bundle lo vedo difficile perche' saranno le nuove serie 4000 a dare tutto cio' che serve a chi chiede, senza esagerare, prestazioni dignitose al proprio sitema senza rinunciare a nulla sua lato cpu che gpu.
Tanto i consumi si attestano tra 35W e 65W per la versione piu' potente quindi puoi sbizzarrirti con mini ITX come meglio credi avendo un pc praticamente sul palmo di una mano. ;)
Poi tutto puo' succedere commercialmente..... ;)
HwWizzard
12-10-2020, 12:03
A giudicare dalle temperature sembra proprio di no, e leggendo le varie recensioni su amazon di chi ha acquistato il tuo stesso modello, direi che sei in buona compagnia.
Il problema è che tu continui a paragonare due chip diversi che richiedono anche una dissipazione diversa, quindi se il dissipatore della MSI Ventus (che è uguale alla Mech) può andare bene con la 2070 Super, non è adatto con la 5700 XT.
Il brand non è sinonimo di qualità, non è perché sta scritto ''MSI'' allora tutto quello che ti vende è perfetto, anche EVGA con alcune schede nvidia fa ridere se prendiamo come esempio alcuni modelli ''economici'', ma spesso le persone non guardano oltre la marca.
Tu puoi criticare e scrivere quello che vuoi su AMD, Nvidia, Intel etc...siamo in forum e qui tutti abbiamo il diritto di esporre le proprie opinioni rispettando quelle degli altri ed evitando attacchi personali (non mi riferisco a te).
Chiaramente anche gli altri hanno il diritto di risponderti, e se mi scrivi che è un problema di AMD se tutte le schede 5700 XT scaldano, allora scusami, ma va in conflitto con l'esperienza di tantissimi altri utenti che non hanno questi problemi di temperature alte con schede che montano un dissipatore migliore.
Comunque lucusta è stato abbastanza chiaro, quindi non ho altro da aggiungere, la chiudo qui.
Boh, alla fine ritorno sempre allo stesso punto. Al tempo ho preso la MechOC perché era subito disponibile fisicamente dove ho preso tutto il resto. Ho visto che era bi ventola come tante altre e venendo da molti anni con nVidia dove bene o male tutte le custom andavano bene non mi sono posto il problema.
Poi non ho mica detto che fa schifo o che sia una merda, anzi a 100€ in meno va praticamente come la 2070S @1440p. E ho anche scritto di non aver mai avuto problemi driver che molti sostenitori nVidia qui millantano. Ma il rumore mi da fastidio e per questo la cambierò appena entrambe le nuove proposte saranno disponibili. Anche se non andrò sulla fascia della 3080 perché non ho in piano di passare al 4K
Sicuramente non devo chiedere scusa, non ho insinuato niente, e ho riportato la
Mia personale esperienza. La mia VGA ha un dissipatore più che dimensionato per le prestazioni che offre. Quindi il problema è e rimane di AMD perché con un dissipatore analogo nVidia offre qualcosa in più come prestazioni e un comfort neanche paragonabile.
Quindi se non ho capito male e correggimi se sbaglio....
Tu hai una GPU MSI che fa schifo a livello di dissipatore e a casua di questo hai avuto problemi, addossando la colpa ad AMD per un progetto del caxxo.
Oggi quindi tutti le 3080 che hanno problemi sopra i 2Ghz a casua di materiale scadente delle varie case produttrici e' da addossarre ad NVIDIA.
Ergo entrambe ci rimettono a casua della carenza di zelo o la fretta di proporre la propria GPU per primi sul mercato e giustamente l'utente finale ne fa le spese.
Stai a vedere che tra poco ci tocchera' farfe tifo per le GPU di intel.... :D :D
HwWizzard
12-10-2020, 12:28
Quindi se non ho capito male e correggimi se sbaglio....
Tu hai una GPU MSI che fa schifo a livello di dissipatore e a casua di questo hai avuto problemi, addossando la colpa ad AMD per un progetto del caxxo.
Oggi quindi tutti le 3080 che hanno problemi sopra i 2Ghz a casua di materiale scadente delle varie schede produttrici e' da addossarre ad NVIDIA.
Ergo entrambe ci rimettono a casua della carenza di zelo o la fretta di proporre la propria GPU per primi sul mercato e giustamente l'utente finale ne fa le spese.
Stai a vedere che tra poco ci tocchera' farfe tifo per le GPU di intel.... :D :D
Beh, il minimo che dovrebbero fare entrambe è o far risortii reference design o non permettere ai partner di offrire schede di merda. Lo possono fare benissimo (ti possono bloccare via driver la scheda se non rispetta il minimo qualitativo che imponi al partner) solo che se ne fregano e a questo giro critico AMD, magari al prossimo sarà la volta di nVidia... io difendo solo gli Eur che escono dalla mia tasca dei marchi me ne infischio.
Beh, il minimo che dovrebbero fare entrambe è o far risortii reference design o non permettere ai partner di offrire schede di merda. Lo possono fare benissimo (ti possono bloccare via driver la scheda se non rispetta il minimo qualitativo che imponi al partner) solo che se ne fregano e a questo giro critico AMD, magari al prossimo sarà la volta di nVidia... io difendo solo gli Eur che escono dalla mia tasca dei marchi me ne infischio.
Non sono d'accordo, AMD e Nvidia non centrano una beata mazza nella progettazione di gpu di terze parti.
Una volta che ti danno le specifiche, e stai tranquillo che te le danno, sono le case che decidono il resto.
Di progetti nati male e finiti peggio ce ne sono a bizzeffe, poi dipende anche dove hanno toppato.
Se ripenso alla mia ASUS R9 290 e al dissi che montava ricordo che era un dissipatore ereditato dalla GPU Nvidia 770 che aveva un chip completamente diverso nella forma rispetto a quello di AMD.
Ora in questo caso non avevo blocchi o altro ma sicuramente il dissipatore non lavorava al 100% per quella gpu, lasciandola un po' "calda" durante le sessioni di gioco, ma niente blocchi o altri imprevisti.
Il problema delle 3080 invece e' piu' serio e porta a generalizzare il problema su tutte le schede anche quelle che in futuro il problema non lo avranno perche' saranno frenate dai driver direttamente, e qui invece personalmente mi incazzo con NVIDIA perche' dovrebbe far intervenire le case direttamente sui BIOS delle loro GPU.
Sinceramente in entrambi i casi non capisco il perche' si dovrebbero criticare NVIDIA o AMD.
HwWizzard
12-10-2020, 16:28
Non sono d'accordo, AMD e Nvidia non centrano una beata mazza nella progettazione di gpu di terze parti.
Una volta che ti danno le specifiche, e stai tranquillo che te le danno, sono le case che decidono il resto.
Di progetti nati male e finiti peggio ce ne sono a bizzeffe, poi dipende anche dove hanno toppato.
Se ripenso alla mia ASUS R9 290 e al dissi che montava ricordo che era un dissipatore ereditato dalla GPU Nvidia 770 che aveva un chip completamente diverso nella forma rispetto a quello di AMD.
Ora in questo caso non avevo blocchi o altro ma sicuramente il dissipatore non lavorava al 100% per quella gpu, lasciandola un po' "calda" durante le sessioni di gioco, ma niente blocchi o altri imprevisti.
Il problema delle 3080 invece e' piu' serio e porta a generalizzare il problema su tutte le schede anche quelle che in futuro il problema non lo avranno perche' saranno frenate dai driver direttamente, e qui invece personalmente mi incazzo con NVIDIA perche' dovrebbe far intervenire le case direttamente sui BIOS delle loro GPU.
Sinceramente in entrambi i casi non capisco il perche' si dovrebbero criticare NVIDIA o AMD.
Beh se non è cambiato nulla da stamattina siamo in democrazia quindi puoi benissimo non essere d’accordo. Io non riesco a concepire che AMD e nVidia se ne sbattono di come i partner fanno le schede, perché in primis danneggiano AMD e nVidia. Sulle 3080 frenate via driver stai tranquillo che questa cagata sarà una grossa discriminante nel mio prossimo acquisto. Fossi stato in nVidia i partner avrebbero sostituito tutte le schede invece di parargli il :ciapet: con i driver per risparmiare 5$ sui condensatori, a costo di non dargli più i chip.
Beh se non è cambiato nulla da stamattina siamo in democrazia quindi puoi benissimo non essere d’accordo. Io non riesco a concepire che AMD e nVidia se ne sbattono di come i partner fanno le schede, perché in primis danneggiano AMD e nVidia. Sulle 3080 frenate via driver stai tranquillo che questa cagata sarà una grossa discriminante nel mio prossimo acquisto. Fossi stato in nVidia i partner avrebbero sostituito tutte le schede invece di parargli il :ciapet: con i driver per risparmiare 5$ sui condensatori, a costo di non dargli più i chip.
Chiaramente si scrive per confrontarsi non per imporre, lungida me il volerlo fare. ;)
Per il resto penso che AMD e NVIDIA non devono, ma penso che non possano neanche, imporre determinate cose a case del calibro di ASUS, MSI, EVGA etc. etc. a parte le specifiche tecniche dei loro prodotti.
Concludo dicendop che e' anche colpa nostra in parte. Ultimamente ho assistito al delirio collettivo all'uscita della serie 3000 tra prezzi sparati alle stelle e "vecchia" serie regalata 2 soldi ancora prima di vedere le prestazioni e possibili problemi, basandosi solo sul prezzo di vendita.
Tutto questo non fa altro che peggiorare la situazione e le case ne approfittano, chi primo arriva meglio alloggia, dandoti un prodotto poco testato.
Non sono d'accordo, AMD e Nvidia non centrano una beata mazza nella progettazione di gpu di terze parti.
Una volta che ti danno le specifiche, e stai tranquillo che te le danno, sono le case che decidono il resto.
Di progetti nati male e finiti peggio ce ne sono a bizzeffe, poi dipende anche dove hanno toppato.
Se ripenso alla mia ASUS R9 290 e al dissi che montava ricordo che era un dissipatore ereditato dalla GPU Nvidia 770 che aveva un chip completamente diverso nella forma rispetto a quello di AMD.
Ora in questo caso non avevo blocchi o altro ma sicuramente il dissipatore non lavorava al 100% per quella gpu, lasciandola un po' "calda" durante le sessioni di gioco, ma niente blocchi o altri imprevisti.
Il problema delle 3080 invece e' piu' serio e porta a generalizzare il problema su tutte le schede anche quelle che in futuro il problema non lo avranno perche' saranno frenate dai driver direttamente, e qui invece personalmente mi incazzo con NVIDIA perche' dovrebbe far intervenire le case direttamente sui BIOS delle loro GPU.
Sinceramente in entrambi i casi non capisco il perche' si dovrebbero criticare NVIDIA o AMD.
asus sui portatili usa i soliti dissipatori da skylake, poco male se da 2 core siamo arrivati a 4 o 6 o se la vga consuma il doppio. dei fenomeni :D
StylezZz`
12-10-2020, 17:24
Fossi stato in nVidia i partner avrebbero sostituito tutte le schede invece di parargli il :ciapet: con i driver per risparmiare 5$ sui condensatori, a costo di non dargli più i chip.
È stato dimostrato che i condensatori POSCAP non sono la causa dei crash, era più un problema di windows e dei drivers ancora acerbi.
https://www.youtube.com/watch?v=lhyCdraz54s&feature=youtu.be
HwWizzard
12-10-2020, 20:43
È stato dimostrato che i condensatori POSCAP non sono la causa dei crash, era più un problema di windows e dei drivers ancora acerbi.
https://www.youtube.com/watch?v=lhyCdraz54s&feature=youtu.be
Beh non sto lì ad aggiornarmi ogni giorno anche perché ancora non sono in fase d’acquisto. Se era questioni dei driver vuol dire che le hanno spinte al massimo per fare le review e adesso invece boostano meno. Certo la differenza è risibile ma rimane l’amaro in bocca.
È stato dimostrato che i condensatori POSCAP non sono la causa dei crash, era più un problema di windows e dei drivers ancora acerbi.
https://www.youtube.com/watch?v=lhyCdraz54s&feature=youtu.be
Chissa' perche' non ci credo......... :D :D :D
StylezZz`
28-10-2020, 16:34
Se i numeri di AMD la mostrano vicino alla 3080, significa che andrà come la 3070. Forse 1 o 2 fps in più.
Vedendo la grandezza della scheda e conoscendo i trascorsi progettuali (cioè aggiungere silicio su silicio usando sempre la solita architettura di 10 anni fa), consumerà circa il doppio della stessa.
Costi probabilmente paragonabili alla 3070 e quindi flop di vendite annunciato.
Ovviamente i fan AMD diranno, una volta recensita e mostrati gli amari dati, che le scarse prestazioni sono causate dall'architetuttura acerba e giureranno sulla propria madre che con fantasiosi e magici nuovi driver si otterranno prestazioni di una 3090 - cosa che sarà ovviamente disattesa dai fatti.
Sic et simpliciter.
Segnatevelo e ritroviamoci qua fra 1 mese.
https://community.gamepress.gg/uploads/default/original/3X/2/7/27dc841a6b82b510dfb3470b9dc7f7b40706cdb5.gif
Quindi da quello che ho capito stavolta AMD ha spaccato con la serie 6800, 6800XT e 6900 XT che hanno prestazioni superiori o in linea con le Nvidia 3070, 3080 e 3090 ma a prezzi più bassi.
Se e' confermato definitivamente e attendendo i prezzi in italia ne vedremo delle belle stavolta. :D :D
OvErClOck82
28-10-2020, 17:20
Se i numeri di AMD la mostrano vicino alla 3080, significa che andrà come la 3070. Forse 1 o 2 fps in più.
Vedendo la grandezza della scheda e conoscendo i trascorsi progettuali (cioè aggiungere silicio su silicio usando sempre la solita architettura di 10 anni fa), consumerà circa il doppio della stessa.
Costi probabilmente paragonabili alla 3070 e quindi flop di vendite annunciato.
Ovviamente i fan AMD diranno, una volta recensita e mostrati gli amari dati, che le scarse prestazioni sono causate dall'architetuttura acerba e giureranno sulla propria madre che con fantasiosi e magici nuovi driver si otterranno prestazioni di una 3090 - cosa che sarà ovviamente disattesa dai fatti.
Sic et simpliciter.
Segnatevelo e ritroviamoci qua fra 1 mese.
mi dai due o tre numeri del lotto ? :sbonk:
Guarda i messaggi
Se i numeri di AMD la mostrano vicino alla 3080, significa che andrà come la 3070. Forse 1 o 2 fps in più.
Vedendo la grandezza della scheda e conoscendo i trascorsi progettuali (cioè aggiungere silicio su silicio usando sempre la solita architettura di 10 anni fa), consumerà circa il doppio della stessa.
Costi probabilmente paragonabili alla 3070 e quindi flop di vendite annunciato.
Ovviamente i fan AMD diranno, una volta recensita e mostrati gli amari dati, che le scarse prestazioni sono causate dall'architetuttura acerba e giureranno sulla propria madre che con fantasiosi e magici nuovi driver si otterranno prestazioni di una 3090 - cosa che sarà ovviamente disattesa dai fatti.
Sic et simpliciter.
Segnatevelo e ritroviamoci qua fra 1 mese.
Ok Eccoci qua.... Quindi ora quanto te rode ad aver scritto ste puttanate ?
Pur dovendo aspettare i benckmark e calcolando che le DX12 Ultimate saranno ottimizzate per RDN2, quindi una spinta ulteriore alla grafica AMD, non possiamo far altro che applaudire lo sforzo di AMD che a livello di forza bruta ha praticamente pareggiato se non superato, seppur di poco, le rispettive schede della concorrenza.
I prezzi poi non mi sembrano alti ma dobbiamo aspettare i corrispettivi italiani.
Poi molto importante sara' la disponibilita' di queste schede che potrebbe in diversi ambiti essere anche l'asso nella manica per rubare quote di mercato alla concorrenza.
Per ultimo all'uscita della serie 3000 sono rimasto perpelesso sui prezzi che Nvidia ha pubblicato x la nuova linea con prezzi tutto sommato "umani".
Proprio Nvidia che ti fa pagare anche l'aria che respiri e questo a mio parere e' stato un segnale che loro sapevano che in qualche modo le Radeon 6000 non erano poi cosi' scarse.
Vedremo, saro' contento se si arrivera' ad un punto di pareggio con conseguenza battaglia sui prezzi cosi' da agevolare noi acquirenti (che poi e' l'unica cosa che personalmente mi importa).
MiKeLezZ
29-10-2020, 15:10
Ok Eccoci qua.... Quindi ora quanto te rode ad aver scritto ste puttanate ?
Pur dovendo aspettare i benckmark e calcolando che le DX12 Ultimate saranno ottimizzate per RDN2, quindi una spinta ulteriore alla grafica AMD, non possiamo far altro che applaudire lo sforzo di AMD che a livello di forza bruta ha praticamente pareggiato se non superato, seppur di poco, le rispettive schede della concorrenza.
I prezzi poi non mi sembrano alti ma dobbiamo aspettare i corrispettivi italiani.
Poi molto importante sara' la disponibilita' di queste schede che potrebbe in diversi ambiti essere anche l'asso nella manica per rubare quote di mercato alla concorrenza.
Per ultimo all'uscita della serie 3000 sono rimasto perpelesso sui prezzi che Nvidia ha pubblicato x la nuova linea con prezzi tutto sommato "umani".
Proprio Nvidia che ti fa pagare anche l'aria che respiri e questo a mio parere e' stato un segnale che loro sapevano che in qualche modo le Radeon 6000 non erano poi cosi' scarse.
Vedremo, saro' contento se si arrivera' ad un punto di pareggio con conseguenza battaglia sui prezzi cosi' da agevolare noi acquirenti (che poi e' l'unica cosa che personalmente mi importa).Ma non c'è neppure mezzo numero e l'implementazione del Ray Tracing appare già ora scarsa.
Quelle 3 slide mostrano che la 6800 liscia vada 1 o 2 fps più della 3070, che la 6800XT vada come la 3080 e che la 3090 non abbia concorrenza... C.v.d.
Non ci ho preso solo sul TDP, dove hanno fatto un ottimo lavoro (sembra).
OvErClOck82
29-10-2020, 15:11
Ma non c'è neppure mezzo numero e l'implementazione del Ray Tracing appare già ora scarsa.
Quelle 3 slide mostrano che la 6800 liscia vada 1 o 2 fps più della 3070, che la 6800XT vada come la 3080 e che la 3090 non abbia concorrenza... C.v.d.
Non ci ho preso solo sul TDP, dove hanno fatto un ottimo lavoro (sembra).
o sei dissociato dalla realtá o ci prendi in giro, non c'è verso dai... non puoi scrivere ste cagate ed esserne pure convinto
StylezZz`
29-10-2020, 15:48
o sei dissociato dalla realtá o ci prendi in giro, non c'è verso dai... non puoi scrivere ste cagate ed esserne pure convinto
Ahahaha roba da matti.
MiKeLezZ
29-10-2020, 16:03
o sei dissociato dalla realtá o ci prendi in giro, non c'è verso dai... non puoi scrivere ste cagate ed esserne pure convintoArgomenta.
Ma non c'è neppure mezzo numero e l'implementazione del Ray Tracing appare già ora scarsa.
Quelle 3 slide mostrano che la 6800 liscia vada 1 o 2 fps più della 3070, che la 6800XT vada come la 3080 e che la 3090 non abbia concorrenza... C.v.d.
Non ci ho preso solo sul TDP, dove hanno fatto un ottimo lavoro (sembra).
Sei testardo, l' RT oggi e' stato ottimizzato solo su HW Nvidia per via del fatto che erano le SOLE schede a supportarlo.
Un gioco gira male anche su una 3090 o 6900XT se non e' ottimizzato a dovere, potrei farti un elenco lungo un'enciclopedia.
Detto questo, e speriamo che tu lo abbia capito, l'unica certezza sara' vedere un benchmark che dimostri il vero stato delle cose.
Certo per vedere la reale potenza di entrambe le schede non servono i benckmark di oggi ma quelli che usciranno OTTIMIZZATI per entrambe le case.
Per ultimo bisogna vedere quanto l'accoppiata Ryzen 5000 e radeon 6000 sia favorevole ad un ulteriore balzo di potenza visto che si parla di migliorare le prestazioni delle Radeon fino ad un max 13%.
StylezZz`
29-10-2020, 17:27
Sei testardo
No non è testardo, basta vedere i suoi innumerevoli post negli anni per capire la sua totale assenza di obiettività, oltre ad essere chiaramente un fan nvidia, ma d'altronde cosa ti aspetti da uno che ogni tanto se ne esce con la storiella dei driver ATi nel 2005 :asd:
Fate un favore a voi stessi, non perdeteci tempo, e limitatevi a farvi due risate.
cronos1990
29-10-2020, 18:08
Per favore, ignoriamo i bambini dell'asilo che battono i piedi quando gli tocchi il loro giocattolo :asd:
Ancora una volta le sue previsioni con tanto di "ci vediamo tra 1 mese" sono state disattese. Se avessi un centesimo per ogni volta che è successo, farei concorrenza a Bill Gates come uomo più ricco del globo :asd:
Poi che cribbio centra il commento sulla 3090 che non ha nulla a che vedere con quello che interessa il giocatore PC (la 3090 è la nuova Titan, già detto e ridetto più volte dalla stessa Nvidia) lo sa solo lui.
Con driver "acerbi" sembra che le corrispettive AMD delle schede Nvidia siamo al pari se non leggermente meglio, e consumano di meno (ricordo le sue parole testuali: Vedendo la grandezza della scheda e conoscendo i trascorsi progettuali (cioè aggiungere silicio su silicio usando sempre la solita architettura di 10 anni fa), consumerà circa il doppio della stessa.).
Suvvia...
MiKeLezZ
29-10-2020, 18:27
Per favore, ignoriamo i bambini dell'asilo che battono i piedi quando gli tocchi il loro giocattolo :asd:Ok... quindi non rispondo!
Ma non c'è neppure mezzo numero e l'implementazione del Ray Tracing appare già ora scarsa.
Quelle 3 slide mostrano che la 6800 liscia vada 1 o 2 fps più della 3070, che la 6800XT vada come la 3080 e che la 3090 non abbia concorrenza... C.v.d.
Non ci ho preso solo sul TDP, dove hanno fatto un ottimo lavoro (sembra).
oltre che non ne hai azzeccata una non ti importa nemmeno aggiornarti, proprio rifiuti la realta':mbe:
ma poi a che pro, se anche amd ti sta sulle balle ok,ma guardala in prospettiva positiva, puoi prendere la tua amata a prezzi migliori
piu' obbliga gli attori in gioco a non adagiarsi troppo, che e' in arrivo pure intel:sofico:
sai che voglia che ha Amd di sprecare wafer e silicio prezioso quando di cpu ne servono a iosa, praticamente ci ha fatto pure un favore ad aver progettato sta belva visto che con un die navi21 ci facevano fino a 6/7 core zen3 con margini mooolto piu' alti
dobbiamo tutti essere grati;)
MiKeLezZ
11-11-2020, 18:09
Se i numeri di AMD la mostrano vicino alla 3080, significa che andrà come la 3070. Forse 1 o 2 fps in più.
Costi probabilmente paragonabili alla 3070 e quindi flop di vendite annunciato.
Ovviamente i fan AMD diranno, una volta recensita e mostrati gli amari dati, che le scarse prestazioni sono causate dall'architettura acerba e giureranno sulla propria madre che con fantasiosi e magici nuovi driver si otterranno prestazioni di una 3090 - cosa che sarà ovviamente disattesa dai fatti.
Sic et simpliciter.
Segnatevelo e ritroviamoci qua fra 1 mese.
Primi leak.
https://www.techpowerup.com/274509/amd-radeon-rx-6800-and-rx-6800-xt-gpu-opencl-performance-leaks
RTX3070: 361000
6800: 342000 (-5%)
RTX3080: 470000
6800XT: 410000 (-13%)
RTX3090: off charts
C.V.D.
StylezZz`
11-11-2020, 18:55
Primi leak.
https://www.techpowerup.com/274509/amd-radeon-rx-6800-and-rx-6800-xt-gpu-opencl-performance-leaks
RTX3070: 361000
6800: 342000 (-5%)
RTX3080: 470000
6800XT: 410000 (-13%)
RTX3090: off charts
C.V.D.
Certo che ci vuole proprio una bella faccia di bronzo, il bello è che quoti pure il tuo messaggio precedente :asd:
Hai saltato un pezzo importante:
''There has been a Ryzen 9 5950X test setup that boosted the performance of Radeon RX 6800 XT card by quite a lot, making it reach 456837 points, making a huge leap over the Intel-based system thanks to the Smart Access Memory (SAM) technology that all-AMD system provides.''
Ora, te potrai rispondere che per avere quelle performance bisogna acquistare per forza i nuovi ryzen, ma il fine di AMD è proprio questo, e vedrai che molti consumatori intel saranno ben disposti ad aggiornare.
L'unica cosa che resta a nvidia è il raytracing e il dlss, e ancora non sappiamo le performance delle 6000, ma se saranno anche di poco sotto, sarà comunque una vittoria per AMD.
Aggiungiamoci consumi minori (da confermare nei benchmark), prezzi di listino più bassi, 16GB di VRAM.
Ti saluto, e buon malox :)
ps: continua pure a cercare qualsiasi punto percentuale in più che possa dimostrare di averlo più lungo.
MiKeLezZ
11-11-2020, 19:16
Certo che ci vuole proprio una bella faccia di bronzo, il bello è che quoti pure il tuo messaggio precedente :asd:
Hai saltato un pezzo importante:
''There has been a Ryzen 9 5950X test setup that boosted the performance of Radeon RX 6800 XT card by quite a lot, making it reach 456837 points, making a huge leap over the Intel-based system thanks to the Smart Access Memory (SAM) technology that all-AMD system provides.''
Ora, te potrai rispondere che per avere quelle performance bisogna acquistare per forza i nuovi ryzen, ma il fine di AMD è proprio questo, e vedrai che molti consumatori intel saranno ben disposti ad aggiornare.
L'unica cosa che resta a nvidia è il raytracing e il dlss, e ancora non sappiamo le performance delle 6000, ma se saranno anche di poco sotto, sarà comunque una vittoria per AMD.
Aggiungiamoci consumi minori (da confermare nei benchmark), prezzi di listino più bassi, 16GB di VRAM.
Ti saluto, e buon malox :)
ps: continua pure a cercare qualsiasi punto percentuale in più che possa dimostrare di averlo più lungo.
se non te ne sei accorto 456.837 è minore di 470.000
nickname88
11-11-2020, 21:56
Primi leak.
https://www.techpowerup.com/274509/amd-radeon-rx-6800-and-rx-6800-xt-gpu-opencl-performance-leaks
RTX3070: 361000
6800: 342000 (-5%)
RTX3080: 470000
6800XT: 410000 (-13%)
RTX3090: off charts
C.V.D.Guarda che queste sono le performance in OpenCL, non centra nulla con i videogiochi.
Guarda che queste sono le performance in OpenCL, non centra nulla con i videogiochi.
Lacia perde, io ci rinucio a rispondere al soggetto a cui hai fatto notare che:
"AMD Radeon RX 6800 and RX 6800 XT GPU OpenCL Performance Leaks"
Arriva a capire solo che 1 e' inferiore di 2 o viceversa poi pero' non si cala nei particolari e sul perche'.
Scrive menate a raffica e prende schiaffi da tutti come sempre.
MiKeLezZ
12-11-2020, 08:04
Lacia perde, io ci rinucio a rispondere al soggetto a cui hai fatto notare che:
"AMD Radeon RX 6800 and RX 6800 XT GPU OpenCL Performance Leaks"
Arriva a capire solo che 1 e' inferiore di 2 o viceversa poi pero' non si cala nei particolari e sul perche'.
Scrive menate a raffica e prende schiaffi da tutti come sempre.Fai dei discorsi da ultras, senza argomentazioni e senza senso, con il solo scopo di offendere. La tua età?
Fai dei discorsi da ultras, senza argomentazioni e senza senso, con il solo scopo di offendere. La tua età?
Ma quale offesa, ma li leggi i post che scrivi e le risaposte degli altri o no?
Per l'eta' non ti preoccupare che sicuramente di esperienza ne ho abbastanza e forse, dico forse, anche piu' di te visto che scazzottavo gia' dai tempi dell 8086/8088 ....... cga/ega/vga/svga etc. etc. ;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.