View Full Version : [Thread Ufficiale] AMD Radeon RX6000 Series
Ale55andr0
02-11-2020, 10:12
cmq, voci sempre più insistenti parlano di una disponibilità ridotta anche dei prodotti AMD, aggravata anche dal fatto che è richiesta produzione massiva di chip per le console..
preparatevi alla guerra e a prezzi da strozzinaggio anche sta volta. Io risfodererò l'arma segreta: l'acquisto dal trono
cioè solo perchè starai seduto sul wc le troverai facile e a buon prezzo? Inoltre, stai h24 sulla tazza?
La piattaforma in firma,sono su pcie 3.0,quindi i riser 3.0 danno problemi su mobo pcie 4?buono a saperlo...
Inviato dal mio Mi A1 utilizzando Tapatalk
ovvio, se tu usi una scheda madre gen3, anche se la vga è gen 4, la banda passante è quella della gen 3, quindi il riser regge. se passi tutto a gen4, la banda raddoppia e il riser non ce la fa, portando ad avere bsod o altre problematiche.
ci sono riser gen 4 in commercio, ma sono pochissimi e comunque ci sono ancora delle rogne.
Predator_1982
02-11-2020, 11:23
cioè solo perchè starai seduto sul wc le troverai facile e a buon prezzo? Inoltre, stai h24 sulla tazza?
ironia...questa sconosciuta.
Avendo acquistato, per puro culo, la 3080 una mattina mentre ero al bagno quando a tutta italia il sito Nvidia rispondeva picche, credo porti fortuna :D
Se anche per acquistare una nuova AMD ci si dovrà di nuovo affidare ai riti sciamanici, siam messi proprio male.
secondo me non ci sarà bisogno di nessun rito, visto la bella figura già fatta da nvidia :asd:
penso saranno abbastanza furbi da diramare un comunicato in cui posticipano il lancio sul mercato per scarsa disponibilità. venderne 100 esemplari solo per dire "ecco le nostre nuove schede che competono con nvidia" non fa certo bene ad amd :rolleyes:
secondo me non ci sarà bisogno di nessun rito, visto la bella figura già fatta da nvidia :asd:
penso saranno abbastanza furbi da diramare un comunicato in cui posticipano il lancio sul mercato per scarsa disponibilità. venderne 100 esemplari solo per dire "ecco le nostre nuove schede che competono con nvidia" non fa certo bene ad amd :rolleyes:
Anche perché per fare peggio di nvidia c'è ne vuole eh
A proposito ma riser pcie4.0 oltre al linkup nulla?
Anche perché per fare peggio di nvidia c'è ne vuole eh
A proposito ma riser pcie4.0 oltre al linkup nulla?
che ho trovato nulla, qualche case itx include in bundle dei riser gen 4 ma non li ho trovato in commercio venduti separatamente. per questo alla fine ho preso un case itx ma con vga montata in maniera "standard".
Oirasor_84
02-11-2020, 18:36
ovvio, se tu usi una scheda madre gen3, anche se la vga è gen 4, la banda passante è quella della gen 3, quindi il riser regge. se passi tutto a gen4, la banda raddoppia e il riser non ce la fa, portando ad avere bsod o altre problematiche.
ci sono riser gen 4 in commercio, ma sono pochissimi e comunque ci sono ancora delle rogne.Fratm ma che il pcie gen4 supporta più banda lo sò,dai vostri post avevo capito che i riser pcie 3 montati su mobo gen 4 dessero problemi anche se da bios veniva impostato gen3.
Inviato dal mio Mi A1 utilizzando Tapatalk
che ho trovato nulla, qualche case itx include in bundle dei riser gen 4 ma non li ho trovato in commercio venduti separatamente. per questo alla fine ho preso un case itx ma con vga montata in maniera "standard".
io ho il silverstone rvz03, l'unico che mi entra sotto il tv dove lo uso, e'stato modificato per avere piu area di quello che ha in originine e le temperature sono nella norma peró quello che mi blocca é la mancanza di un riser 4 ed ora che escono le 6000 ne sento la mancanza... proveró a prendere questo linkup a vedere come si comporta
Gyammy85
02-11-2020, 21:35
Video sulle tecnologie ray tracing e vrs in Godfall
https://www.youtube.com/watch?v=ppLFctc0iMU&t=3s
StylezZz`
02-11-2020, 21:54
Video sulle tecnologie ray tracing e vrs in Godfall
https://www.youtube.com/watch?v=ppLFctc0iMU&t=3s
1:09 ''At 4k resolution using ultrahd textures, Godfall requires tremendous memory bandwidth to run smoothly, in this intricately detailed scene we're using 4k x 4k textures sizes and 12GB of graphics memory to play at 4k resolutions''.
Capisco che è un video dell'oste, ma se sarà tutto confermato dai benchmark e dai giochi futuri, voglio vedere chi avrà ancora il coraggio di dire che 8/10GB di VRAM vanno benissimo in 4k, e quantitativi maggiori sono solo marketing.
Data prevista uscita rx 6800/xt?
Loro dicono dal 18, worlwide credono poi...staremo a vedere.
Predator_1982
03-11-2020, 07:21
1:09 ''At 4k resolution using ultrahd textures, Godfall requires tremendous memory bandwidth to run smoothly, in this intricately detailed scene we're using 4k x 4k textures sizes and 12GB of graphics memory to play at 4k resolutions''.
Capisco che è un video dell'oste, ma se sarà tutto confermato dai benchmark e dai giochi futuri, voglio vedere chi avrà ancora il coraggio di dire che 8/10GB di VRAM vanno benissimo in 4k, e quantitativi maggiori sono solo marketing.
esame di realtà: non è 1 gioco su centinaia esistenti che fa la regola. E' ovviamente un game sponsorizzato da AMD...e a me sembra fatto a posta. Se tutti i giochi occupassero così tanta vram nessuno giocherebbe su pc anche perchè, mediamente, quanti hanno schede da più di 700 euro nel proprio case e giocano in 4k?
Inoltre è pure evidente che in termini di effetti RT c'è ben poco da vedere..
Ale55andr0
03-11-2020, 07:23
-15 :O
https://www.hwupgrade.it/news/skvideo/geforce-rtx-3060-ti-il-balletto-delle-date-adesso-si-parla-del-2-dicembre_93209.html
"anche se parlare di disponibilità e di schede video Nvidia sembra un controsenso in questo momento" :asd:
suneatshours86
03-11-2020, 07:45
1:09 ''At 4k resolution using ultrahd textures, Godfall requires tremendous memory bandwidth to run smoothly, in this intricately detailed scene we're using 4k x 4k textures sizes and 12GB of graphics memory to play at 4k resolutions''.
Capisco che è un video dell'oste, ma se sarà tutto confermato dai benchmark e dai giochi futuri, voglio vedere chi avrà ancora il coraggio di dire che 8/10GB di VRAM vanno benissimo in 4k, e quantitativi maggiori sono solo marketing.
boh, già a 1080p ci sono titoli che arrivano a saturare 6gb di ram, io non capisco come sia possibile far uscire schede video top di gamma con appena 10gb di ram per il 4k
AMD ha scelto una tipologia di ram meno performante ma quasi sicuramente con più disponibilità sul mercato
Mallardo
03-11-2020, 08:03
Video sulle tecnologie ray tracing e vrs in Godfall
https://www.youtube.com/watch?v=ppLFctc0iMU&t=3s
Onestamente finché lo limitano alle ombre, è davvero poco interessante l'rt. Ma sarà sempre così, servono ambientazioni specifiche per esaltarne la resa.
Predator_1982
03-11-2020, 08:16
Onestamente finché lo limitano alle ombre, è davvero poco interessante l'rt. Ma sarà sempre così, servono ambientazioni specifiche per esaltarne la resa.
esatto, ci sono 2 ombre in croce...non ci sarebbe bisogno nemmeno di scomodare le unità RA per quelle.
Ormai però, anche i giochi non sono più un campo oggettivo di confronto, troppo pilotati verso chi li sponsorizza (e vale anche per Nvidia sia chiaro).
Andy1111
03-11-2020, 08:27
esame di realtà: non è 1 gioco su centinaia esistenti che fa la regola. E' ovviamente un game sponsorizzato da AMD...e a me sembra fatto a posta. Se tutti i giochi occupassero così tanta vram nessuno giocherebbe su pc anche perchè, mediamente, quanti hanno schede da più di 700 euro nel proprio case e giocano in 4k?
Inoltre è pure evidente che in termini di effetti RT c'è ben poco da vedere..
Giusto è meglio Control :mc:
Predator_1982
03-11-2020, 08:33
Giusto è meglio Control :mc:
non ho detto che è meglio control, ma non è nemmeno valutabile se si limita ad accelerare qualche ombra, non trovi?
Andy1111
03-11-2020, 08:37
non ho detto che è meglio control, ma non è nemmeno valutabile se si limita ad accelerare qualche ombra, non trovi?
vedremo quando esce se è come dici tu, prima impressione mi sembra cia sia più di solo qualche ombra, peccato che sarà esclusiva solo epic x 12 mesi, che schifo di roba
pozzanghere, pozzanghere, pozzanghereeeeee!!!!!
https://cdn.bestmovie.it/wp-content/uploads/2020/02/peppa-pig-cambia-voce-nuova-doppiatrice.jpg
Free Gordon
03-11-2020, 09:35
(e vale anche per Nvidia sia chiaro).
:rotfl: :rotfl: :rotfl:
Mallardo
03-11-2020, 09:48
Non volevo dare un giudizio sulla qualità visiva del titolo, ma far notare come la resa del RT sia molto legata all'ambientazione. Una cosa è un ambiente urbano moderno, in cui puoi giocare su riflessi ombre e trasparenze, tutt'altra cosa un'ambientazione rurale, in cui tutto ciò risulta molto più limitato.
Mallardo
03-11-2020, 10:17
Io invece sto ancora ad aspettare che esca qualcosa con implementazione dell RT che mi possa interessare, per adesso il nulla più assoluto. Non ne ho giocato uno dei titoli che lo utilizzano.
Gyammy85
03-11-2020, 11:03
La verità è che con rt on ci passerà la differenza su ampere che c'è in rt off lato performance per le rx6000, senza farsi troppi viaggi mentali, parliamoci chiaro, il ray tracing comincia ora, se poi ci aspettiamo un mondo fatto di specchi con ombre stile doom 3 meglio cambiare hobby
Predator_1982
03-11-2020, 11:30
La verità è che con rt on ci passerà la differenza su ampere che c'è in rt off lato performance per le rx6000, senza farsi troppi viaggi mentali, parliamoci chiaro, il ray tracing comincia ora, se poi ci aspettiamo un mondo fatto di specchi con ombre stile doom 3 meglio cambiare hobby
cmq io sarò uno di quelli che comprerà anche la 6800XT e farò i confronti in casa. Se in RT, come dite, andrà ugualmente bene o poco meno (sperando ovviamente esca qualche patch nel frattempo che consenta di sfruttarlo su più titoli) è altamente probabile che mi terrò la AMD, con il vantaggio di avere un sistema totalmente AMD anche in previsione dell'upgrade al 5900x.
Da qui nasce il mio forte interesse per questa generazione.
1:09 ''At 4k resolution using ultrahd textures, Godfall requires tremendous memory bandwidth to run smoothly, in this intricately detailed scene we're using 4k x 4k textures sizes and 12GB of graphics memory to play at 4k resolutions''.
Capisco che è un video dell'oste, ma se sarà tutto confermato dai benchmark e dai giochi futuri, voglio vedere chi avrà ancora il coraggio di dire che 8/10GB di VRAM vanno benissimo in 4k, e quantitativi maggiori sono solo marketing.
esame di realtà: non è 1 gioco su centinaia esistenti che fa la regola. E' ovviamente un game sponsorizzato da AMD...e a me sembra fatto a posta. Se tutti i giochi occupassero così tanta vram nessuno giocherebbe su pc anche perchè, mediamente, quanti hanno schede da più di 700 euro nel proprio case e giocano in 4k?
Inoltre è pure evidente che in termini di effetti RT c'è ben poco da vedere..
I giochi fatti per PS4 e Xbox one devono stare dentro gli 8 Gb per forza, mettono giusto qualche effettino in più o un pacco di texture ad alta risoluzione per il PC, ma di base si parte da quella ram disponibile.
Ovvio che per la generazione Xbox X e PS5 si partirà con una dotazione ram video differente e i giochi si adatteranno a quella.
https://videocardz.com/newz/amd-radeon-rx-6000-series-to-support-games-with-microsoft-dxr-and-vulcan-ray-tracing-apis
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Andy1111
03-11-2020, 12:57
https://videocardz.com/newz/amd-radeon-rx-6000-series-to-support-games-with-microsoft-dxr-and-vulcan-ray-tracing-apis
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Buono e questo conferma quella che ho detto svariate volte, molti giochi non usano le api dx12 ma proprietarie nvidia
Control sembra che usa le api dx12
Mallardo
03-11-2020, 13:05
Quando lo avevo detto mi era stato risposto che Nvidia non utilizzava api proprietarie...
Avrei una domanda tecnica da sottoporvi: come mai ci aspettiamo una minore efficacia in RT da parte di navi 2 rispetto ad ampere? Navi2 ha 1 RA per CU, ampere invece com'è strutturata? E che differenza c'è tra le 2 modalità di calcolo dei raggi?
Free Gordon
03-11-2020, 13:38
Ho letto ora che sono 536mmq.
Quindi 26,8mld / 536 sono una densità di 50 milioni/mmq.
Una densità paragonabilissima all'8nm Samsung, tenendo conto anche della cache da 128MB... :asd:
I guru si sono sbagliati di nuovo... :asd:
DJurassic
03-11-2020, 14:00
cmq io sarò uno di quelli che comprerà anche la 6800XT e farò i confronti in casa. Se in RT, come dite, andrà ugualmente bene o poco meno (sperando ovviamente esca qualche patch nel frattempo che consenta di sfruttarlo su più titoli) è altamente probabile che mi terrò la AMD, con il vantaggio di avere un sistema totalmente AMD anche in previsione dell'upgrade al 5900x.
Da qui nasce il mio forte interesse per questa generazione.
Di la verità, te vuoi solo privare questi ragazzi di una delle poche GPU che si riuscirà a trovare all'uscita così come hai fatto con la 3080 :asd:
Scherzi a parte per valutare certe cose basterà aspettare le recensioni o ancora meglio i video comparativa sul Tubo.
Predator_1982
03-11-2020, 14:07
Di la verità, te vuoi solo privare questi ragazzi di una delle poche GPU che si riuscirà a trovare all'uscita così come hai fatto con la 3080 :asd:
Scherzi a parte per valutare certe cose basterà aspettare le recensioni o ancora meglio i video comparativa sul Tubo.
ovvio :D Dato che non compro una scheda AMD da secoli, voglio provare con mano le sensazioni che restituisce. Io me le ricordo come schede piuttosto stutterose, ma parliamo davvero di ricordi risalenti alla X1900XT, per cui sicuramente adesso è un altro mondo.
nickname88
03-11-2020, 14:10
ovvio :D Dato che non compro una scheda AMD da secoli, voglio provare con mano le sensazioni che restituisce. Io me le ricordo come schede piuttosto stutterose, ma parliamo davvero di ricordi risalenti alla X1900XT, per cui sicuramente adesso è un altro mondo.
ti posso aggiornare con i drivers che crashavano in Windows con le HD5870, nei giochi tutto ok, molti anni fa anche questo ma più recente del tuo mondo :asd:, con i driver che nel CP avevano ancora il logo ATI nonostante fossero già stati acquisiti.
mackillers
03-11-2020, 14:15
Ah su questo non c'è dubbio. Comunque sono ancora sbalordito dai dati sugli fps che danno sul sito di AMD, la differenza tra 6800 e 3070 è considerevole, in 4k poi c'è un abisso. Altro dato interessante è che sembrano scalare molto meglio al diminuire della risoluzione, a 1440 recuperano molto rispetto alla controparte.
Questo invece mi preoccupa un p;, significa che in 4k sono abbastanza tirate con il bus della Vram che comincia a fare da collo di bottiglia.
non sarebbe stato male avere la 6900XT con un BUS più amplio.
Predator_1982
03-11-2020, 14:19
ti posso aggiornare con i drivers che crashavano in Windows con le HD5870, nei giochi tutto ok, molti anni fa anche questo ma più recente del tuo mondo :asd:, con i driver che nel CP avevano ancora il logo ATI nonostante fossero già stati acquisiti.
eh già...si invecchia velocemente. che ne sanno quelli che adesso giocano in 4k di quando io giocavo con la S3 trio 64 V+ e con la prima scheda 3d S3 Virge DX....abbinata ad un bel pentium 133 mhz e 8 mb di EDO ram. Che tempi ragazzi.
leoneazzurro
03-11-2020, 14:33
Questo invece mi preoccupa un p;, significa che in 4k sono abbastanza tirate con il bus della Vram che comincia a fare da collo di bottiglia.
non sarebbe stato male avere la 6900XT con un BUS più amplio.
Non è tanto questione di bus, è che la dimensione della cache è "giusta" per i 4K, con un hit rate del 58% fornisce una bandwidth effettiva molto più alta. Alle risoluzioni inferiori l'hit rate è ancora più alto per cui l'effetto si amplifica (senza contare che AMD è in vantaggio in geometria e fill rate rispetto alle dirette concorrenti)
mackillers
03-11-2020, 14:36
https://wccftech.com/amd-radeon-rx-6900-xt-graphics-cards-custom-models-in-talks-rx-6000-limited-stock-at-launch/
giusto per eh... Quest'anno mi sa che va cosi
non mi stupirebbe affatto, è vero che in Asia il problema Covid sembra più limitato al momento. ma comunque tutta l'economia ed i commerci mondiali hanno subito una forte battuta d'arresto.
io ho messo in pausa la scimmia, se ne riparla a gennaio/febbraio a disponibilità amplia sia per AMD che Nvidia.
tanto per adesso con il monitor che ho la 5700XT è ancora sotto sfruttata, mi spiace solo per la mancanza del Raytracing
mackillers
03-11-2020, 14:40
Non è tanto questione di bus, è che la dimensione della cache è "giusta" per i 4K, con un hit rate del 58% fornisce una bandwidth effettiva molto più alta. Alle risoluzioni inferiori l'hit rate è ancora più alto per cui l'effetto si amplifica (senza contare che AMD è in vantaggio in geometria e fill rate rispetto alle dirette concorrenti)
bhe, in altre parole il buffer della cache è preciso per il 4K, mentre a a risoluzioni inferiori da il meglio di se.
ergo se il bus fosse più amplio, o la cache fosse di più avremmo prestazioni migliori in 4k.
Capisco che AMD debba bilanciare prestazioni e costi di produzione, dico solo che un BUS a 320bit non sarebbe costato poi molto.
ho una scheda amd di 5-6 anni fa con il bus a 512bit ed era costata molto meno di 500€.
probabilmente non valeva la pena ingegnerizzare quella soluzione solo per la 6900XT e questo è stato il bilanciamento migliore che hanno trovato.
probabilmente in questo modo riescono a fare le 6800XT e le 6900XT partendo dalla stessa base e globalmente risparmiano molto.
Questo invece mi preoccupa un p;, significa che in 4k sono abbastanza tirate con il bus della Vram che comincia a fare da collo di bottiglia.
non sarebbe stato male avere la 6900XT con un BUS più amplio.
non ho capito perche vedi il bicchiere mezzo vuoto:confused:
non e' che a 4K ha problemi, anzi va come e piu' delle controparti Nvidia
che sono le attuali massime espressioni tecnologiche in campo gpu
semplicemente sono talmente potenti(ovvio se vuoi gestire 4K e RT)che quando le rilassi per gestire un QHD poi vola:sofico:
CiccoMan
03-11-2020, 14:45
Sapete se è possibile far funzionare in qualche modo il gsync con una vga AMD?
Attualmente ho un monitor LG 32GK850G e siccome stavo pensando di acquistare una delle nuove RX 6000 (quando e se saranno disponibili) vorrei capire se posso sfruttare il monitor in mio possesso...
Pima di chiedere ho dato un occhiata su Google, ma non mi pare di aver trovato nulla... ho trovato articoli di un anno fa che paventavano l'ipotesi di poter utilizzare gsync con vga rosse sui futuri monitor :p
Predator_1982
03-11-2020, 14:59
Sapete se è possibile far funzionare in qualche modo il gsync con una vga AMD?
Attualmente ho un monitor LG 32GK850G e siccome stavo pensando di acquistare una delle nuove RX 6000 (quando e se saranno disponibili) vorrei capire se posso sfruttare il monitor in mio possesso...
Pima di chiedere ho dato un occhiata su Google, ma non mi pare di aver trovato nulla... ho trovato articoli di un anno fa che paventavano l'ipotesi di poter utilizzare gsync con vga rosse sui futuri monitor :p
non credo...vale solo il contrario: puoi far funzionare un FreeSync compatibile con una scheda GSync
leoneazzurro
03-11-2020, 15:04
bhe, in altre parole il buffer della cache è preciso per il 4K, mentre a a risoluzioni inferiori da il meglio di se.
ergo se il bus fosse più amplio, o la cache fosse di più avremmo prestazioni migliori in 4k.
Capisco che AMD debba bilanciare prestazioni e costi di produzione, dico solo che un BUS a 320bit non sarebbe costato poi molto.
ho una scheda amd di 5-6 anni fa con il bus a 512bit ed era costata molto meno di 500€.
probabilmente non valeva la pena ingegnerizzare quella soluzione solo per la 6900XT e questo è stato il bilanciamento migliore che hanno trovato.
probabilmente in questo modo riescono a fare le 6800XT e le 6900XT partendo dalla stessa base e globalmente risparmiano molto.
La RAM grafica di 5-6 anni fa non è quella attuale. Già oggi GDDR6 con un bus a 384 bit richiede PCB abbastanza costosi dato che il rapporto segnale/rumore del protocollo di trasmissione utilizzato è abbastanza precario (e per la GDDR6X è ancora peggio, ed infatti si dice che il PCB delle 3080/3090 sia costosissimo rispetto alla media dell'industria). Inoltre si sta verificando una situazione per cui la banda delle RAM sta crescendo meno del previsto e le soluzioni come HBM sono molto costose al momento (e richiedono anche un interposer). La cache è una soluzione che rende la GPU meno dipendente da RAM spinte e scala molto bene con il processo produttivo.
leoneazzurro
04-11-2020, 17:11
https://twitter.com/CapFrameX/status/1324035256341700608?s=20
mii... speriamo la serie 6000 non vada a finire allo stesso modo
Ton90maz
04-11-2020, 17:52
La RAM grafica di 5-6 anni fa non è quella attuale. Già oggi GDDR6 con un bus a 384 bit richiede PCB abbastanza costosi dato che il rapporto segnale/rumore del protocollo di trasmissione utilizzato è abbastanza precario (e per la GDDR6X è ancora peggio, ed infatti si dice che il PCB delle 3080/3090 sia costosissimo rispetto alla media dell'industria). Inoltre si sta verificando una situazione per cui la banda delle RAM sta crescendo meno del previsto e le soluzioni come HBM sono molto costose al momento (e richiedono anche un interposer). La cache è una soluzione che rende la GPU meno dipendente da RAM spinte e scala molto bene con il processo produttivo.Ci sono tuttavia anche degli ovvi svantaggi, che però si ridurranno con l'approccio mcm (anzi, forse sarà pure una necessità).
Biscottoman
04-11-2020, 17:52
https://videocardz.com/newz/kopite7kimi-nvidia-geforce-rtx-3080-ti-rumored-to-feature-10496-cuda-cores-and-20gb-gddr6x-memory
La probabile risposta di Nvidia alla 6900xt, nel caso in cui il prezzo fosse simile sarebbe una bella sfida; anche se rimarrebbe ancora il grave problema disponibilità
Free Gordon
04-11-2020, 18:14
https://twitter.com/CapFrameX/status/1324035256341700608?s=20
mii... speriamo la serie 6000 non vada a finire allo stesso modo
Marzo?????? :eek:
Prevedo botte da orbi... :D
Antostorny
04-11-2020, 18:32
https://videocardz.com/newz/kopite7kimi-nvidia-geforce-rtx-3080-ti-rumored-to-feature-10496-cuda-cores-and-20gb-gddr6x-memory
La probabile risposta di Nvidia alla 6900xt, nel caso in cui il prezzo fosse simile sarebbe una bella sfida; anche se rimarrebbe ancora il grave problema disponibilità
E' facilissimo lanciare qualcosa che non esiste e non esisterà..qua si rasenta il ridicolo. Le 3070, 3080 e 3090 sono praticamente introvabili e loro cosa fanno?
Sfornano una 3080 Ti per mostrare a tutti di averlo più lungo.
E' una prova di forza che, senza disponibilità, fa pure ridere (o piangere).
thunderforce83
04-11-2020, 18:33
eh già...si invecchia velocemente. che ne sanno quelli che adesso giocano in 4k di quando io giocavo con la S3 trio 64 V+ e con la prima scheda 3d S3 Virge DX....abbinata ad un bel pentium 133 mhz e 8 mb di EDO ram. Che tempi ragazzi.
il mio primo pc fu' un 2 8 6 pentium..quello aveva una gpu?:D :sofico:
dai no la mia prima vera scheda video fu' la TNT2 con 16mb di ram...per averne 32 dovevi sborsare un patrimonio!
scusate l OT
qualcuno ha notizia su queste belle 5800xt? disponibilita' bench veritieri ecc ecc ecc?
https://videocardz.com/newz/kopite7kimi-nvidia-geforce-rtx-3080-ti-rumored-to-feature-10496-cuda-cores-and-20gb-gddr6x-memory
La probabile risposta di Nvidia alla 6900xt, nel caso in cui il prezzo fosse simile sarebbe una bella sfida; anche se rimarrebbe ancora il grave problema disponibilità
Nvidia si preoccupa di controbattere alle "presunte" prestazioni di amd (aspettando le reviews)senza nemmeno avere la disponibilità delle attuali in commercio. Annamo bbbene!
Antostorny
04-11-2020, 18:36
il mio primo pc fu' un 2 8 6 pentium..quello aveva una gpu?:D :sofico:
dai no la mia prima vera scheda video fu' la tnt3 con 16mb di ram...per averne 32 dovevi sborsare un patrimoniooo!
scusate l OT
qualcuno ha notizia su queste belle 5800xt? disponibilita' bench veritieri ecc ecc ecc?
* 6800 XT al massimo
Comunque al momento non si sa nulla ed a parte i benchmark fatti dall'oste quelli che vedi in rete sono tutti fake...tocca aspettare il 18 novembre.
leoneazzurro
04-11-2020, 18:48
Ci sono tuttavia anche degli ovvi svantaggi, che però si ridurranno con l'approccio mcm (anzi, forse sarà pure una necessità).
Gli svantaggi sono il die size maggiorato e il fatto che quando superi una certa risoluzione le performance decrescono perchè scende l'hit rate. Quindi avremo schede "mirate" ad una certa risoluzione di utilizzo es. se vuoi giocare a 4K hai le 6800-6800Xt-6900, per le 1440p avrai la serie 6700 e per il 1080p le serie inferiori. Con il vantaggio che scendendo di risoluzione "mirata" le performance salgono parecchio grazie al maggiore hit rate della cache. Questo non vuol dire che con una 6700XT a 4K non ci si giochi (con le opzioni giuste) ma sicuramente non è quello in cui daranno il meglio.
thunderforce83
04-11-2020, 18:49
* 6800 XT al massimo
Comunque al momento non si sa nulla ed a parte i benchmark fatti dall'oste quelli che vedi in rete sono tutti fake...tocca aspettare il 18 novembre.
si appunto 6800xt...qui tra cpu gpu non si capisce piu' nulla...ho in preorder(se non annullano)la strix 3080oc che dice amazon spedira' dal 20 in poi...mi trovero' a fare la fatidica scelta...sempre se spedira' ovviamente amazon e se ci sara' disponibilita' della 6800xt dal 18. ma in primis vorrei vedere un testa a testa fatto per bene senza l'oste di torno:p
Gyammy85
04-11-2020, 20:55
https://i.postimg.cc/024x7hfV/photo-2020-11-04-21-13-26-2.jpg (https://postimages.org/)
https://i.postimg.cc/9ftvgkd5/photo-2020-11-04-21-13-26.jpg (https://postimages.org/)
Nel peggiore degli scenari, siamo a +42% su 2080ti per la 80 cu :fiufiu: :fiufiu:
E' facilissimo lanciare qualcosa che non esiste e non esisterà..qua si rasenta il ridicolo. Le 3070, 3080 e 3090 sono praticamente introvabili e loro cosa fanno?
Sfornano una 3080 Ti per mostrare a tutti di averlo più lungo.
E' una prova di forza che, senza disponibilità, fa pure ridere (o piangere).
Mah, al massimo andrà un pochino meno di 3090 data la banda minore, non vedo dove sia la prova di forza, la 6900xt starà lo stesso sopra
Marzo?????? :eek:
Prevedo botte da orbi... :D
Erano anni che non si vedeva un paper launch del genere! Samsung e Nvidia si sono proprio messe nei casini da sole. Nvidia non si aspettava una AMD così competitiva.
ma ancora pensate che amd abbia difficolta ad avere schede? ripetete con me, stesso processo produttivo, stesse memorie, linea produttiva libera da iphone che usa pp 5nm.
per amd si è fatta trovare ben preparata magari anche solo presentando le schede piu di 1 mese dopo anche solo per avere scorte....
nickname88
04-11-2020, 22:44
https://i.postimg.cc/024x7hfV/photo-2020-11-04-21-13-26-2.jpg (https://postimages.org/)
https://i.postimg.cc/9ftvgkd5/photo-2020-11-04-21-13-26.jpg (https://postimages.org/)
Nel peggiore degli scenari, siamo a +42% su 2080ti per la 80 cu :fiufiu: :fiufiu:
E dopo la storiella di Big Navi nel Q1 2019 a 259€, adesso vediamo con piacere che le tue fonti sono il meme su Twitter, per giunta con nome arabo che cita una fonte cinese ( l'accoppiata emana fiducia ed affidabilità da ogni lato :asd: ).
E se fosse vero per altro non sarebbe di buon auspicio, vuol dire far peggio della 3080 pure nel raster.
Andy1111
04-11-2020, 22:54
E dopo la storiella di Big Navi nel Q1 2019 a 259€, adesso vediamo con piacere che le tue fonti sono il meme su Twitter, per giunta con nome arabo che cita una fonte cinese ( l'accoppiata emana fiducia ed affidabilità da ogni lato :asd: ).
E se fosse vero per altro non sarebbe di buon auspicio, vuol dire far peggio della 3080 pure nel raster.
Guarda che Hassan Mujtaba lavora per wccftech
https://wccftech.com/author/hms/
https://wccftech.com/amd-radeon-rx-6800-xt-3dmark-time-spy-benchmark-on-par-with-rtx-3080/
Mallardo
04-11-2020, 23:13
Nel peggiore degli scenari, siamo a +42% su 2080ti per la 80 cu :fiufiu: :fiufiu:
Come mai parli di peggiore degli scenari? Questo bench dovrebbe in qualche modo favorire nvidia?
nickname88
04-11-2020, 23:21
Guarda che Hassan Mujtaba lavora per wccftech
https://wccftech.com/author/hms/
https://wccftech.com/amd-radeon-rx-6800-xt-3dmark-time-spy-benchmark-on-par-with-rtx-3080/
ancora peggio :asd:
ancora peggio :asd:
A dire il vero forse anche complici le console, stavolta i rumors ci hanno preso parecchio
Non a caso io da esperienze passate ero scettico di tanta bontà, e invece...
mikael84
04-11-2020, 23:45
Nel peggiore degli scenari, siamo a +42% su 2080ti per la 80 cu :fiufiu: :fiufiu:
Mi pare il minimo, la 6900xt ha il 44% in più di transistor rispetto alla Titan RTX con un nodo di vantaggio completo (12, vs 7nmP).
Cmq la 6900xt non può fare 17% in più rispetto alla 6800xt, in quanto ha solo il 10% delle ALU, che non si traduce nel 10% reale.:)
Ale55andr0
05-11-2020, 06:44
E dopo la storiella di Big Navi nel Q1 2019 a 259€, adesso vediamo con piacere che le tue fonti sono il meme su Twitter, per giunta con nome arabo che cita una fonte cinese ( l'accoppiata emana fiducia ed affidabilità da ogni lato :asd: ).
E se fosse vero per altro non sarebbe di buon auspicio, vuol dire far peggio della 3080 pure nel raster.
Il tizio è uno dei redattori di wccfetech...
ancora peggio :asd:
:mc: :O
Ale55andr0
05-11-2020, 06:54
Mi pare il minimo, la 6900xt ha il 44% in più di transistor rispetto alla Titan RTX con un nodo di vantaggio completo (12, vs 7nmP).
Cmq la 6900xt non può fare 17% in più rispetto alla 6800xt, in quanto ha solo il 10% delle ALU, che non si traduce nel 10% reale.:)
non sappiamo i clock della 6800xt vs la 6900, se col chip full ha lo stesso tdp immagino un silicio più selezionato, ergo clock più alti (?). La frase sul 44% sulla 2080ti credo fosse riferita a chi perculava su un vantaggio attorno al 40-50% sulla 2080ti dicendo che a stento la top AMD sarebbe giocata con questa e con consumi da altoforno, figurarsi batterla, "non hanno superato manco la 1080ti del 2017" ecc. ecc. :asd:
Io comunque aspetto ancora le rece perchè ho conservato un paio di post che devo assolutamente ricordare ad un certo utente...:asd:
Gyammy85
05-11-2020, 09:01
E dopo la storiella di Big Navi nel Q1 2019 a 259€, adesso vediamo con piacere che le tue fonti sono il meme su Twitter, per giunta con nome arabo che cita una fonte cinese ( l'accoppiata emana fiducia ed affidabilità da ogni lato :asd: ).
E se fosse vero per altro non sarebbe di buon auspicio, vuol dire far peggio della 3080 pure nel raster.
Si guarda proprio bignavi doveva uscire q1 2019 a 259 euro, sta cosa la scrivi da un anno ovunque, anche basta no? ;)
Dai i leak ce li facciamo mandare dall'ufficio stampa di amd, basta poco che ce vò
Mi pare il minimo, la 6900xt ha il 44% in più di transistor rispetto alla Titan RTX con un nodo di vantaggio completo (12, vs 7nmP).
Cmq la 6900xt non può fare 17% in più rispetto alla 6800xt, in quanto ha solo il 10% delle ALU, che non si traduce nel 10% reale.:)
Perdonami, non venirmi a dire "è il minimo" quando fino a dieci giorni fa la 3070 usciva il 29 perché bignavi andava quanto la 3070, dai ;)
ghiltanas
05-11-2020, 09:28
https://twitter.com/CapFrameX/status/1324035256341700608?s=20
mii... speriamo la serie 6000 non vada a finire allo stesso modo
sarebbe molto male, senza concorrenza col cavolo che troverò una 6700x prezzata bene :cry:
nickname88
05-11-2020, 09:36
non sappiamo i clock della 6800xt vs la 6900, se col chip full ha lo stesso tdp immagino un silicio più selezionato, ergo clock più alti (?). La frase sul 44% sulla 2080ti credo fosse riferita a chi perculava su un vantaggio attorno al 40-50% sulla 2080ti dicendo che a stento la top AMD sarebbe giocata con questa e con consumi da altoforno, figurarsi batterla, "non hanno superato manco la 1080ti del 2017" ecc. ecc. :asd:
Io comunque aspetto ancora le rece perchè ho conservato un paio di post che devo assolutamente ricordare ad un certo utente...:asd:Il clock di entrambi è stato reso noto, lo conosciamo eccome, l'unica cosa che cambia è il numero di CU, 72 vs 80.
Ale55andr0
05-11-2020, 09:44
Il clock di entrambi è stato reso noto, lo conosciamo eccome, l'unica cosa che cambia è il numero di CU, 72 vs 80.
sappiamo il boost clock dichiarato, ma quello effettivo potrebbe non c'entrare nulla come su nvidia e che il fatto che la 80cu abbia chip più selezionati della 72, a prescindere dalla questione cu, ce lo dice il tdp che è uguale
nickname88
05-11-2020, 09:57
Il tizio è uno dei redattori di wccfetech...
:mc: :O
.... che cita una fonte cinese su twitter :rolleyes:
sappiamo il boost clock dichiarato, ma quello effettivo potrebbe non c'entrare nulla come su nvidia e che il fatto che la 80cu abbia chip più selezionati della 72, a prescindere dalla questione cu, ce lo dice il tdp che è uguale
Il TBP è sempre di 300W, dubito possa spingersi molto in là.
Gyammy85
05-11-2020, 10:10
.... che cita una fonte cinese su twitter :rolleyes:
E' uno che ha le schede, che c'è di strano?
nickname88
05-11-2020, 10:13
E' uno che ha le schede, che c'è di strano?Beato te che ci credi.
Quindi basta affermare di avere una scheda e mostrare un grafico per aver credito.
Uno che ha le schede ? E chi sarebbe ? E il driver dove lo ha preso ?
Gyammy85
05-11-2020, 10:17
Beato te che ci credi.
Quindi basta affermare di avere una scheda e mostrare un grafico per aver credito.
Uno che ha le schede ? E chi sarebbe ? E il driver dove lo ha preso ?
Che ti devo dire, è ragionevole pensare che siano quelli che fanno poi le review, ormai le schede in giro ci sono, non sono numeri campati in aria, corrispondono più o meno a quelli trapelati settimane fa
Ale55andr0
05-11-2020, 10:19
.... che cita una fonte cinese su twitter :rolleyes:
ed essendo del mestiere sa se è un tizio a caso o no, anche videocardz cita gente che twitta in certi articoli
Il TBP è sempre di 300W, dubito possa spingersi molto in là.
il potenziale dell'alimentazione è sempre sui 375w, e se le custom stanno sui 2.4ghz vuol dire che il margine c'è, non escono occate a morte (le reference dico)
nickname88
05-11-2020, 10:21
Che ti devo dire, è ragionevole pensare che siano quelli che fanno poi le review, ormai le schede in giro ci sono, non sono numeri campati in aria, corrispondono più o meno a quelli trapelati settimane faPoco importa se i numeri sono vicini, è una fonte ridicola, se volevi numeri basati su quanto presentato potevo darteli anche io.
"someone already has" è esattamente come dire "mio cuGGino la possiede", riferito per giunta su Twitter :asd:
nickname88
05-11-2020, 10:26
il potenziale dell'alimentazione è sempre sui 375w, e se le custom stanno sui 2.4ghz vuol dire che il margine c'è, non escono occate a morte (le reference dico)Questo vale su entrambe, quindi è più presumibile che stiamo parlando dello stesso identico chip con le stesse impostazioni, mancano solo 8 CU. In secondis le performance della 6900XT dichiarate da AMD sono altrettanto note.
La 6800XT andrebbe secondo AMD uguale alla 3080 senza usare alcuna features.
La 6900XT invece andrebbe sempre secondo AMD uguale alla 3090 ma usando il Rage Mode + Smart Access Memory.
Ora che io sappia il gap medio fra 3080 e 3090 è noto ed è scarso, se AMD ha detto il vero almeno per le proprio schede allora il gap dovrebbe essere ancora più corto.
Ale55andr0
05-11-2020, 10:32
Questo vale su entrambe, quindi è più presumibile che stiamo parlando dello stesso identico chip con le stesse impostazioni, mancano solo 8 CU. In secondis le performance della 6900XT dichiarate da AMD sono altrettanto note.
La 6800XT andrebbe secondo AMD uguale alla 3080 senza usare alcuna features.
La 6900XT invece andrebbe sempre secondo AMD uguale alla 3090 ma usando il Rage Mode + Smart Access Memory.
Ora che io sappia il gap medio fra 3080 e 3090 è noto ed è scarso, se AMD ha detto il vero almeno per le proprio schede allora il gap dovrebbe essere ancora più corto.
va comunque detto il rage mode non è un oc, ma stabilizza il clock più alto facendola droppare meno
Gyammy85
05-11-2020, 10:36
Questo vale su entrambe, quindi è più presumibile che stiamo parlando dello stesso identico chip con le stesse impostazioni, mancano solo 8 CU. In secondis le performance della 6900XT dichiarate da AMD sono altrettanto note.
La 6800XT andrebbe secondo AMD uguale alla 3080 senza usare alcuna features.
La 6900XT invece andrebbe sempre secondo AMD uguale alla 3090 ma usando il Rage Mode + Smart Access Memory.
Ora che io sappia il gap medio fra 3080 e 3090 è noto ed è scarso, se AMD ha detto il vero almeno per le proprio schede allora il gap dovrebbe essere ancora più corto.
Lo smart access solo in un paio di titoli si vede, tipo forza 4, ma negli altri si parla di 5-6%, praticamente è il risultato delle custom senza smart access
nickname88
05-11-2020, 10:50
Lo smart access solo in un paio di titoli si vede, tipo forza 4, ma negli altri si parla di 5-6%, praticamente è il risultato delle custom senza smart access
va comunque detto il rage mode non è un oc, ma stabilizza il clock più alto facendola droppare meno
Se il gap mostrato da AMD fra 6800XT e 6900XT è lo stesso di quello che c'è fra 3080 e 3090 vuol dire che stiam parlando del 15% al massimo .... se togli Rage mode + smart access memory dalla sola 6900XT ( perchè la 6800XT non ce li aveva abilitati ) vuol dire che il gap fra le AMD è ancora minore, presumibilmente attorno al 10% o meno.
A meno che AMD non abbia mentito durante la sua presentazione e per giunta sulle sue schede.
Gyammy85
05-11-2020, 10:53
Se il gap mostrato da AMD fra 6800XT e 6900XT è lo stesso di quello che c'è fra 3080 e 3090 vuol dire che stiam parlando del 15% al massimo .... se togli Rage mode + smart access memory dalla sola 6900XT ( perchè la 6800XT non ce li aveva abilitati ) vuol dire che il gap fra le AMD è ancora minore, presumibilmente attorno al 10% o meno.
Beh la 6900xt ha solo il 10% in più di cu, tutto il resto uguale, scala magnificamente, merito della cache immagino
nickname88
05-11-2020, 11:00
Beh la 6900xt ha solo il 10% in più di cu, tutto il resto uguale, scala magnificamente, merito della cache immagino
E' quello che dico
Non si sa ancora nulla sul versante Rt e tecnologia simil Dlss??
A parte qualcosa trapelato che se fosse vero la porrebbe un pò sotto nvidia su quel versante, di ufficiale AMD per ora ha solo detto che il ray tracing si baserà sullo standard DXR, quindi tutti i giochi sviluppati con queste API, saranno supportati da subito. Per il resto aspettiamo qualche benchmark attendibile.
Per quanto riguarda l'antagonista del DLSS, da quanto ho capito dovrebbe chiamarsi Super Resolution, ma a parte il nome non si sa nulla ancora, è in sviluppo.
mikael84
05-11-2020, 11:37
non sappiamo i clock della 6800xt vs la 6900, se col chip full ha lo stesso tdp immagino un silicio più selezionato, ergo clock più alti (?).
Diciamo molto più alti.
La frase sul 44% sulla 2080ti credo fosse riferita a chi perculava su un vantaggio attorno al 40-50% sulla 2080ti dicendo che a stento la top AMD sarebbe giocata con questa e con consumi da altoforno, figurarsi batterla,
Quando facevo il calcolo sui transistor, io stesso la ponevo circa ad un livello di 3080 (che nelle review non sarà molto diverso), perchè consideravo la densità di navi console e ad ancora non si conoscevano i valori di cache e densità finale ed i rapporti di bus.
Ora con circa 27mt ma clock più elevati, contro 28mt e clock più bassi, è perfettamente lecito aspettarsi un'andamento identico.:)
Per andare come un 3070 dovresti utilizzare un picco transistor più o meno simile.
"non hanno superato manco la 1080ti del 2017" ecc. ecc. :asd:
Io comunque aspetto ancora le rece perchè ho conservato un paio di post che devo assolutamente ricordare ad un certo utente...:asd:
Infatti una ha 12mt transistor (ma cuttata, la full è la Titan xp) l'altra 10,3.
E' un pò come quello che paragona la 2070 liscia alla 1080ti, dicendo che non l'ha ancora superata, quando è la stessa cosa, la 2070 ha 10,8mt transistor + RT e tensor, l'altra è un cut da 12 raster.
Alla fine, basta solo leggere questi dati, anche senza entrare dentro l'architettura per farsi un'idea.:)
Perdonami, non venirmi a dire "è il minimo" quando fino a dieci giorni fa la 3070 usciva il 29 perché bignavi andava quanto la 3070, dai ;)
Tecnicamente è impossibile per uno che guarda la tecnica, al massimo qualche troll.:p
I transistor della 3070 si sanno da tempo, e sono 17mt, decisamente insufficienti, considerando anche i clock.
La 3070 con un clock medio di 1950 in media raggiunge 14,4TF con doppia BWl1 (valore di 1950 non sempre raggiunto), l'altra supera i 22 se gli diamo almeno 2200 puliti.
E questo dato non è il solo, la gpu è fatta di varie parti.;)
Poco importa se i numeri sono vicini, è una fonte ridicola, se volevi numeri basati su quanto presentato potevo darteli anche io.
"someone already has" è esattamente come dire "mio cuGGino la possiede", riferito per giunta su Twitter :asd:Che problemi hai con Twitter? Tutti i leak di ampere li abbiamo presi da lì ed erano quasi tutti veri.
La cache per la serie 6000? Proviene sempre da Twitter.
Il 99.9% degli articoli di videocardz ha origine da leaker che postano su Twitter.
In questo caso la fonte proviene dalla Cina? Che è, ti stanno sul caxxo? :asd:
Tengo a precisare che sono tutti rumors e, come tali, vanno prese con le pinze.
Still, non vedo il motivo per cui non riportarle nel thread.
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
nickname88
05-11-2020, 13:37
Che problemi hai con Twitter? Tutti i leak di ampere li abbiamo presi da lì ed erano quasi tutti veri.
La cache per la serie 6000? Proviene sempre da Twitter.
Il 99.9% degli articoli di videocardz ha origine da leaker che postano su Twitter.
In questo caso la fonte proviene dalla Cina? Che è, ti stanno sul caxxo? :asd:
Tengo a precisare che sono tutti rumors e, come tali, vanno prese con le pinze.
Still, non vedo il motivo per cui non riportarle nel thread.
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Di rumors ne sono usciti parecchio, il fatto che a furia di spararle ci si azzecca ogni tanto non vuol dire che debbano essere presi in considerazione ?
Salvio96
05-11-2020, 14:26
Salve qualcuno sa per caso notizie su possibili RX 6500,6600 o simili
Prima del 2021 non sapremo nulla penso
Salvio96
05-11-2020, 14:28
Grazie
Here we gohttps://uploads.tapatalk-cdn.com/20201105/03918f760a4db962e8c49ce71dfa27fd.jpg
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Gyammy85
05-11-2020, 15:23
Che problemi hai con Twitter? Tutti i leak di ampere li abbiamo presi da lì ed erano quasi tutti veri.
La cache per la serie 6000? Proviene sempre da Twitter.
Il 99.9% degli articoli di videocardz ha origine da leaker che postano su Twitter.
In questo caso la fonte proviene dalla Cina? Che è, ti stanno sul caxxo? :asd:
Tengo a precisare che sono tutti rumors e, come tali, vanno prese con le pinze.
Still, non vedo il motivo per cui non riportarle nel thread.
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
In realtà, il primo a parlare di cache fu Paul di red gaming tech, che poi rivelò di essere stato informato da uno dei capoccia di amd
A vederla non sembra male quella nitro...
nickname88
05-11-2020, 15:53
Here we gohttps://uploads.tapatalk-cdn.com/20201105/03918f760a4db962e8c49ce71dfa27fd.jpg
Inviato dal mio Pixel 2 XL utilizzando TapatalkCurioso di vedere se riusciranno sia Sapphire o PowerColor a proporre una gamma di custom migliore di quelle Asus ROG/TUF.
Free Gordon
05-11-2020, 19:30
Here we gohttps://uploads.tapatalk-cdn.com/20201105/03918f760a4db962e8c49ce71dfa27fd.jpg
LABBBESTIAAA :sofico: :sofico: :sofico:
Andy1111
05-11-2020, 19:53
https://www.igorslab.de/en/amd-radeon-rx-6800xt-bios-ray-new-details-to-wear-mode-turbo-mode-and-silent-mode-exclusive/
e questo
Patrick Schur
@patrickschur_
·
4 nov
RX 6800 (Reference)
TGP: 203 W
Base Clock: 1700 MHz
Game Clock: 1815 MHz
Boost Clock: 2105 MHz
RX 6800 (AIB)
TGP: 230 W
Base Clock: 1850 MHz
Game Clock: 1980 MHz
Boost Clock: 2190 MHz
https://twitter.com/patrickschur_/status/1323784436970827783
ninja750
06-11-2020, 10:59
non ci credo nemmeno se la vedo la nitro con quel clock in 230w :asd:
non ci credo nemmeno se la vedo la nitro con quel clock in 230w :asd:
TGP < TBP
marbasso
06-11-2020, 13:20
non ci credo nemmeno se la vedo la nitro con quel clock in 230w :asd:
Ma quello è solo il tgp...
Andy1111
06-11-2020, 13:41
Ma quello è solo il tgp...
https://www.geeks3d.com/public/jegx/2019q2/20190612-graphics-card-tdp-and-tgp.jpg
https://www.geeks3d.com/20190613/graphics-cards-power-tdp-tgp/
Il consumo di energia è un termine un po 'vago perché NVIDIA utilizza acronimi come TDP (ampiamente utilizzato nel mondo delle schede grafiche) e TGP per parlare della potenza richiesta dalla scheda grafica.
TDP : Thermal Design Power (o Thermal Design Point o Thermal Design Parameter)
TGP : potenza grafica totale
TBP : potenza totale della scheda (o potenza tipica della scheda, utilizzata da AMD)
GCP : potenza della scheda grafica
MPC : Consumo energetico massimo
Il TDP è la quantità massima di calore generata dalla scheda grafica che un sistema di raffreddamento deve dissipare (la potenza viene dissipata sotto forma di calore) in condizioni normali (?) . Ad esempio, un TDP di 100 W significa che il dispositivo di raffreddamento VGA deve essere progettato per dissipare il calore equivalente a 100 W. Il TDP non riflette il consumo energetico totale di una scheda grafica.
Allo stesso tempo, l' acronimo TDP è ampiamente utilizzato per definire la potenza (totale) della scheda grafica ... Ma ora, sembra che abbia un nuovo significato: secondo la diapositiva, TDP è solo la potenza della GPU (questo potrebbe spiegare perché NVIDIA chiama it Thermal Design Parameter e non Thermal Design Power). "Thermal Design Parameter" e "Thermal Design Power" sono la stessa cosa?
Il consumo energetico dell'intera scheda grafica è definito dal TGP o Total Graphics Power (o TBP per Total Board Power o Tipico Board Power nelle specifiche GPU di AMD ...). Ciò è interessante perché abbiamo una nuova informazione: la differenza tra TGP e TDP che rappresenta il consumo energetico del sottosistema di memoria grafica + il consumo energetico del circuito di alimentazione (VRM) stesso. Sembra che le schede Radeon abbiano una minore perdita di potenza rispetto a quelle GeForce (30 W per la RX 5700 contro 45 W per la RTX 2060) ...
Ale55andr0
06-11-2020, 13:42
https://www.geeks3d.com/public/jegx/2019q2/20190612-graphics-card-tdp-and-tgp.jpg
si' ma c'è un asterisco che dovrebbe riportare a una nota non inquadrata....
ninja750
06-11-2020, 14:50
si' ma c'è un asterisco che dovrebbe riportare a una nota non inquadrata....
* AMD fail :O
https://cdn.videocardz.com/1/2020/11/Sapphire-Radeon-RX-6800-XT-PULSE.jpg
Dopo la nitro+ Sapphire pubblica un tweet della RX 6800xt pulse
https://twitter.com/SapphireTech/status/1324714425820078081
StylezZz`
06-11-2020, 15:36
Finora la più figa per me è la reference :O
marbasso
06-11-2020, 16:15
Finora la più figa per me è la reference :O
Concordo assolutamente.
ninja750
06-11-2020, 16:16
Finora la più figa per me è la reference :O
non ha gli erregibbì
quindi nitro solo 6800xt o anche 6800?
Ale55andr0
06-11-2020, 16:29
Dopo la nitro+ Sapphire pubblica un tweet della RX 6800xt pulse
https://twitter.com/SapphireTech/status/1324714425820078081
e mi sa che solo quelli vedremo stante l'andazzo :asd:
StylezZz`
06-11-2020, 16:34
non ha gli erregibbì
Non ho ancora capito se la scritta ''Radeon'' ha i led rossi, spero di si.
Oirasor_84
07-11-2020, 09:55
Finora la più figa per me è la reference :OIo invece la trovo un po' tamarra la reference,non mi piace la parte argentata.
Inviato dal mio Pixel 4a utilizzando Tapatalk
non ricordo se è gia stato detto, ma le reference dove si potranno acquistare ???
Black version della RX 6800 XT?
https://videocardz.com/newz/a-black-radeon-rx-6800-xt-graphics-card-has-been-spotted
https://twitter.com/kopite7kimi/status/1325365489309081600?s=19
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Gyammy85
08-11-2020, 10:28
https://twitter.com/kopite7kimi/status/1325365489309081600?s=19
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Oh no, andrà mica più della rtx 3080 in rt? normale, hanno pure un nodo di vantaggio!! :oink: :oink: :eek: :O :cry: :cry:
Ma quando escono le recensioni?
Se va come per le CPU, il 18.
nickname88
08-11-2020, 11:28
Black version della RX 6800 XT?
https://videocardz.com/newz/a-black-radeon-rx-6800-xt-graphics-card-has-been-spottedPraticamente una reference con cover completamente in plastica grigio scuro e rimuovendogli tutti gli inserti. :asd:
Ale55andr0
08-11-2020, 12:00
Praticamente una reference con cover completamente in plastica grigio scuro e rimuovendogli tutti gli inserti. :asd:
per me che non amo le pacchianate è ottima, quanto la sconteranno senza la striCCia (cit. Marc Genè) rossa? :O
...cmq, -10:O
fremooooooo...
ancora devo capire però il 18 dove saranno in vendita, visto che le custom arriveranno solo dopo. ameno che le "founders" sapphire, gigabyte ecc non saranno in vendita nei classici canali , amazon, eprice, drako, ecc ecc....
ninja750
08-11-2020, 13:22
per me che non amo le pacchianate è ottima, quanto la sconteranno senza la striCCia (cit. Marc Genè) rossa? :O
...cmq, -10:O
ma ti stanno le triventola in quel case? io avevo il CM690II e avevo misurato circa 29,3 forse 29,5.. sono passato all'H500
Io spero di riuscire a prenderla davvero, ho impegnato la nitro rx5700xt per il 20...... :(
Andy1111
08-11-2020, 14:33
fremooooooo...
ancora devo capire però il 18 dove saranno in vendita, visto che le custom arriveranno solo dopo. ameno che le "founders" sapphire, gigabyte ecc non saranno in vendita nei classici canali , amazon, eprice, drako, ecc ecc....
Si le troverai li e anche sul sito amd
MA io però non capisco perché AMD non inserisce i prezzi definitivi, in modo che ci si può regolare meglio e gli utenti si possano cominciare a dividere per fasce di spesa. Altrimenti ci credo che ci sarà panico....
ninja750
08-11-2020, 14:53
addirittura il panico :asd: per come visto su invidia prendi il prezzo di lancio e somma un + 3/4% quindi in euro 599€/675€/1050€ al netto delle rapine, degli scalpers, degli iNvidiosi rattristati, degli affaristi, di quelli che si mettono in preorder su 10 siti per poi prenderne una, dei miner, degli youtubers, delle inondazioni e delle cavallette :O
addirittura il panico :asd: per come visto su invidia prendi il prezzo di lancio e somma un + 3/4% quindi in euro 599€/675€/1050€ al netto delle rapine, degli scalpers, degli iNvidiosi rattristati, degli affaristi, di quelli che si mettono in preorder su 10 siti per poi prenderne una, dei miner, degli youtubers, delle inondazioni e delle cavallette :O
Intendo panico nel senso che la gente si ammassa. Avrei voluto aspettare un po', ma avendo pre-venduto la nitro 5700xt, al 20 sarò senza scheda. Comunque vedremo...
Ale55andr0
08-11-2020, 16:36
ma ti stanno le triventola in quel case? io avevo il CM690II e avevo misurato circa 29,3 forse 29,5.. sono passato all'H500
Hai voja, supporta vga sino a 42cm e fischi
https://videocardz.com/newz/amd-radeon-rx-6800xt-and-geforce-rtx-3070-compared-side-by-side
Nera è ancora più bella.
Comunque sembra molto compatta.
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
https://videocardz.com/newz/amd-radeon-rx-6800xt-and-geforce-rtx-3070-compared-side-by-side
Nera è ancora più bella.
Comunque sembra molto compatta.
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
qui è amoreeee... che spettacolo di scheda, non vedo l ora del 18
Notare i due 8 pin segno che hanno riciclato il pcb delle sorelle maggiori, c’è qualche speranza che un fullcover per una 6800 vada bene per una 6900 :D
Io spero solo che il 18 riesco a prenderne una :sofico:
:nonsifa: :nonsifa: :nonsifa:
Io solo ioooooo
Gyammy85
08-11-2020, 21:45
Notare i due 8 pin segno che hanno riciclato il pcb delle sorelle maggiori, c’è qualche speranza che un fullcover per una 6800 vada bene per una 6900 :D
Tutte le navi 21 hanno 2x8 pin
ghiltanas
09-11-2020, 13:27
la sapphire pulse, non so se già pubblicata, con le immagini complete:
https://www.techpowerup.com/274412/sapphire-radeon-rx-6800-xt-pulse-pictured
ninja750
09-11-2020, 13:38
nitro e special edition:
https://i.postimg.cc/CRJDq0H7/nitro.jpg (https://postimg.cc/CRJDq0H7)
https://i.postimg.cc/kV4SNHTm/se.jpg (https://postimg.cc/kV4SNHTm)
850w richiesto da sapphire.... cvd
edit: confermata anche la 6800 liscia nitro (750w..)
nitro e special edition:
https://i.postimg.cc/CRJDq0H7/nitro.jpg (https://postimg.cc/CRJDq0H7)
https://i.postimg.cc/kV4SNHTm/se.jpg (https://postimg.cc/kV4SNHTm)
850w richiesto da sapphire.... cvd
edit: confermata anche la 6800 liscia nitro (750w..)Spero che il mio 750 basti sinceramente.
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Gyammy85
09-11-2020, 13:46
nitro e special edition:
https://i.postimg.cc/CRJDq0H7/nitro.jpg (https://postimg.cc/CRJDq0H7)
https://i.postimg.cc/kV4SNHTm/se.jpg (https://postimg.cc/kV4SNHTm)
850w richiesto da sapphire.... cvd
edit: confermata anche la 6800 liscia nitro (750w..)
Quindi praticamente +200 mhz, quindi come 3090 :sofico:
ninja750
09-11-2020, 13:55
quelli di sapphire mi devono spiegare perchè per la 5700XT nitro+ segnano sul loro sito 265w power consumption (tbp reference 225w) e 600w richiesti, mentre per la 6800 (liscia) non lo scrivono ma sappiamo che sono reference 250w (+25) e mettono un consigliato di 750w (+150!)
sempre dal loro sito infatti la reference consiglia 650w
quelli di sapphire mi devono spiegare perchè per la 5700XT nitro+ segnano sul loro sito 265w power consumption (tbp reference 225w) e 600w richiesti, mentre per la 6800 (liscia) non lo scrivono ma sappiamo che sono reference 250w (+25) e mettono un consigliato di 750w (+150!)Perché sono over esagerati, almeno spero.
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Spitfire84
09-11-2020, 13:59
nitro e special edition:
https://i.postimg.cc/CRJDq0H7/nitro.jpg (https://postimg.cc/CRJDq0H7)
https://i.postimg.cc/kV4SNHTm/se.jpg (https://postimg.cc/kV4SNHTm)
850w richiesto da sapphire.... cvd
edit: confermata anche la 6800 liscia nitro (750w..)
Ci stavo facendo un pensierino, ma di sicuro non cambio un 650 W con un 750 W! :muro:
quelli di sapphire mi devono spiegare perchè per la 5700XT nitro+ segnano sul loro sito 265w power consumption (tbp reference 225w) e 600w richiesti, mentre per la 6800 (liscia) non lo scrivono ma sappiamo che sono reference 250w (+25) e mettono un consigliato di 750w (+150!)
sempre dal loro sito infatti la reference consiglia 650w
Appunto! :mano:
marbasso
09-11-2020, 14:25
AMD Radeon RX 6800 1.5x faster than GeForce RTX 3090 in mining
https://videocardz.com/newz/amd-radeon-rx-6800-allegedly-1-5x-faster-than-geforce-rtx-3090-in-cryptocurrency-mining
Ok, prepariamoci a non trovarne o a prezzi alti...
Solite menate.
ninja750
09-11-2020, 14:30
chi voleva farsi una farm per mining a quest'ora l'ha già fatta
Antostorny
09-11-2020, 14:36
nitro e special edition:
https://i.postimg.cc/CRJDq0H7/nitro.jpg (https://postimg.cc/CRJDq0H7)
https://i.postimg.cc/kV4SNHTm/se.jpg (https://postimg.cc/kV4SNHTm)
850w richiesto da sapphire.... cvd
edit: confermata anche la 6800 liscia nitro (750w..)
850w per la 6900 XT o 6800 XT?
850w per la 6900 XT o 6800 XT?6800xt.
Per quella chiederanno un 1000W a questo punto 😂
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
ninja750
09-11-2020, 14:38
850w per la 6900 XT o 6800 XT?
6800XT nitro+
la 6900XT sul sito non c'è ancora perchè se ricordate, almeno all'inizio, avrebbe dovuto venderle solo direttamente AMD che poi ci ha ripensato
a sto punto si aspettano le recensioni e si andrà presumibilmente di reference o pulse che sto giro essendo triventola non dovrebbe essere malaccio
alex oceano
09-11-2020, 14:38
non vedo l'ora che esca la asus tuf 6800xt
Ale55andr0
09-11-2020, 14:42
non vedo l'ora che esca la asus tuf 6800xt
ci credo, potrai affiancarla alla tua firma :asd:
marbasso
09-11-2020, 14:42
6800xt.
Per quella chiederanno un 1000W a questo punto
Eeeeeeeeeeeee...
E che è, appena fai oc con + 1mv s' incendia...
Tipo alla msi quando han cercato di testare in oc una 3090 gaming x trio...
Fire Reported at MSI Chinese Baoan factory
https://www.igorslab.de/en/big-brand-in-the-msi-factory-in-kunshan-china-the-products-will-be-scarce/
quelli di sapphire mi devono spiegare perchè per la 5700XT nitro+ segnano sul loro sito 265w power consumption (tbp reference 225w) e 600w richiesti, mentre per la 6800 (liscia) non lo scrivono ma sappiamo che sono reference 250w (+25) e mettono un consigliato di 750w (+150!)
sempre dal loro sito infatti la reference consiglia 650w
Scusate non ho capito, ma queste sapphire le troveremo il 18?
Eeeeeeeeeeeee...
E che è, appena fai oc con + 1mv s' incendia...
Tipo alla msi quando han cercato di testare in oc una 3090 gaming x trio...
Fire Reported at MSI Chinese Baoan factory
https://www.igorslab.de/en/big-brand-in-the-msi-factory-in-kunshan-china-the-products-will-be-scarce/Vabbè, ma sono requisiti sparati un po' a caso, per andare a coprire anche gli alimentatori più scarsi, imho.
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
ninja750
09-11-2020, 14:52
ci credo, potrai affiancarla alla tua firma :asd:
:sbonk:
Vabbè, ma sono requisiti sparati un po' a caso, per andare a coprire anche gli alimentatori più scarsi, imho.
si ok 750w quando consuma teoricamente +25w sulla 5700..
Antostorny
09-11-2020, 14:53
Ma scherziamo?
Dopo aver passato 2 mesi senza poter acquistare una 3080 mi sta passando la voglia di acquistare la 6800 XT..
850W per una 6800XT sono veramente troppi. Sinceramente non ho nè intenzione di cambiare alimentatore nè di avere l'ansia che mi si spegna il pc durante l'uso (o peggio, potrebbe "saltare" l'ali?).
Ho un alimentatore da 750W Gold di fascia alta acquistato due anni fa....mai avrei pensato di poter avere problemi o starci a filo con una sola scheda video :muro:
Vabbè, ma sono requisiti sparati un po' a caso, per andare a coprire anche gli alimentatori più scarsi, imho.
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Io parto con un 700W 80 white cooler master. Prenderei comunque la 6800xt e se ci sono problemi cambio alimentatore. Il fatto è che la nitro sicuramente costerà almeno un 150 Euro in più rispetto alla reference. In realtà se la reference raffredda bene io andrei con quella. Avendo avuto esperienza della nitro 5700xt . mi piacerebbe averla, ma se costa troppo non mi ispira. Comunque chiedevo se tutte queste sapphire saranno disponibili il 18.... sapete qualcosa?
Ma scherziamo?
Dopo aver passato 2 mesi senza poter acquistare una 3080 mi sta passando la voglia di acquistare la 6800 XT..
850W per una 6800XT sono veramente troppi. Sinceramente non ho nè intenzione di cambiare alimentatore nè di avere l'ansia che mi si spegna il pc durante l'uso (o peggio, potrebbe "saltare" l'ali?).
Ho un alimentatore da 750W Gold di fascia alta acquistato due anni fa....mai avrei pensato di poter avere problemi o starci a filo con una sola scheda video :muro:Guarda che ad esempio pure una rtx 3080 tuf oc sul sito segna 850W di psu, ma poi all'atto pratico 750W sono più che sufficienti.
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
alex oceano
09-11-2020, 15:04
ci credo, potrai affiancarla alla tua firma :asd:
noo ti pregoooo :cry: :cry: :cry: :p :stordita:
venduta a settembre rtx 2080 super e rtx 2080 Ti:doh:
Quincy_it
09-11-2020, 15:13
nitro e special edition:
https://i.postimg.cc/CRJDq0H7/nitro.jpg (https://postimg.cc/CRJDq0H7)
https://i.postimg.cc/kV4SNHTm/se.jpg (https://postimg.cc/kV4SNHTm)
850w richiesto da sapphire.... cvd
edit: confermata anche la 6800 liscia nitro (750w..)
Non mi torna qualcosa. :confused:
AMD dichiara un consumo di 300W per la versione "liscia", come si arriva a richiedere 850w di alimentatore per una custom?
Predator_1982
09-11-2020, 15:17
Non mi torna qualcosa. :confused:
AMD dichiara un consumo di 300W per la versione "liscia", come si arriva a richiedere 850w di alimentatore per una custom?
Ragazzi, è una questione di mantenersi larghi con i requisiti. Io ho la 3080 FE e mi funziona senza problemi con un 750W, anche quando tocca i 310/315W di consumo.
Considerando che il TDP della 6800XT è inferiore di un 20W circa, direi che potete stare tranquilli...
DJurassic
09-11-2020, 15:25
ci credo, potrai affiancarla alla tua firma :asd:
https://media4.giphy.com/media/hT0nYNfXjqaVKo4Hmx/giphy.gif
Ragazzi, è una questione di mantenersi larghi con i requisiti. Io ho la 3080 FE e mi funziona senza problemi con un 750W, anche quando tocca i 310/315W di picco.
Considerando che il TDP della 6800XT è inferiore di un 20W circa, direi che potete stare tranquilli...
Il picco della FE non è 310/315W bensì 370W.
Predator_1982
09-11-2020, 15:25
Comunque chiedevo se tutte queste sapphire saranno disponibili il 18.... sapete qualcosa?
Di esserci ci saranno....ma verranno ovviamente prese d'assalto come successo anche per le CPU..quindi armati di pazienza (o di qualche bot ben fatto :D )
Predator_1982
09-11-2020, 15:29
Il picco della FE non è 310/315W bensì 370W.
mai vista in game raggiungere tale picco...ho sempre il monitoraggio aperto se lancio un gioco. Tu si?
Ale55andr0
09-11-2020, 15:30
https://media4.giphy.com/media/hT0nYNfXjqaVKo4Hmx/giphy.gif
I know :O
Di esserci ci saranno....ma verranno ovviamente prese d'assalto come successo anche per le CPU..quindi armati di pazienza (o di qualche bot ben fatto :D )
Ok, ma quindi al 18 saranno anche sui vari Amazon, Eprice ecc... oltre che su AMD site?
:sbonk:
si ok 750w quando consuma teoricamente +25w sulla 5700..
Le specifiche ovviamente sono per quelli con l' alimentatore cinese da 850W che in realtà forse è un 600W
Predator_1982
09-11-2020, 15:39
Ok, ma quindi al 18 saranno anche sui vari Amazon, Eprice ecc... oltre che su AMD site?
difficile risponderti...se prendiamo come riferimento il lancio dei Ryzen 5000 direi di no.
Ad oggi i nostri grossi store ancora non hanno nulla. Non penso andrà diversamente per le schede grafiche.
difficile risponderti...se prendiamo come riferimento il lancio dei Ryzen 5000 direi di no.
Ad oggi i nostri grossi store ancora non hanno nulla. Non penso andrà diversamente per le schede grafiche.
Allora sono fregato, il 20 la mia nitro 5700xt uscirà dal case per essere spedita da accordi presi... vedremo, speriamo bene... in caso provo a posticipare
Crysis90
09-11-2020, 16:17
ci credo, potrai affiancarla alla tua firma :asd:
:asd: :asd:
ninja750
09-11-2020, 16:30
comunque con due cavi da 8 pin farebbe 150+150+75 del pci-x cioè 375.. a meno che non avete altri millemila watt assorbiti in giro per il case o una cpu con consumo esagerato vuol dire che un qualunque 650w ce la fa comodamente, almeno la liscia
no?
DJurassic
09-11-2020, 16:32
mai vista in game raggiungere tale picco...ho sempre il monitoraggio aperto se lancio un gioco. Tu si?
Di certo non in downvolting, ma se lancio un benchmark e voglio pompare un pò le performance vedere i 350w non è cosa rara. Ma anche in gioco con 2100mhz di core clock.
Andy1111
09-11-2020, 16:44
Ragazzi, è una questione di mantenersi larghi con i requisiti. Io ho la 3080 FE e mi funziona senza problemi con un 750W, anche quando tocca i 310/315W di consumo.
Considerando che il TDP della 6800XT è inferiore di un 20W circa, direi che potete stare tranquilli...
https://youtu.be/QNj0cRX2SYI?t=45
350W ci arriva a stock e in oc anche a 400W
https://pbs.twimg.com/media/EmY4i9QUYAAz0Wr?format=jpg&name=large
Therinai
09-11-2020, 17:38
https://youtu.be/QNj0cRX2SYI?t=45
350W ci arriva a stock e in oc anche a 400W
Sono numeri stimati dal software non consumi reali, l'assorbimento reale si vede con un wattmetro, qualcuno proprio su questo thread aveva ricordato che l'assorbimento dipende dall'efficienza dell'alimentatore, un ali di qualità 80 plus GOLD o superiore ovviamente assorbe di meno di un alimentatore della mutua (da quello che ho letot gli alimentatori non certificati scendono anche al 50% di efficienza, e con un TDP di 320W un 30% sono circa 100W ... )
StylezZz`
09-11-2020, 17:40
https://pbs.twimg.com/media/EmY4i9QUYAAz0Wr?format=jpg&name=large
No vabbè, orgasmo.
Predator_1982
09-11-2020, 17:42
https://youtu.be/QNj0cRX2SYI?t=45
350W ci arriva a stock e in oc anche a 400W
che dirti, sono valori con i quali non mi ritrovo. I 320 W li vedo solo nei bench sotto stress. In OC non so dirti, ma direi che fa capitolo a parte.
https://i.imgur.com/b7iyacZ.jpg
https://i.imgur.com/UYJ3xI1.jpg
Ale55andr0
09-11-2020, 17:48
https://pbs.twimg.com/media/EmY4i9QUYAAz0Wr?format=jpg&name=large
assolutamente inguardabile, quella cornice rossa è un vero dito in culo. A ogni modo dell'estetica non mi frega
mircocatta
09-11-2020, 17:50
Ma scherziamo?
Dopo aver passato 2 mesi senza poter acquistare una 3080 mi sta passando la voglia di acquistare la 6800 XT..
850W per una 6800XT sono veramente troppi. Sinceramente non ho nè intenzione di cambiare alimentatore nè di avere l'ansia che mi si spegna il pc durante l'uso (o peggio, potrebbe "saltare" l'ali?).
Ho un alimentatore da 750W Gold di fascia alta acquistato due anni fa....mai avrei pensato di poter avere problemi o starci a filo con una sola scheda video :muro:
ma è possibile che ad ogni uscita di schede video si devono leggere messaggi del genere? :D
per farla breve, basterà anche un 550watt di qualità (che sconsiglio, perchè starebbe continuamente ad una % di carico elevata)
con un 3770k occato alla morte +1080ti occata pure quella (290w solo lei, quindi in linea con la 6800xt ), 17 ventole (ripeto, 17) pompa liquido ecc non ho mai passato i 500watt di consumo
per quale motivo dovete mettervi paranoie basandovi su requisiti dichiarati "a cazzum"?? (a cazzum tanto quanto quelli consigliati per i videogiochi)
Predator_1982
09-11-2020, 17:53
assolutamente inguardabile, quella cornice rossa è un vero dito in culo. A ogni modo dell'estetica non mi frega
in effetti la cornice è davvero brutta. Vista dal lato delle ventole è decisamente meglio.
StylezZz`
09-11-2020, 18:08
Io ho un Enermax 600W Platino dal 2013, ci ho fatto girare la qualsiasi, pure un crossfire di RX 590 per prova :asd:
con un 3770k occato alla morte +1080ti occata pure quella (290w solo lei, quindi in linea con la 6800xt ), 17 ventole (ripeto, 17) pompa liquido ecc non ho mai passato i 500watt di consumo
Anche io ho un 3770k occato a 4.7Ghz e una 2070 Super, però solo 4 ventole e la pompa aio da 120mm, difficilmente supero i 350W a pieno carico :rolleyes:
HadesSaint
09-11-2020, 19:54
la 6800XT SE uao tanta ma tanta tanta robba!!!!
LentapoLenta
09-11-2020, 20:55
Vedendo le dire dei cari modelli in giro, mi tocca constatare che purtroppo anche questa generazione di VGA ha i connettori sulla parte alta... si studia il design, l’estetica, si mettono le lucine e poi si lasciano quei cavoli di connettori con relativi cavi che fanno il giro per mezzo case...
Possibile che non ci si verso di fare i connettori dall’altra parte o lateralmente? :confused:
https://twitter.com/Bullsh1t_buster/status/1325829616573935616?s=19
Andate in pace
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Con un 650w posso sperare di riuscire a prendere almeno la 6800 liscia?
StylezZz`
09-11-2020, 21:54
Con un 650w posso sperare di riuscire a prendere almeno la 6800 liscia?
Che modello è?
Con un 650w posso sperare di riuscire a prendere almeno la 6800 liscia?Secondo me con un buon 650W puoi metterci pure una 6800xt
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Vabbè, ma sono requisiti sparati un po' a caso, per andare a coprire anche gli alimentatori più scarsi, imho.
Inviato dal mio Pixel 2 XL utilizzando TapatalkDirei di sì, con un Corsair modulare da 750w plus gold ho retto una R9 290 liquidata a 1.150mhz, dando un'occhiata in giro credo di aver raggiunto almeno i 350w di consumo solo per la GPU, più un 3570k a 4.2, 2ssd 2hdd, etc.
Quindi si, un buon 750w basta e avanza
dreadreaper
09-11-2020, 22:12
Non vedo l'ora di passare ad AMD dopo questa parentesi con nVidia ( 1080ti ). Avevo valutato una VII in passato, ma non ne valsa la pena. Una bella 6800xt Nitro sarà la scelta!
Inviato dal mio Redmi Note 8 Pro utilizzando Tapatalk
Therinai
09-11-2020, 22:24
Con un 650w posso sperare di riuscire a prendere almeno la 6800 liscia?
Sono passato da un 450w a un 650w proprio per poter upgradare a scheda video da 300W. Ovviamente deve essere un 650 certificato 80gold o superiore.
Oirasor_84
09-11-2020, 23:32
Direi di sì, con un Corsair modulare da 750w plus gold ho retto una R9 290 liquidata a 1.150mhz, dando un'occhiata in giro credo di aver raggiunto almeno i 350w di consumo solo per la GPU, più un 3570k a 4.2, 2ssd 2hdd, etc.
Quindi si, un buon 750w basta e avanzaIo ho tenuto la r9 290 sbloccata a 290x liquidata,3570k a 4,5 ghz con un enermax modu 82+ (bronze)da 625w che si grattava le pall3,tutto il pc da wattmetro stava sotto il 500w ,460/470w se non ricordo male.
Inviato dal mio Pixel 4a utilizzando Tapatalk
Edit:
Sbloccata - Overclockata
DJurassic
10-11-2020, 01:14
che dirti, sono valori con i quali non mi ritrovo. I 320 W li vedo solo nei bench sotto stress. In OC non so dirti, ma direi che fa capitolo a parte.
E' davvero molto strano. Specie il secondo ss che hai postato con 1.068 mv come cavolo fai a stare così basso di assorbimento? Eppure abbiamo la stessa scheda, ma io ho un 1300w di ali. :mbe: :stordita:
Se volete calcolare l'alimentatore del vostro sistema con le future schede:
OuterVision® Power Supply Calculator (https://outervision.com/power-supply-calculator)
A QUESTO LINK (https://www.youtube.com/watch?v=WNDVIKQaT0w&feature=youtu.be) un video di un Navi water block speciale :sofico:
Cmq ragazzi non so se vale solo per la serie rx 5000 di amd ma vedendo le opzioni di acquisto lo store amd non è contemplato per nulla... Sulle cpu se guardate c'è la lista per paese dove è possibile acquistare e li lo store amd è menzionato. Nelle gpu invece no. Solo la lista dei partner.
Scusa ma dov'è lo shop per l'Italia?
Io non lo trovo, l'Italia non è in lista, non ho ben capito come fare per acquistare direttamente da AMD, se mai sarà possibile (mi riferisco anche ad una CPU)
https://www.amd.com/en/shop
Ale55andr0
10-11-2020, 07:13
non so se sia fake, (credo di si perchè mi sembrano gameplay identici imho impossibili da replicare) ma intanto meglio di niente...
https://www.youtube.com/watch?v=3SccSjSB-qk
-8 allo shortage :O
Spitfire84
10-11-2020, 08:33
quelli di sapphire mi devono spiegare perchè per la 5700XT nitro+ segnano sul loro sito 265w power consumption (tbp reference 225w) e 600w richiesti, mentre per la 6800 (liscia) non lo scrivono ma sappiamo che sono reference 250w (+25) e mettono un consigliato di 750w (+150!)
sempre dal loro sito infatti la reference consiglia 650w
scusate, ma qual è la fonte che ha riportato le PSU richieste per le 6800/(XT)???
Sul sito ufficiale Sapphire per la 6800 viene indicato un 650 W, non 750 W:
https://www.sapphiretech.com/en/consumer/21305-01-20g-radeon-rx-6800-16g-gddr6
Mentre per la 6800 XT è consigliato un 750 W (anzichè 850 W):
https://www.sapphiretech.com/en/consumer/21304-01-20g-radeon-rx-6800-xt-16g-gddr6
Se volete calcolare l'alimentatore del vostro sistema con le future schede:
OuterVision® Power Supply Calculator (https://outervision.com/power-supply-calculator)
Circa 500 W di alimentatore consigliato per la mia configurazione in firma e GPU 6800...non dovrei avere problemi a montarla ne io ne praticamente tutti voi!
Gyammy85
10-11-2020, 08:58
scusate, ma qual è la fonte che ha riportato le PSU richieste per le 6800/(XT)???
Sul sito ufficiale Sapphire per la 6800 viene indicato un 650 W, non 750 W:
https://www.sapphiretech.com/en/consumer/21305-01-20g-radeon-rx-6800-16g-gddr6
Mentre per la 6800 XT è consigliato un 750 W (anzichè 850 W):
https://www.sapphiretech.com/en/consumer/21304-01-20g-radeon-rx-6800-xt-16g-gddr6
Circa 500 W di alimentatore consigliato per la mia configurazione in firma e GPU 6800...non dovrei avere problemi a montarla ne io ne praticamente tutti voi!
850 watt sono consigliati per la nitro 6800xt, quella che hai lincato è la reference
Predator_1982
10-11-2020, 09:02
Circa 500 W di alimentatore consigliato per la mia configurazione in firma e GPU 6800...non dovrei avere problemi a montarla ne io ne praticamente tutti voi!
a me 550W a prescindere che usi la 3800 o la 6800XT, indi il mio HX750i è più che sufficiente.
Ton90maz
10-11-2020, 09:12
Sono passato da un 450w a un 650w proprio per poter upgradare a scheda video da 300W. Ovviamente deve essere un 650 certificato 80gold o superiore.
Ovviamente no. L'80 plus gold non vuol dire nulla. Al più ci possono essere delle richieste sulla% di potenza sul 12V ma non è che un bronze o silver non possa andar bene lo stesso e avere i numeri sufficienti
Ma vedendo lo sciacallaggio fatto sulle 3000, che prezzi devo aspettarmi da queste RX6000?
Prima volevo prendermi una 3080, sono indeciso.. help
Spitfire84
10-11-2020, 09:38
850 watt sono consigliati per la nitro 6800xt, quella che hai lincato è la reference
ok, ma sono 100W in più di psu per la stessa GPU solo più pompata in frequenza...non sono un po' troppi?
Predator_1982
10-11-2020, 09:42
Ma vedendo lo sciacallaggio fatto sulle 3000, che prezzi devo aspettarmi da queste RX6000?
Prima volevo prendermi una 3080, sono indeciso.. help
non penso sarà tanto diverso, troverai gli approfittatori che la venderanno a diverse centinaia di euro di più...se va bene
Mancava solo la notizie delle prestazioni buone nel mining e si può fare ciaone alle schede
Secondo me con un buon 650W puoi metterci pure una 6800xt
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Quando presi Vega in teoria il mio non sarebbe dovuto bastare stando alle richieste ed invece nessun problema.
Io punto alla 6800 XT e sono sicuro che non dovrò cambiare alimentatore neanche questa volta.
Anche io sono convinto che con un buon 600-650 watt sei tranquillo praticamente con qualsiasi cosa (3090 esclusa che è un cesso a cui serve un kilowatt).
StylezZz`
10-11-2020, 09:55
Se volete calcolare l'alimentatore del vostro sistema con le future schede:
OuterVision® Power Supply Calculator (https://outervision.com/power-supply-calculator)
Per carità, lasciate perdere questi calcolatori, sono affidabili quanto un alimentatore della Trust.
Secondo questo sito dovrei consumare quasi 500W, peccato che è già difficile se supero 350W.
Spitfire84
10-11-2020, 09:58
Per carità, lasciate perdere questi calcolatori, sono affidabili quanto un alimentatore della Trust.
Secondo questo sito dovrei consumare quasi 500W, peccato che è già difficile se supero 350W.
se sovrastima sempre è ancora meglio...
ninja750
10-11-2020, 10:14
ok, ma sono 100W in più di psu per la stessa GPU solo più pompata in frequenza...non sono un po' troppi?
più che troppi, direi irrealistici, ma aspettiamo le review
anche perchè nemmeno sparando il power limit al massimo puoi superare i 150w per cavo eh :stordita:
e poi con AMD consumi e calore non sono un problema :O appena le monti sei obbligato al downvolt altrimenti niente boost e le ventole impazziscono :cool:
Predator_1982
10-11-2020, 10:19
e poi con AMD consumi e calore non sono un problema :O appena le monti sei obbligato al downvolt altrimenti niente boost e le ventole impazziscono :cool:
dici che saranno così le 6000? Mi sembra strano
Spitfire84
10-11-2020, 10:35
più che troppi, direi irrealistici, ma aspettiamo le review
anche perchè nemmeno sparando il power limit al massimo puoi superare i 150w per cavo eh :stordita:
appunto, se ti indica 500 W di assorbimento ed è irrealistico, significa che il margine è ancora ampio e un 650 W è più che sufficiente.
e poi con AMD consumi e calore non sono un problema :O appena le monti sei obbligato al downvolt altrimenti niente boost e le ventole impazziscono :cool:
ah si, vero, questo mi era sfuggito :asd:
Gyammy85
10-11-2020, 10:45
ok, ma sono 100W in più di psu per la stessa GPU solo più pompata in frequenza...non sono un po' troppi?
Io non predenrei troppo sul serio quelle indicazioni, i produttori si tengono larghi per via delgi ali di bassa qualità, se l'amperaggio è buono non ci sono problemi anche con meno watt
nickname88
10-11-2020, 11:44
Per carità, lasciate perdere questi calcolatori, sono affidabili quanto un alimentatore della Trust.
Secondo questo sito dovrei consumare quasi 500W, peccato che è già difficile se supero 350W.
Quel tipo di siti lì in genere non sovrastimano ( forse questo sì non lo conosco ), solitamente rispondono tenendo conto un full 100% di tutti i componenti, casistica che non capita praticamente mai se non lanciando burner test su tutti i componenti contemporaneamente ( Prime95, Afterburner, Memtest e uno stress test per SSD assieme ) e anzi in full load pieno non c'è manco 1 componente.
Anche quando giochi e la GPU segna 100%, non sarà mai lo stesso di far girare un Afterburner.
Idem sulla CPU quando avvii una conversione anche se tutti i cores sono al massimo da TM non sarà mai come un Prime95 o OCCT.
Idem la RAM rispetto ad un MEMTEST su tutto il pool o l'SSD.
Manco tutte le ventole solitamente non girare sempre fisse al 100% a meno che non le imposti tu.
I valori che riferiscono quei siti sommano il massimo assorbimento di ogni componente, quindi alla fine vengono fuori valori esagerati.
Che modello è?
BE QUIET 650W STRAIGHT POWER 11 NEZTEIL 80 PLUS MODULAR
HadesSaint
10-11-2020, 13:32
lol ho messo la 6900xt
Load Wattage:658 W
Recommended UPS rating:1250 VA
Recommended PSU Wattage:708 W
BE QUIET 650W STRAIGHT POWER 11 NEZTEIL 80 PLUS MODULAR
EDIT:errato
ninja750
10-11-2020, 14:56
S.O.: Linux®, Windows® 7*, Windows® 10, and Windows 8.1. 64-bit operating system required
*Does not support all features including but not limited to Hardware Raytracing
:O
L'asterisco dovrebbe essere anche su Windows 8.1 dato che le DirectX 12 sono solo su 10.
BYKSKI Unveils AMD Radeon RX 6900 XT & RX 6800 XT Water Blocks, Compatible With Reference PCBs (https://wccftech.com/bykski-unveils-amd-radeon-rx-6900-xt-rx-6800-xt-water-blocks/)
Quindi ha un'efficienza dell'80% minimo. Dovrebbe erogare almeno 520W in tutte le condizioni di utilizzo. Se non hai una configurazione particolarmente impegnativa dal punto di vista consumi dovresti essere coperto.
adesso dico una vacc@ta ma la certificazione di un alimentatore non dovrebbe riguardare l'efficienza nell'erogazione ma l'efficienza nel rapporto w alla presa -> w erogati.
per intenderci: stessa config, una con ali 650w 80+bronze una con 650w 80+gold, alla presa il bronze "preleverà" 100w contro i 90w del gold. ma entrambi sono in grado di erogare 650w (spesso e volentieri erogano anche di più dei w nominali).
o sbaglio?
Andy1111
10-11-2020, 15:36
adesso dico una vacc@ta ma la certificazione di un alimentatore non dovrebbe riguardare l'efficienza nell'erogazione ma l'efficienza nel rapporto w alla presa -> w erogati.
per intenderci: stessa config, una con ali 650w 80+bronze una con 650w 80+gold, alla presa il bronze "preleverà" 100w contro i 90w del gold. ma entrambi sono in grado di erogare 650w (spesso e volentieri erogano anche di più dei w nominali).
o sbaglio?
non dimenticate che gli ali non sono eterni e hanno una usura che può essere anche di 1/2% l'anno
certo, è da tenere in considerazione anche la perdita di potenza nel tempo.
Ale55andr0
10-11-2020, 17:15
vi state facendo pippe allucinanti su una cosa tanto inutile quanto il wattaggio consigliato delle psu, che ormai da eoni è dichiarato in deciso eccesso prudenziale perchè considerano eventuali psu da due soldi, quando avete tutti alimentatori "di marca" ampiamente sufficienti, tralasciando invece il fatto che IL problema è riuscire a procurarsi la scheda da attaccarci alla dannatissima psu :asd:
marbasso
10-11-2020, 17:26
Ma, è dal 2002 che ho solo alimentatori di marca da 1000w dentro al pc...
Ma che è sta storia di fare le pulci al watt...
Incredibile.
Tutto parte dall' alimentatore, lesinare sulla PSU è da incompetenti, scusate se lo dico ma è così.
Troppe cose ci girano attorno, la protezione stessa delle vostre amate componenti...
Fate vobis...
Ryo Hazuki
10-11-2020, 17:31
Ma, è dal 2002 che ho solo alimentatori di marca da 1000w dentro al pc...
Ma che è sta storia di fare le pulci al watt...
Incredibile.
Tutto parte dall' alimentatore, lesinare sulla PSU è da incompetenti, scusate se lo dico ma è così.
Troppe cose ci girano attorno, la protezione stessa delle vostre amate componenti...
Fate vobis...
è dal 2010 che ho psu da 450/600w e pure le vega 64 andavano una meraviglia sul 600. altro che pippe, qui si sfiora la pazzia :asd:
marbasso
10-11-2020, 17:43
è dal 2010 che ho psu da 450/600w e pure le vega 64 andavano una meraviglia sul 600. altro che pippe, qui si sfiora la pazzia :asd:
Non ti è mai saltato un alimentatore e bruciato mobo, hd e vga e....
A me si.
Ma da quel giorno pazzia o meno...non è più successo, e sicuramente per il motivo citato sopra, ottima marca, ottime review, e qualche watt in + che non guasta mai.
Esperienze.:O
Edit, ho tolto un ''in'' che non ci stava a far nulla nella frase LOL.
Spitfire84
10-11-2020, 18:13
Ma, è dal 2002 che ho solo alimentatori di marca da 1000w dentro al pc...
Ma che è sta storia di fare le pulci al watt...
Incredibile.
Tutto parte dall' alimentatore, lesinare sulla PSU è da incompetenti, scusate se lo dico ma è così.
Troppe cose ci girano attorno, la protezione stessa delle vostre amate componenti...
Fate vobis...
Scusa, ma a chi ti riferisci? Non mi pare che qui nessuno abbia fatto le pulci al watt. Semmai si discuteva sull’indicare una psu da 750 W per poter montare una scheda video con TGP da 250 W: che sistema bisogna avere per consumare i 500 W rimanenti?
E aggiungerei che chi sta su questo forum (su altri non mi sbilancerei :asd:) sa benissimo che la psu è un componente fondamentale, ma questo non vuol dire che si debba comprare un alimentatore sovradimensionato del doppio perché consigliano una psu fuori da ogni logica.
marbasso
10-11-2020, 18:24
Scusa, ma a chi ti riferisci? Non mi pare che qui nessuno abbia fatto le pulci al watt. Semmai si discuteva sull’indicare una psu da 750 W per poter montare una scheda video con TGP da 250 W: che sistema bisogna avere per consumare i 500 W rimanenti?
E aggiungerei che chi sta su questo forum (su altri non mi sbilancerei :asd:) sa benissimo che la psu è un componente fondamentale, ma questo non vuol dire che si debba comprare un alimentatore sovradimensionato del doppio perché consigliano una psu fuori da ogni logica.
Non mi riferisco a nessuno in particolare, son 5 o 6 giorni che si parla di psu.
Ma sono numeri, è presto fatto.
Tra cpu e gpu attualmente in configurazione media si sta stretti con 400w se si fa appena di oc.
Aggiungi ventole che variano da 2 a 17, come ho letto ieri...ssd, mobo, eccetera, con meno di 750w per me uno nel 2020 è al limite.
Poi ripeto, fate vobis e vivete nel dubbio di chiedere <<ce la faccio o no con XXX watt>>?
Tutte cose da chiedere cmq nell' apposito 3d aimè.
marbasso
10-11-2020, 19:36
Lo metto anche qua, tanto è la diretta concorrenza alla 6900xt.
Che legnata da NVIDIA a questo giro, ha proprio bistrattato l' utenza primaria.
https://wccftech.com/nvidia-geforce-rtx-3080-ti-launching-january-2021-tackle-amd-rx-6900-xt/
<<The RTX 3080 Ti could hit a price around $899-$999 US which would be $249 US higher than the RX 6800 XT at the very least.>>
Totalmente in linea con la 6900xt.
Paura e....:) Tanto di cappello a AMD.
vi state facendo pippe allucinanti su una cosa tanto inutile quanto il wattaggio consigliato delle psu, che ormai da eoni è dichiarato in deciso eccesso prudenziale perchè considerano eventuali psu da due soldi, quando avete tutti alimentatori "di marca" ampiamente sufficienti, tralasciando invece il fatto che IL problema è riuscire a procurarsi la scheda da attaccarci alla dannatissima psu :asd:
Con presa che misura il consumo, sotto max load, con i7-3770 3.5@4.5, 1080ti, 7 ventole, monitor, 4 HD, schede varie, impianto logitech z-5500, raggiungo i 560W max... :O
Ale55andr0
10-11-2020, 20:04
Lo metto anche qua, tanto è la diretta concorrenza alla 6900xt.
Che legnata da NVIDIA a questo giro, ha proprio bistrattato l' utenza primaria.
https://wccftech.com/nvidia-geforce-rtx-3080-ti-launching-january-2021-tackle-amd-rx-6900-xt/
<<The RTX 3080 Ti could hit a price around $899-$999 US which would be $249 US higher than the RX 6800 XT at the very least.>>
Totalmente in linea con la 6900xt.
Paura e....:) Tanto di cappello a AMD.
cmq imho, proprio per le prestazioni (e prezzo), erano meglio 12gb/384bit, ma capisco che poi si entrava nel marketing dei 12 vs 16 e con 20 si fa altra impressione...a ogni modo un sacco bello, tante schede presentate a farsi concorrenza spietata... ma non sul mercato, solo in astratto :asd:
Ton90maz
10-11-2020, 20:57
Non mi riferisco a nessuno in particolare, son 5 o 6 giorni che si parla di psu.
Ma sono numeri, è presto fatto.
Tra cpu e gpu attualmente in configurazione media si sta stretti con 400w se si fa appena di oc.
Aggiungi ventole che variano da 2 a 17, come ho letto ieri...ssd, mobo, eccetera, con meno di 750w per me uno nel 2020 è al limite.
Poi ripeto, fate vobis e vivete nel dubbio di chiedere <<ce la faccio o no con XXX watt>>?
Tutte cose da chiedere cmq nell' apposito 3d aimè.
AL LIMITE? Ma se anche configurazioni di fascia alta non arrivano neanche a 400?
Le ventole a regimi normali consumano 0.0qualcosa ampere x 12 volt
nickname88
10-11-2020, 22:11
Lo metto anche qua, tanto è la diretta concorrenza alla 6900xt.
Che legnata da NVIDIA a questo giro, ha proprio bistrattato l' utenza primaria.
https://wccftech.com/nvidia-geforce-rtx-3080-ti-launching-january-2021-tackle-amd-rx-6900-xt/
<<The RTX 3080 Ti could hit a price around $899-$999 US which would be $249 US higher than the RX 6800 XT at the very least.>>
Totalmente in linea con la 6900xt.
Paura e....:) Tanto di cappello a AMD.
Ammesso che sia vero e ne dubito fortemente, che senso ha una Ti che va poco più di una liscia ?
scorpion73
10-11-2020, 22:46
Non si troverà manco una AMD..
https://videocardz.com/newz/amd-radeon-rx-6800-allegedly-1-5x-faster-than-geforce-rtx-3090-in-cryptocurrency-mining
amon.akira
10-11-2020, 22:54
Non si troverà manco una AMD..
https://videocardz.com/newz/amd-radeon-rx-6800-allegedly-1-5x-faster-than-geforce-rtx-3090-in-cryptocurrency-mining
l update dice che non è vero, a detta dei reviewers che hanno già la scheda :P
StylezZz`
10-11-2020, 22:56
l update dice che non è vero, a detta dei reviewers che hanno già la scheda :P
Ecco.
''We have confirmed with GPU reviewers who already have access to Radeon RX 6800 series that the mining performance is definitely not as claimed by the user. The story is therefore not true.''
scorpion73
10-11-2020, 22:57
Ecco.
''We have confirmed with GPU reviewers who already have access to Radeon RX 6800 series that the mining performance is definitely not as claimed by the user. The story is therefore not true.''
Meno male... almeno una forse avrò qualche possibilità di prenderla...
Ale55andr0
11-11-2020, 08:15
Ecco.
''We have confirmed with GPU reviewers who already have access to Radeon RX 6800 series that the mining performance is definitely not as claimed by the user. The story is therefore not true.''
uau (cit.), allora passeremo da non avere schede ad averne qualcuna! :sofico:
Anyway, MENO SETTE!
marbasso
11-11-2020, 08:31
AL LIMITE? Ma se anche configurazioni di fascia alta non arrivano neanche a 400?
Le ventole a regimi normali consumano 0.0qualcosa ampere x 12 volt
La mia 2080ti su timespy extreme in oc consuma da sola 500w.
Fai tu...
marbasso
11-11-2020, 08:33
Ammesso che sia vero e ne dubito fortemente, che senso ha una Ti che va poco più di una liscia ?
https://videocardz.com/newz/nvidia-geforce-rtx-3080-ti-to-launch-in-january-2021
https://www.guru3d.com/news-story/rumor-nvidia-geforce-rtx-3080-ti-with-12-gb-gddr6x-in-the-pipleline.html
Non va poco + di una liscia, va quanto la 3090, e magari con un affinamento ad 8nm+ visto il PP delle prime andrà + della 3090 consentendo + margine in oc e minor consumi.
Il nodo da sciogliere resta sempre 6900xt vs 3090. rtx o meno, a me interessa in raster.
Ryo Hazuki
11-11-2020, 09:12
Non ti è mai saltato un alimentatore e bruciato mobo, hd e vga e....
A me si.
Ma da quel giorno pazzia o meno...non è più successo, e sicuramente per il motivo citato sopra, ottima marca, ottime review, e qualche watt in + che non guasta mai.
Esperienze.:O
Edit, ho tolto un ''in'' che non ci stava a far nulla nella frase LOL.
può succedere anche con uno da 10,000w
Ryo Hazuki
11-11-2020, 09:16
La mia 2080ti su timespy extreme in oc consuma da sola 500w.
Fai tu...
ma quando mai lol
marbasso
11-11-2020, 09:30
ma quando mai lol
Come quando mai?
Ma...
Informati. :)
La mia 2080ti su timespy extreme in oc consuma da sola 500w.
Fai tu...
Mi pare alquanto improbabile.
https://www.guru3d.com/articles_pages/msi_geforce_rtx_2080_ti_lightning_z_review,8.html
Qui una già overcloccata di fabbrica fa consumare all'intero sistema 330W (con un 5960X che da solo in idle consuma 70W).
marbasso
11-11-2020, 09:46
Mi pare alquanto improbabile.
https://www.guru3d.com/articles_pages/msi_geforce_rtx_2080_ti_lightning_z_review,8.html
Qui una già overcloccata di fabbrica fa consumare all'intero sistema 330W (con un 5960X che da solo in idle consuma 70W).
Parlo di bios xoc
Ovvio con bios normale hai il pl che limita.
bios xoc, oveclock e overvolt.
Ovviamente.
Ma si superano i 500w solo sulla vga.
Ed in tanti qua lo sanno.
Ma basterebbe andare sul 3d della 2080ti.
Vabbè, ma intanto.... riusciremo ad averle ste schede? no perché si parla tantissimo di tutti ,Nvidia e AMD, ma intanto nessuno può acquistare nulla.
marbasso
11-11-2020, 10:08
Vabbè, ma intanto.... riusciremo ad averle ste schede? no perché si parla tantissimo di tutti ,Nvidia e AMD, ma intanto nessuno può acquistare nulla.
E' il nuovo business delle promesse@preorder, funziona così adesso :D
Armatevi di pazienza.
Ale55andr0
11-11-2020, 10:17
Non va poco + di una liscia, va quanto la 3090
che va poco più di una liscia :asd:
ninja750
11-11-2020, 10:17
Mi pare alquanto improbabile.
https://www.guru3d.com/articles_pages/msi_geforce_rtx_2080_ti_lightning_z_review,8.html
Qui una già overcloccata di fabbrica fa consumare all'intero sistema 330W (con un 5960X che da solo in idle consuma 70W).
vabbé lasciamo stare le bios mod e le 3090.. una scheda normlae non consuma 500w.
Vabbè, ma intanto.... riusciremo ad averle ste schede? no perché si parla tantissimo di tutti ,Nvidia e AMD, ma intanto nessuno può acquistare nulla.
per adesso non puoi acquistare nvidia e basta
per AMD vedremo dal 18 in avanti
E' il nuovo business delle promesse@preorder, funziona così adesso :D
Armatevi di pazienza.
Ah, ho capito.
Comunque se a qualcuno serve una Alimentatore da 750W budget per le AMD, date un'occhiata a questo. Io ho questa PSU ma la versione 700W. LA review è completa, fatta con strumenti adatti per misurare l'efficienza e ecc... e non mi sembra fatta male.
https://www.youtube.com/watch?v=Ak7-4aClB50
marbasso
11-11-2020, 10:29
Cosa ci sarebbe di cosa strano?:D
È logico che con il bios xoc non abbia limiti, se guardi il pl target sulla scheda di gpu-z ti da 2000w come pl, ergo hai limiti altissimi a non finire, bios studiati per ln2, ma anche in test caserecci 450 500w li prendi di picco, mantenendo medie di assorbimento abbastanza alte.
Una 2080ti 3x8pin tipo una hof a 2190 - 2205mhz liquidata o con AiO, memorie a cannone con bios mod sotto superposition 1080p extreme sta sui 480-500w.
È la realta dei fatti..
Se sblocchiamo le 3090 nelle stesse condizioni probabile che ci avviciniamo ai 560- 600w
Concordo in tutto.
REAL LIFE.
BYKSKI Unveils AMD Radeon RX 6900 XT & RX 6800 XT Water Blocks, Compatible With Reference PCBs (https://wccftech.com/bykski-unveils-amd-radeon-rx-6900-xt-rx-6800-xt-water-blocks/)
nuooooooooooooo :cry:
parrebbe che il pcb della 6900 sia parecchio diverso rispetto alle 6800 quindi niente riciclo waterblock fullcover da 6800 liscia alla sorellona big butt.....
peccato.....
Basta sapere quello che si fa, se sblocchi per i 500W significa (spero) che hai ampio margine lato ali
uguale se si prende una vga da 75, 150 o 400w......
conosco altri modi migliori di sprecare corrente (semi-cit.) :O ora pare che la nuova moda sia far saltare il contatore di casa dopo dieci anni di filosofia Greta :stordita: amen
sto progettando il mio primo custom loop per 400w massimo di consumo (al momento sono fra i 300 e i 320 il solo pc) perchè non voglio consumare troppo, ma il giusto....e sarà leggermente overkill per tenere il silenzio al top (ws esterna da 1260 :asd: )
StylezZz`
11-11-2020, 10:40
Comunque se a qualcuno serve una Alimentatore da 750W budget per le AMD, date un'occhiata a questo. Io ho questa PSU ma la versione 700W. LA review è completa, fatta con strumenti adatti per misurare l'efficienza e ecc... e non mi sembra fatta male.
https://www.youtube.com/watch?v=Ak7-4aClB50
Quei 3 anni di garanzia non sono un bel biglietto da visita, meglio spendere qualcosina di più e avere un prodotto più affidabile IMHO.
Con 100 euro ci prendi il 750W Gold modulare garantito 5 anni.
Quei 3 anni di garanzia non sono un bel biglietto da visita, meglio spendere qualcosina di più e avere un prodotto più affidabile IMHO.
Con 100 euro ci prendi il 750W Gold modulare garantito 5 anni.
Boh, io per adesso nessun problema, ne ho due , uno da 600 e uno da 700. Funzionano alla grande. Poi che c'è di meglio, assolutamente vero.
leoneazzurro
11-11-2020, 12:05
In ogni caso, per chi non l'avesse visto, è uscito il terzo video dedicato elle partnership AMD per il lancio delle RX6000
https://www.youtube.com/watch?v=ymzQ1WuBTus
In ogni caso, per chi non l'avesse visto, è uscito il terzo video dedicato elle partnership AMD per il lancio delle RX6000
https://www.youtube.com/watch?v=ymzQ1WuBTusEsempio di RT implementato a caxxo di cane.
L'engine di wow è vecchio 16 anni, non mi aspettavo niente di superlativo.
Il tipo a 1 minuto, super cringe.
Non sono un hater eh, a wow ci gioco
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Esempio di RT implementato a caxxo di cane.
L'engine di wow è vecchio 16 anni, non mi aspettavo niente di superlativo.
Il tipo a 1 minuto, super cringe.
Non sono un hater eh, a wow ci gioco
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Quoto!
Sia chiaro, ho giocato a WoW per quasi 10 anni, l'ho adorato e se avessi tempo ci giocherei ancora, ma da qui a portarlo come araldo del ray tracing sponsorizzato per le 6800...per du ombrettine appiccicate su un motore antidiluviano...
Se devono convincermi, fatemi vedere come gira Godfall in ray tracing, gioco che esce domani, quello sì, araldo del nuovo corso essendo stato, tra le altre cose, il primo gioco "next gen" ad esser mostrato in assoluto.
Non sò, prendiamo per il culo nVdia pe Quake II RTX e poi ci dobbiamo bere sta sbobba di WoW in "ray tracing"...
Quoto!
Se devono convincermi, fatemi vedere come gira Godfall in ray tracing, gioco che esce domani, quello sì, araldo del nuovo corso essendo stato, tra le altre cose, il primo gioco "next gen" ad esser mostrato in assoluto.
Anche Godfall è sponsorizzato AMD ed il video promozionale è uscito qualche giorno addietro.
Se cerchi nel thread dovresti trovarlo. Mi pare lo abbia postato sempre leoneazzurro
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.