View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
ninja750
14-09-2020, 14:10
Cmq a me se big navi andasse poco piu della 3070 sarebbe perfetto, dell'rt non mi interessa, del freesync si e 4k60fps come target!
Edit: a prezzo concorrenziale
con la 3070 a teorici 519€, dovrebbe costare chessò 450€ come la 5700? aspetta e spera..
fraussantin
14-09-2020, 14:20
con la 3070 a teorici 519, dovrebbe costare chessò 450 come la 5700? aspetta e spera..Se la piccola si scontra contro la 3070 é probabile che costi anche 399 dollari contro 499.
La big se dovesse scontrarsi contro la 3080 costerà 599.
8 giga e 16 la big imho
Bisogna che amd offra un risparmio altrimenti non ne vende.
Se la piccola si scontra contro la 3070 é probabile che costi anche 399 dollari contro 499.
La big se dovesse scontrarsi contro la 3080 costerà 599.
8 giga e 16 la big imho
Bisogna che amd offra un risparmio altrimenti non ne vende.
A me basta una scheda che stia in linea con la 3070 ( se prendiamo quello che hanno pubblicizzato a Nvidia e cioè prestazione oltre la 2080TI) o comunque una qualsiasi cheda che lavori in 4k setting alto 60 FPS , di più non mi serve..... ah si.... magari a 550 E. :D :D
Ale55andr0
14-09-2020, 14:31
Cmq a me se big navi andasse poco piu della 3070 sarebbe perfetto, dell'rt non mi interessa, del freesync si e 4k60fps come target!
Edit: a prezzo concorrenziale
...e con più ram
fixed :read: :O
con la 3070 a teorici 519€, dovrebbe costare chessò 450€ come la 5700? aspetta e spera..
e perchè non sarebbe possibile visto che amd stessa ci parla di rdna 2 come lo zen delle gpu?
una scheda tra la 3080 e la 3090 andrebbe bene... anche allo stesso prezzo della 3080 o poco meno :D :D :D
OrazioOC
14-09-2020, 22:13
https://videocardz.com/newz/amd-showcases-radeon-rx-6000-graphics-card-design
Ale55andr0
14-09-2020, 22:17
esteticamente mi fa cagare, ma non è quello di cui mi importa ma prestazioni e prezzo
stefano192
14-09-2020, 22:18
https://videocardz.com/newz/amd-showcases-radeon-rx-6000-graphics-card-design
Stavo per postarla io. Il design è parecchio figo :O
Il 2x8 pin sulla reference fa ben sperare :)
amon.akira
14-09-2020, 22:20
https://videocardz.com/newz/amd-showcases-radeon-rx-6000-graphics-card-design
80cu 300w raster tra 3070-3080 rt 3070 649dollari 16gb g6
segnate :D
Gyammy85
14-09-2020, 22:22
https://i.postimg.cc/43ctvB0T/RX6000.jpg (https://postimg.cc/p92pRYx0)
Gyammy85
14-09-2020, 22:23
80cu 300w raster tra 3070-3080 rt 3070 649dollari 16gb g6
segnate :D
E la 3080 e 3090 le lasciamo libere va, con hopper andrà a prendere pelo pelo la 4060 :asd:
amon.akira
14-09-2020, 22:25
E la 3080 e 3090 le lasciamo libere va, con hopper andrà a prendere pelo pelo la 4060 :asd:
allora mi metto il mantello rosso e rimodulo
300w vs 350w 3090, in raster +10% sulla 3090, in rt +10% dalla 3080 599dollari e 16gb g6x
:sofico:
Gyammy85
14-09-2020, 22:28
allora mi metto il mantello rosso e rimodulo
300w vs 350w 3090, in raster +10% sulla 3090, in rt +10% dalla 3080 599dollari e 16gb g6x
:sofico:
Non ho detto questo, bisognerebbe essere in grado di essere razionali e non passare da "3060ti a stock che tanto se la occhi va come la 3080 oc" a "eeehhhh 3999k da 800 watt ma a 200 watt e 200 euro!!"
amon.akira
14-09-2020, 22:29
Non ho detto questo, bisognerebbe essere in grado di essere razionali e non passare da "3060ti a stock che tanto se la occhi va come la 3080 oc" a "eeehhhh 3999k da 800 watt ma a 200 watt e 200 euro!!"
non riesco a capire la tua forbice, nei 2esempi non ho citato 3060...esponiti un attimo e dimmi cosa ti aspetti, prezzo watt raster rt dollari...sicuramente ci dovresti andare piu vicino visto che segui piu costantemente amd di me.
Gyammy85
14-09-2020, 22:31
non riesco a capire la tua forbice, nei 2esempi non ho citato 3060...esponiti un attimo e dimmi cosa ti aspetti, prezzo watt raster rt dollari...sicuramente ci dovresti andare piu vicino visto che segui piu costantemente amd di me.
Beh a 300 watt mi aspetto 2x radeon 7 quindi almeno sopra la 3080 se lo scaling è buono, nvidia non tirerebbe quei tdp altrimenti
Poi io non credo a tutta sta differenza fra raster e rt
Non penso AMD possa essere così stupida da presentare una scheda video concorrente alla rtx 3080 ben 1 mese dopo il lancio del concorrente.
Secondo me l'hanno fatto perchè la loro top di gamma non ci arriva a compere con quella Nvidia.
Spero di essere smentito sinceramente, da fiero sostenitore di Ati :sofico: tocca vedere.
Gyammy85
14-09-2020, 22:33
https://twitter.com/NateOrb/status/1305616619310395392
Immagini della rx6000 prese da fortnite, si vede la porta usb-c e una bella superficie riflettente da vero rt per veri uomini
amon.akira
14-09-2020, 22:34
Beh a 300 watt mi aspetto 2x radeon 7 quindi almeno sopra la 3080 se lo scaling è buono, nvidia non tirerebbe quei tdp altrimenti
Poi io non credo a tutta sta differenza fra raster e rt
quindi 300w poco piu di 3080 sia raster che rt, ok almeno so il tuo pensiero...io cmq stavo un po sotto appunto perchè nvidia ha tirato il tdp e ho detto raster tra 3070 e 3080, mentre in rt ho detto 3070 perchè la soluzione amd ancora non si conosce, quindi felice di rimanere impressionato.
per i 16gb g6 e 300w secondo me ci siamo sulla big
Gyammy85
14-09-2020, 22:35
quindi 300w poco piu di 3080 sia raster che rt, ok almeno so il tuo pensiero...io cmq stavo un po sotto appunto perchè nvidia ha tirato il tdp e ho detto raster tra 3070 e 3080, mentre in rt ho detto 3070 perchè la soluzione amd ancora non si conosce, quindi felice di rimanere impressionato.
per i 16gb g6 e 300w secondo me ci siamo sulla big
Probabile sia la solita situazione stile tessmark dove fermi tirava fuori i numeroni ma in game andava più o meno uguale con tess attiva, anche se a sto giro ci credo poco, il fatto di avere parte del lavoro su tmu deve essere per forza qualcosa di più
amon.akira
14-09-2020, 22:41
Non penso AMD possa essere così stupida da presentare una scheda video concorrente alla rtx 3080 ben 1 mese dopo il lancio del concorrente.
Secondo me l'hanno fatto perchè la loro top di gamma non ci arriva a compere con quella Nvidia.
Spero di essere smentito sinceramente, da fiero sostenitore di Ati :sofico: tocca vedere.
mah non so, so solo che non è interessata ai primi acquirenti ampere, neanche a dire..."ehi cari se mi aspettate un mese io vi sto per offrire questo."
magari vuole dire a posteriori, "eh chi ve lo ha fatto fare a prendere ampere, cosi imparate la prossima volta"...però insomma non sembra un comportamento da azienda che vuole vendere.
mircocatta
14-09-2020, 22:47
è veramente bella, quasi mi seccherebbe aprirla per metterla a liquido
StylezZz`
14-09-2020, 22:58
Design della scheda che, se confermato, è decisamente migliore di quei mattoni di tufo delle 3000 IMHO, per non parlare di quel connettore di alimentazione in mezzo :doh:
A me piace sinceramente il design
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
mah non so, so solo che non è interessata ai primi acquirenti ampere, neanche a dire..."ehi cari se mi aspettate un mese io vi sto per offrire questo."
magari vuole dire a posteriori, "eh chi ve lo ha fatto fare a prendere ampere, cosi imparate la prossima volta"...però insomma non sembra un comportamento da azienda che vuole vendere.A me mi suona tanto come tattica di depistaggio, per spingere la gente a non comprare Ampere e attendere anche la mossa di AMD, ma se avessero avuto davvero qualcosa di valido l'avrebbero mostrata l'8 ottobre e messa subito in vendita e non il contrario, per me non rivaleggiano con Ampere, saranno buone schede ma nulla più, ovviamente spero di sbagliare e che AMD cacci fuori i mostroni però la loro strategia mi puzza
leoneazzurro
14-09-2020, 23:26
Sembrerebbe che facendo le proporzioni rispetto al connettore PCI Express il package del die dovrebbe essere poco più piccolo di quello di Vega 20. Ora, vega 20 era da 331 mm^2 ma il package integrava anche 4 stack di HBM. Quindi il die di Big Navi sarebbe grande, sicuramente non intorno ai 300 mm^2.
esteticamente mi fa cagare, ma non è quello di cui mi importa ma prestazioni e prezzo
Rispetto alle ultime generazioni di reference hanno fatto un bel salto di design...poi se il dissipatore faccia pena o meno si vedrà.
Un po lunghetta o é una mia impressione?
Da fortinite
https://youtu.be/PGyqXEsPrgM
https://www.youtube.com/watch?v=kRd3VXxN2kY
Interessante analisi
https://www.youtube.com/watch?v=6uxLy1qWRAk
MrBrillio
15-09-2020, 05:37
No specs? No party! Mai capirò come si muove amd verso i potenziali acquirenti :(
ghiltanas
15-09-2020, 06:32
Il design mi piace assai, speriamo a breve di vedere anche qualche numero
Non penso AMD possa essere così stupida da presentare una scheda video concorrente alla rtx 3080 ben 1 mese dopo il lancio del concorrente.
Secondo me l'hanno fatto perchè la loro top di gamma non ci arriva a compere con quella Nvidia.
Spero di essere smentito sinceramente, da fiero sostenitore di Ati :sofico: tocca vedere.
Io credo che AMD sia molto più interessata a concorrere con le console al momento. Però io credo che NAvi2 top gamma stara in linea con 3080. MA anche se facesse una bella scheda leggermente sotto con buone caratteristiche driver, sarebbe ottimo
ghiltanas
15-09-2020, 06:40
https://www.reddit.com/r/Amd/comments/iszqvr/what_does_this_mean_for_rdna_2_ps5_soc_yields_are/
Io stavo leggendo questo, pare che Sony abbia avuto una resa bassa per i chip della play5, però probabile sia dovuto alle frequenze troppo elevate.
fraussantin
15-09-2020, 07:15
Io credo che AMD sia molto più interessata a concorrere con le console al momento. Però io credo che NAvi2 top gamma stara in linea con 3080. MA anche se facesse una bella scheda leggermente sotto con buone caratteristiche driver, sarebbe ottimoAmd è in concorrenza con se stessa ormai .
Amd è in concorrenza con se stessa ormai .
Si si, intendevo dire che è molto concentrata sull'uscita delle console, che in parte faranno concorrenza anche a Nvidia, per questo non ha fretta. Mi sono spiegato male.
OrazioOC
15-09-2020, 07:25
No specs? No party! Mai capirò come si muove amd verso i potenziali acquirenti :(
Il problema è che amd è in ritardo non contro ampere, ma perchè deve ripianare i buchi nella fascia enthusiast delle ultime 2 generazioni nvidia.:rolleyes:
Le ultime "top" amd erano tutte sbagliate, la vega 64 uscita 15 mesi dopo per andare come la 1080, consumando tranquillamente 100w in più, o la vega 7 che non batteva la 1080 ti uscita 2 anni prima su un silicio meno avanzato e con metà della banda passante, però prezzata come la 2080 che andava meglio praticamente sempre.
mircocatta
15-09-2020, 07:27
Come fa ad essere concentrata sulle console? Non le produce lei interamente e non deve lei sviluppare software per farle funzionare..quello che doveva fare (cioè disegnargli un soc con zen3+rdna2) ormai l'ha fatto mesi e mesi fa.. semmai è tsmc ad essere molto concentrata sulle console, lasciando poco spazio alla produzione di chip rdna2 su pc (dovendo inoltre fare anche i chip zen3)
Spero una scheda che vada a competere con 2080ti e rtx3070 con ray tracing a 450 euro max..
Inviato dal mio CPH1917 utilizzando Tapatalk
MrBrillio
15-09-2020, 07:38
Quindi se amd non esce in contemporanea con invidia può anche non farle le schede? Un po' come per tutto insomma quindi se la golf esce dopo l'audi può anche non farla l'auto tanto non vende e magari la stessa amd se butta fuori la cpu x dopo intel non vende, che tristezza di ragionamenti.
Ecco, qui hai centrato il punto in pieno.
Se parlassimo di n competitor ci starebbe anche, ma se io oggi non volessi prendere una VGA da Nvidia a chi mi devo rivolgere?
O devo fare come il 90% qui dentro e pensare così?
Spero una scheda che vada a competere con 2080ti e rtx3070 con ray tracing a 450 euro max..
Inviato dal mio CPH1917 utilizzando Tapatalk
Sperando fino all'ultimo di avere un'ALTERNATIVA che costi meno?
Poi mi potete dare del fanboy eh, ma il mio discorso va ben oltre..io non mi reputo legato ad un marchio (tant'è che al momento giusto mi son fatto un bel 3700X senza pensarci due volte) in particolare, ma in un mercato come quello delle VGA vorrei che ci fosse più competizione...dei prezzi frega poco (tanto bene o male siamo sempre lì, la storia di AMD che regala le VGA possiamo benissimo archiviarla no?), ma vorrei avere la scelta tra almeno due proposte.
Che senso ha rilasciare un render 3D in un videogioco e una foto, quando il tuo competitor è pronto a far manbassa di soldi? Ripeto..io almeno mezza slide o comunque un'eventino online (tanto ormai quest'anno non hanno neanche bisogno di organizzare eventi stampa etc..) nei quali do un'anticipazione ad RDNA2 l'avrei fatta. In questo modo la gente può anche "permettersi" di aspettare e valutare per bene, ma fatta così...ti tiri dietro i soliti fanboy che ti seguono da anni che probabilmente iniziano ad avere le paxxe piene di proposte che arrivano tardi e non ai livelli voluti.
fraussantin
15-09-2020, 07:45
Si si, intendevo dire che è molto concentrata sull'uscita delle console, che in parte faranno concorrenza anche a Nvidia, per questo non ha fretta. Mi sono spiegato male.Amd deve concentrarsi su Nvidia che a livello marketing ha convinto tutto il mondo che ampere costa poco e va come un treno.
Non ho mai visto una tale esaltazione al lancio di una serie di GPU.
E tutto parchè la 2080ti costava uno sproposito e niente più , perchè non è cambiato niente dal solito. Anzi .. per fare il salto ha dovuto usare chip enormi ed energivori.
Deve stupire e deve farlo sul serio stavolta è l'ultima chance , Nvidia è su un pp pietoso lei ha un pp' a 7+ tsmc che promette bene.
Se non recupera ora , cosa farà poi con i 5 tsmc e mcm che saranno i soliti per tutti Intel compresa?
Quella che vedo io è una GPU da circa 300+W ( 8+8) con un dissipatore simile a quello della Radeon 7( speriamo con ventole più silenziose) . A 7+ ci sono le premesse per un mostro. Vediamo cosa succede..
Piedone1113
15-09-2020, 07:55
Ecco, qui hai centrato il punto in pieno.
Se parlassimo di n competitor ci starebbe anche, ma se io oggi non volessi prendere una VGA da Nvidia a chi mi devo rivolgere?
O devo fare come il 90% qui dentro e pensare così?
Sperando fino all'ultimo di avere un'ALTERNATIVA che costi meno?
Poi mi potete dare del fanboy eh, ma il mio discorso va ben oltre..io non mi reputo legato ad un marchio (tant'è che al momento giusto mi son fatto un bel 3700X senza pensarci due volte) in particolare, ma in un mercato come quello delle VGA vorrei che ci fosse più competizione...dei prezzi frega poco (tanto bene o male siamo sempre lì, la storia di AMD che regala le VGA possiamo benissimo archiviarla no?), ma vorrei avere la scelta tra almeno due proposte.
Che senso ha rilasciare un render 3D in un videogioco e una foto, quando il tuo competitor è pronto a far manbassa di soldi? Ripeto..io almeno mezza slide o comunque un'eventino online (tanto ormai quest'anno non hanno neanche bisogno di organizzare eventi stampa etc..) nei quali do un'anticipazione ad RDNA2 l'avrei fatta. In questo modo la gente può anche "permettersi" di aspettare e valutare per bene, ma fatta così...ti tiri dietro i soliti fanboy che ti seguono da anni che probabilmente iniziano ad avere le paxxe piene di proposte che arrivano tardi e non ai livelli voluti.
Credo invece che le tempistiche di amd commercialmente sono giuste:
Uscire insieme significa:
Chi vuol prendere Nvidia continuerà a farlo sia per fedeltà al marchio, sia per paura dei driver, sia per abitudine, ecc senza scomodare fan boy.
I distributori acquisterebbero più schede nvidia che amd per la loro rivendibilità e dato che i fondi non sono infiniti ne rimmarrebbero pochi per amd.
Presentando dopo invece si troverà nella situazione che:
Tutti quello che avrebbero acquistato Nvidia lo hanno gia fatto.
Le prime forniture dovrebbero essere soldout con un rallentamento delle consegne.
Chi aspetta l'arrivo dei prodotti Nvidia si troverà l'alternativa AMD presentata ( e forse disponibile) aumentando la possibilità di acquisire utenti che sarebbero rimasti con nvidia ( dovuta alla frega di voler la gpu di nuova generazione).
Molti Utenti potrebbero trovarsi senza vga ( venduta prima del crollo del prezzo nell'usato) e relativa necessità di una nuova.
Se Amd presenta una buona scheda quest'ultimi potrebbero valutarne l'acquisto ( fermo restando che questa serie di utenti è tendenzialmente quella più accorta e che non acquista a scatola chiusa)
Adesso siete nella situazione che Ampere non esiste sul mercato perchè quello è, inutile girarci intorno, 1000 schede sul mercato mondiale al day 1 per dire che "sei uscito" è come non averle
AMD deve ancora uscire e presumibilmente avrà le stesse difficoltà nel primo mese
Un sacco di gente che temporeggia con delle GTS250 dopo aver svenduto 2080 e Ti ora pronta a ingoiare qualsiasi prezzo dei vari rivenditori che ci faranno la cresta almeno fino a fine anno bruciando la mossa "benefica" di nvidia che ha riportato la Ti (alias 3080) a prezzi "umani" :asd: è una vitaccia...
E pregate che la storia del mining sia una caxxata :asd:
p.s: la mia 5700 anniversary è più bella :O
Ale55andr0
15-09-2020, 08:14
No specs? No party! Mai capirò come si muove amd verso i potenziali acquirenti :(
perchè, nvidia ha rilasciato le specs prima della presentazione ufficiale?
Il design è bellissimo, molto meglio delle reference Nvidia (parlo di lato estetico, per l'efficacia aspetto i bench).
Io aspetterò con calma prezzi e recensioni, se ne riparla per gennaio febbraio 2021.
Non escludo di saltare questa generazione e buttarmi su eventuali refresh, mi trovo ancora bene con la vega 56 a 1440p dopo tutto (tripla A ne gioco pochissimi :mc: ).
MrBrillio
15-09-2020, 08:23
perchè, nvidia ha rilasciato le specs prima della presentazione ufficiale?
No assolutamente, era riferito al mio pensiero di "essere in ritardo". Due dati buttati lì ora sarebbero stati più d'effetto che una singola foto ;)
Big Navi Ad uno sputo dalla 3080 ??
https://www.tweaktown.com/news/75139/amd-big-navi-hits-spitting-distance-of-geforce-rtx-3080-performance/index.html
Inviato dal mio RNE-L21 utilizzando Tapatalk
No assolutamente, era riferito al mio pensiero di "essere in ritardo". Due dati buttati lì ora sarebbero stati più d'effetto che una singola foto ;)
te li do io due dati e che ci vuole
voltaggi elevati
driver demmerda
:O
Adesso siete nella situazione che Ampere non esiste sul mercato perchè quello è, inutile girarci intorno, 1000 schede sul mercato mondiale al day 1 per dire che "sei uscito" è come non averle
AMD deve ancora uscire e presumibilmente avrà le stesse difficoltà nel primo mese
Un sacco di gente che temporeggia con delle GTS250 dopo aver svenduto 2080 e Ti ora pronta a ingoiare qualsiasi prezzo dei vari rivenditori che ci faranno la cresta almeno fino a fine anno bruciando la mossa "benefica" di nvidia che ha riportato la Ti (alias 3080) a prezzi "umani" :asd: è una vitaccia...
E pregate che la storia del mining sia una caxxata :asd:
p.s: la mia 5700 anniversary è più bella :O
Quindi è confermato il paper launch per nvidia? Se fosse così sarebbe una sorta di prima volta perchè mi pare che gli scorsi lanci le schede le avevano.
Amd di contro avendo già avuto più di un anno sul 7nm penso sia avanti sotto questo profilo, o no?
perchè, nvidia ha rilasciato le specs prima della presentazione ufficiale?
Purtroppo però non è nvidia a dover inseguire nelle dedicate.
MrBrillio
15-09-2020, 08:38
te li do io due dati e che ci vuole
voltaggi elevati
driver demmerda
:O
Consumi mai guardati personalmente...driver...beh, io ricordo schermate nere a gogo con le 290X..ho resistito anche lì.
O i driver demmerda erano riferiti ad AMD? Perchè non mi pare che NVidia abbia chissà quali problemi al momento..io con la mia 1080Ti ci gioco bene su tutto da anni.
Quincy_it
15-09-2020, 08:39
Quindi è confermato il paper launch per nvidia? Se fosse così sarebbe una sorta di prima volta perchè mi pare che gli scorsi lanci le schede le avevano.
Amd di contro avendo già avuto più di un anno sul 7nm penso sia avanti sotto questo profilo, o no?[cut]
Di confermato/ufficiale non c'è nulla (è chiaro che Nvidia non potrà mai affermare che le scorte sono ridotte). Bisogna solo aspettare il 17 per capire cosa succederà.
Io ho la brutta sensazione che le Ampere per le prime settimane si troveranno col contagocce.
fraussantin
15-09-2020, 08:42
Io ho la brutta sensazione che le Ampere per le prime settimane si troveranno col contagocce.È normale anche perchè devono finire Turing in commercio
Consumi mai guardati personalmente...driver...beh, io ricordo schermate nere a gogo con le 290X..ho resistito anche lì.
O i driver demmerda erano riferiti ad AMD? Perchè non mi pare che NVidia abbia chissà quali problemi al momento..io con la mia 1080Ti ci gioco bene su tutto da anni.
ecccerto che parlo di AMD :asd:
ho elencato le due caratteristiche universalmente riconosciute dalle ultime generazioni amd :asd: o quanto meno dal "volgo"
Tornando seri se non devono sparare voltaggi assurdi per "non buttare nulla" e migliorare il processo di binning delle schede, forse forse riescono per una volta a impressionare al lancio visto che sui consumi ha avuto una strizzata d'occhio dalle ampere ma ovviamente devono anche esserci le prestazioni, si guarda pià al perf/w che non al solo w (di solito).
Il discorso driver vabbè è un evergreen, era un po' per cazzeggiare... :asd:
MrBrillio
15-09-2020, 08:44
Io ho la brutta sensazione che le Ampere per le prime settimane si troveranno col contagocce.
Ma quello è normale...è sempre stato così ;)
Piuttosto..una curiosità...ma a livello di raytracing ci saranno differenze tra Nvidia e AMD? O dite che sarà identico tra le due tecnologie? Perchè le nuove RDNA2 introdurranno la tecnologia di AMD per quegli effetti giusto?
Gyammy85
15-09-2020, 08:44
Comunque la vga es trapelata giorni fa aveva 8+6 pin, mentre questa qui 2*8, mi sembra chiaro che quel bench di aots sia relativo alla piccola
Consumi mai guardati personalmente...driver...beh, io ricordo schermate nere a gogo con le 290X..ho resistito anche lì.
O i driver demmerda erano riferiti ad AMD? Perchè non mi pare che NVidia abbia chissà quali problemi al momento..io con la mia 1080Ti ci gioco bene su tutto da anni.
Per forza, se no 320 e 350 watt sarebbero difficili da mandare giù
MrBrillio
15-09-2020, 08:49
Per forza, se no 320 e 350 watt sarebbero difficili da mandare giù
Boh per me le VGA devono produrre fps a go go, di come ci arrivano e come, sinceramente me ne frego altamente :ciapet:
Sicuramente non sarei contento di avere una scheda più efficiente che fa meno fps di un'altra...però il mondo è bello perchè è vario eh, magari c'è chi guarda più ai W che alle prestazioni nude e crude delle schede.
È normale anche perchè devono finire Turing in commercio
E chi gliele compra le turing a questi prezzi? O le calano in modo deciso altrimenti io non comprerei mai una 2000 ai prezzi attuali.
Io ho sempre alternano amd a Nvidia,ho avuto la storica Hd4870 1gb,poi altre due fascia media..ma ultimamente amd non offre nulla sulla fascia top gamma..
Ormai è sempre una generazione indietro,forse non ha interessi perché il mercato si concentra sulla fascia medio/bassa
Inviato dal mio CPH1917 utilizzando Tapatalk
fraussantin
15-09-2020, 09:36
E chi gliele compra le turing a questi prezzi? O le calano in modo deciso altrimenti io non comprerei mai una 2000 ai prezzi attuali.Chi si deve fare un PC adesso è poco esperto e non troverà altro in commercio.
Vedrete che le Turing , ma anche le navi in commercio non verranno gettate nell'immondizia.
Non è che tutti sono geek ..
AceGranger
15-09-2020, 09:51
E chi gliele compra le turing a questi prezzi? O le calano in modo deciso altrimenti io non comprerei mai una 2000 ai prezzi attuali.
bho, tipo una quantita abominevole di persone che non guardano forum di nicchia come questo ?
StylezZz`
15-09-2020, 09:52
Lo dicono le architetture e poi i bench,non io
https://www.youtube.com/watch?v=vP5c5yvXsvk&t
È allineata con la 1080 Ti / 2070 Super, fps più, fps meno, però a quanto pare c'è chi ancora acquista le 1080 Ti a 400 :asd:
https://www.youtube.com/watch?v=vP5c5yvXsvk&t
È allineata con la 1080 Ti / 2070 Super, fps più, fps meno, però a quanto pare c'è chi ancora acquista le 1080 Ti a 400 :asd:
Magari avrebbe più senso farli in 4k i test :
https://www.youtube.com/watch?v=Lr_H0DhdRlo&ab_channel=TestingGames
StylezZz`
15-09-2020, 10:05
Magari avrebbe più senso farli in 4k i test :
https://www.youtube.com/watch?v=Lr_H0DhdRlo&ab_channel=TestingGames
In 4k? :stordita:
Ale55andr0
15-09-2020, 10:08
E pregate che la storia del mining sia una caxxata :asd:
A tal proposito, mio cuGGGino (:O ) mi confermava di nuovo ieri sulla storia del mining: il suo amico rivenditore, che peraltro all'epoca dello sputtanamento del mercato delle gpu minava pure lui e conosce bene questo tema, gli ha confermato che le ampere le stanno comprando praticamente tutte in cina per le factory dei minatori. Mio cuGGGino (:O ) è riuscito a farsi mettere da parte o una tuf o una rog di asus per il 17, se non riesce a comprare la founder sul sito nvidia il suo amico gliela tiene buona anche se ovviamente la pagherà a prezzo pieno da accordo visot hce in pratica 2/3 schede gli arriveranno delle 150 ordinate e non può mica non guadagnarci :asd:...mi ha detto che parliamo di 860/880 sesterzi :eek: ma dice che glieli spende sicuro perchè non vuole minimamente correre rischi di restare senza vga per mesi a causa di sta storia
Ale55andr0
15-09-2020, 10:09
Lo dicono le architetture e poi i bench,non io
sarai rimasto all'epoca degli antichi romani. Vanno simili, poi ci sono giochi in cui letteralmente la asfalta la 1080ti
sarai rimasto all'epoca degli antichi romani. Vanno simili, poi ci sono giochi in cui letteralmente la asfalta la 1080ti
"asfalta" è un termine troppo singolare;diciamo che va un po meglio con i titoli pro Amd.
fraussantin
15-09-2020, 10:14
sarai rimasto all'epoca degli antichi romani. Vanno simili, poi ci sono giochi in cui letteralmente la asfalta la 1080tiMediamente sta sotto la 5700xt nitro OC , poi che ci sia il gioco rosso e il gioco verde è sempre stato.
Poi si parla di quanto.. 3 fps? Si può dire che non cambia nulla. https://uploads.tapatalk-cdn.com/20200915/95c48e953865a0be5172f4a201e415e6.jpg
Ale55andr0
15-09-2020, 10:16
No assolutamente, era riferito al mio pensiero di "essere in ritardo". Due dati buttati lì ora sarebbero stati più d'effetto che una singola foto ;)
magari uscirà qualche leak in merito dopo le recensione della 3000, ma non ci conterei troppo
mircocatta
15-09-2020, 10:21
E niente, dopo che per anni il tallone d'Achille di AMD è stata l'efficienza nonostante ottimi rapporti prezzo/prestazioni nelle fasce in cui andava a competere ora, magicamente, i consumi non contano più un caxxo :D
Non apprezzo (parere personale) le schede tirate all'osso quando normalmente questa pratica (oc) è sempre stata lasciata nelle mani dei consumatori gratuitamente.. ora invece è di default e giustamente se la fanno pagare quei 50/100€ in più (perche immagino che una 3080 con 250w e -10% di performance con dissipatori e dimensioni più contenute magari poteva stare intorno ai 600€)
Per quanto riguarda AMD, se mi tirano fuori una vga tra 3070/3080 sotto i 300w non vedo perché non debba essere presa in considerazione, features permettendo (tra cui metto anche l'rt, che deve essere almeno performante quanto Turing)
Purtroppo lato gpu amd è indietro,
Sicuramente prenderò un ryzen 4000 perché finalmente è competitiva con le cpu.
Però le schede arrivano sempre dopo Nvidia e con grosse difficoltà a colmare la potenza.
Ovvio che solo un miracolo ADM permetterebbe di sfornare una CPU con Ray tracing,dlss o roba simile potente come la 3080 a 700 euro..
Il gap è diventato grande da colmare..
Anche se una 3080 sarà introvabile e costerà 900 euro la compreranno cmq perché non ci sono alternative sulla stessa fascia..
Inviato dal mio CPH1917 utilizzando Tapatalk
Ale55andr0
15-09-2020, 10:26
"asfalta" è un termine troppo singolare;diciamo che va un po meglio con i titoli pro Amd.
no no, asfalta, vedi horizon zero dawn :asd:
Poi si parla di quanto.. 3 fps? Si può dire che non cambia nulla.
esattamente quale parte di "vanno simili" del mio post hai perso? :fagiano:
ma no, nei giochi in cui spinge non è che la batte di poco, la frantuma...
MrBrillio
15-09-2020, 10:28
E niente, dopo che per anni il tallone d'Achille di AMD è stata l'efficienza nonostante ottimi rapporti prezzo/prestazioni nelle fasce in cui andava a competere ora, magicamente, i consumi non contano più un caxxo :D
Almeno per quello che mi riguarda..sbagli..se peschi post miei vecchi anche di anni vedrai che ho sempre detto che dei consumi me ne sbattevo :D
Poi se c'è chi invece ha fatto il contrario non so, ma con me stai sbagliando discorso.
leoneazzurro
15-09-2020, 10:30
https://www.youtube.com/watch?v=BA8aAD6Rgg4
https://www.youtube.com/watch?v=gt9h5ckS_xo
Test con gli ultimi drivers. Appena più lenta della 2070 Super.
no no, asfalta, vedi horizon zero dawn :asd:
E vedi Flight Simulator :D
Amd è riuscita a colmare il gap con i driver;quelli di Nvidia sono ottimizzati per le Rtx lasciando nell'oblio le precedenti architetture.
Ma lo sanno anche i sassi che la 1080 Ti è più muscle di una 5700Xt e lo si capisce dall'architettura.
Cmq,bando alle chiacchiere,spero che Bignavi possa competere ad armi pari con la 3080,minor Tdp e prezzo più basso.
E vedi Flight Simulator :D
Amd è riuscita a colmare il gap con i driver;quelli di Nvidia sono ottimizzati per le Rtx lasciando nell'oblio le precedenti architetture.
Ma lo sanno anche i sassi che la 1080 Ti è più muscle di una 5700Xt e lo si capisce dall'architettura.
Cmq,bando alle chiacchiere,spero che Bignavi possa competere ad armi pari con la 3080,minor Tdp e prezzo più basso.
Un sogno... ci spero vivamente pure io
craesilo
15-09-2020, 10:33
no no, asfalta, vedi horizon zero dawn :asd:
eh?
https://tpucdn.com/review/horizon-zero-dawn-benchmark-test-performance-analysis/images/performance-2560-1440.png
Ale55andr0
15-09-2020, 10:34
Per quanto riguarda AMD, se mi tirano fuori una vga tra 3070/3080 sotto i 300w non vedo perché non debba essere presa in considerazione, features permettendo (tra cui metto anche l'rt, che deve essere almeno performante quanto Turing)
eh, sarebbe una gran bella schedozza, al prezzo e "rammaggio" giusti. Quanto ad rt però difficile che pareggi/batta nvidia, è pur sempre la sua prima implementazione, anche se poi bisognerà vedere titolo per titolo, magari qualcuno più rosso che verde anche in rt ci sarà
Cmq,bando alle chiacchiere,spero che Bignavi possa competere ad armi pari con la 3080,minor Tdp e prezzo più basso.
anche andasse un 10% meno resterebbe un affare clamoroso se confermeranno il rumor dei 550 pesos e 16gb
E vedi Flight Simulator :D
Amd è riuscita a colmare il gap con i driver;quelli di Nvidia sono ottimizzati per le Rtx lasciando nell'oblio le precedenti architetture.
a me non interessa tanto il per come e il perchè, mi interessa il risultato ;)
poi vabè...è riuscita a colmare coi driver ma scordi però che è un chip da 40cu e 64rops... l'architettura l'è valida pure...ecco perchè se confermeranno il +50perf/w su rdna può venir fuori qualcosa di moooolto interessante :)
arkantos91
15-09-2020, 10:44
A tal proposito, mio cuGGGino (:O ) mi confermava di nuovo ieri sulla storia del mining: il suo amico rivenditore, che peraltro all'epoca dello sputtanamento del mercato delle gpu minava pure lui e conosce bene questo tema, gli ha confermato che le ampere le stanno comprando praticamente tutte in cina per le factory dei minatori. Mio cuGGGino (:O ) è riuscito a farsi mettere da parte o una tuf o una rog di asus per il 17, se non riesce a comprare la founder sul sito nvidia il suo amico gliela tiene buona anche se ovviamente la pagherà a prezzo pieno da accordo visot hce in pratica 2/3 schede gli arriveranno delle 150 ordinate e non può mica non guadagnarci :asd:...mi ha detto che parliamo di 860/880 sesterzi :eek: ma dice che glieli spende sicuro perchè non vuole minimamente correre rischi di restare senza vga per mesi a causa di sta storia
Saranno contenti gli affaristi che tanto spavaldamente si vantavano di aver venduto la propria Turing a un paio di cento euro in più e adesso rischiano di rimanere senza pc o a giocare a prato fiorito chissà per quanti mesi :D
mircocatta
15-09-2020, 10:44
Almeno per quello che mi riguarda..sbagli..se peschi post miei vecchi anche di anni vedrai che ho sempre detto che dei consumi me ne sbattevo :D
Poi se c'è chi invece ha fatto il contrario non so, ma con me stai sbagliando discorso.
Per chi come me e te che abbiamo un custom loop, i consumi passano sicuramente in secondo piano sia chiaro ;) ma imho c'è un limite a tutto, soprattutto quando queste perf/watt in "eccesso" se le fanno pagare, quando prima era una mia precisa scelta e soprattutto: gratuita :D
Senza scomodare AMD, se ora chessó, evga tira fuori una 3080 dual fan downcloccata con lo stesso chip stesse memorie stessi vrm a molto meno di 700€, non ci faresti il pensierino? Due click e va come una 3080 classica con qualche euro in più in tasca :D
Poi ovviamente dobbiamo ancora vedere se i consumi di ampere saranno confermati
AkiraFudo
15-09-2020, 10:45
la 1080Ti costava il doppio ed era una sk. di fascia enthusiast. Consuma pure un buon 20% in più, ma come fate a paragonarla ad una 5700XT????!!
vabbe speriamo che AMD faccia una scheda eccezionale così corriamo a comprarci il fermi mk2
Io spero anche che lavorino su un buon implemento del RT, perché davvero è un'ottima feature. O almeno che sia tanto prestante da poter gestire il RT senza incidere troppo sul risultato finale in termini di fps.
Ale55andr0
15-09-2020, 10:53
Piuttosto..una curiosità...ma a livello di raytracing ci saranno differenze tra Nvidia e AMD? O dite che sarà identico tra le due tecnologie? Perchè le nuove RDNA2 introdurranno la tecnologia di AMD per quegli effetti giusto?
che te ne impippa? tanto hai già scelto :O
https://www.hwupgrade.it/forum/showpost.php?p=46975417&postcount=57379
MrBrillio
15-09-2020, 10:55
cut
Sì ma dovrebbe uscire ora...o sinceramente per 50€ di differenza prendo il top :D
A me il discorso che costa un pelo meno e va un pelo meno non interessa...una volta spese 700€, ne spendo anche 800 per un prodotto migliore.
Io quello sto recriminando ad AMD...vorrei vederle uscire insieme come ai vecchi tempi..dove uno poi sceglieva cosa comprare in base alle finanze o prestazioni. Non che ora devo impazzire il 17 per portarmi a casa una VGA e poi forse il 28 Ottobre usciranno con chissà quali prestazioni le proposte AMD. Tutto qui :stordita:
che te ne impippa? tanto hai già scelto :O
https://www.hwupgrade.it/forum/showpost.php?p=46975417&postcount=57379
Perchè siamo ancora in tempo "utile" per analizzare eventuali proposte ;)
OrazioOC
15-09-2020, 10:57
https://www.computerbase.de/2020-09/amd-radeon-nvidia-geforce-ampere-rdna-2-benchmark-test/2/#abschnitt_benchmarks_in_2560__1440
La situazione sul fronte gpu attualmente è questa, 5700 xt/vega 7 a stock sono a ridosso della 1080 ti, poco più o poco meno non è importante.
Gyammy85
15-09-2020, 10:58
che te ne impippa? tanto hai già scelto :O
https://www.hwupgrade.it/forum/showpost.php?p=46975417&postcount=57379
Io davvero non ho capito che tipo di info in anticipo vogliono da amd, tipo quante cu ha? eh ma ampere ne ha 10k, quanti raggi ha? eh ma ampere ha 500 tf lisci lisci, i frame in un gioco qualsiasi? ma chi ci gioca! ecc...
OrazioOC
15-09-2020, 11:09
quindi anche la 2070s non è buona perché è uscita molto dopo la 1080Ti. E' quella la fascia dove la 5700XT compete oltre che costare anche molto meno di quest'ultima.
Il tuo discorso è insensato. Il matto non sono io, ma chi continua a registrasi offendendo e facendosi bannare a ripetizione.
Si ma hai anche omesso che la 2070 super è la fascia medio/alta, e che nvidia ha altre 4 gpu più potenti di quella(2080, 2080 super, 2080 ti, titan rtx), mentre amd aveva nella gpu migliore la vega 7, che andava giusto un pelo meglio della 5700 xt, quindi se si paragona il top di amd vs il top di nvidia, magicamente si scopre che sono indietro di una generazione.
Ale55andr0
15-09-2020, 11:10
Non che ora devo impazzire il 17 per portarmi a casa una VGA e poi forse il 28 Ottobre usciranno con chissà quali prestazioni le proposte AMD. Tutto qui :stordita:
magna tranquillo allora, perchè mi sa che il 17 non ti porti a casa proprio nulla :D
quindi anche la 2070s non è buona perché è uscita molto dopo la 1080Ti.
La 2070S è su fascia media;la 1080Ti fascia enthusiast di quasi 4 anni fa.
craesilo
15-09-2020, 11:21
Ok e va bene, ma se AMD il 28/10 ha una GPU anche solo uguale alla 3080 a 150 euro in meno ti fa schifo? :sofico:
semplicemente impossibile, a meno che amd non abbia alberi di $ in segreto per cui i costi di fabbrica sono irrilevanti....la differenza di prezzo sarà sempre nel range dei 50$ poco più o poco meno potente della fascia concorrente
guarda le 5700-600...uscite quasi un anno dopo a quasi lo stesso prezzo delle 2000
anche andasse un 10% meno resterebbe un affare clamoroso se confermeranno il rumor dei 550 pesos e 16gb
Affare in raster,ma in Rt?
a me non interessa tanto il per come e il perchè, mi interessa il risultato ;)
A me,oltre a questo, interessa che Amd diventi competitiva sulla fascia alta.
poi vabè...è riuscita a colmare coi driver ma scordi però che è un chip da 40cu e 64rops... l'architettura l'è valida pure...ecco perchè se confermeranno il +50perf/w su rdna può venir fuori qualcosa di moooolto interessante :)
Non lo scordo,ma l'incazzatura ti viene perchè uscita molto dopo e mi auguro che Rdna2 non vada a rapportarsi con la 2080Ti(aka 3070) e che sia un mezzo flop come Vega.
StylezZz`
15-09-2020, 11:26
La 2070S è su fascia media
La 2070S è una 2080, ci sono alcune custom come la rog strix che in alcuni bench vanno meglio di quest'ultima, quindi possiamo anche considerarla fascia alta.
FrancoBit
15-09-2020, 11:28
Ma sai io nel dubbio aspetto lo stesso tanto ho solo da guadagnarci, maggiori disponibilità e modelli custom di 3080 che di sicuro non troverò il 17 settembre nel caso volessi la 3080 anche dopo l'annuncio AMD. Tanto io la 1080Ti ce l'ho ancora nel case :sofico:
Ma per forza, così si avrà modo di scoprire eventuali magagne (vedi gli invaders delle turing), di verificare quali siano le custom binnate meglio, di far girare un po' la produzione evitando i primissimi esemplari, di vedere se si assestano su dei prezzi decenti, questi aspetti validi sia nel caso di AMD che di NVIDIA. Se si ha già una scheda sotto il cofano non c'è motivo di rushare. Alla scimmia gli dai le noccioline per un po', così intanto cresce :sofico:
AkiraFudo
15-09-2020, 11:28
Si ma hai anche omesso che la 2070 super è la fascia medio/alta, e che nvidia ha altre 4 gpu più potenti di quella(2080, 2080 super, 2080 ti, titan rtx), mentre amd aveva nella gpu migliore la vega 7, che andava giusto un pelo meglio della 5700 xt, quindi se si paragona il top di amd vs il top di nvidia, magicamente si scopre che sono indietro di una generazione.
mi sembra leggeremente fuori tema. Il soggetto era il continuo paragonare 1080Ti vs 5700xt.
L'unica cosa che dimostra è che AMD non era in quel momento in grado di offrire una scheda nella categoria della 2080Ti e ha scelto di non competere in quella fascia. Brava nVidia che è riuscita a mantenere lo scettro delle performance.
Non è che se un auto V4 non corre quanto una V12 allora magicamente è una generazione indietro. E' come paragonare un peso gallo ad un peso massimo. Sono due categorie diverse. La "generazione" è una cosa distinta.
La 2070S è una 2080, ci sono alcune custom come la rog strix che in alcuni bench vanno meglio di quest'ultima, quindi possiamo anche considerarla fascia alta.
No,al massimo medio-alta ma c'è la 2080S per quella alta e 2080Ti Alta/Enthusiast
OrazioOC
15-09-2020, 11:44
mi sembra leggeremente fuori tema. Il soggetto era il continuo paragonare 1080Ti vs 5700xt.
L'unica cosa che dimostra è che AMD non era in quel momento in grado di offrire una scheda nella categoria della 2080Ti e ha scelto di non competere in quella fascia. Brava nVidia che è riuscita a mantenere lo scettro delle performance.
Non è che se un auto V4 non corre quanto una V12 allora magicamente è una generazione indietro. E' come paragonare un peso gallo ad un peso massimo. Sono due categorie diverse. La "generazione" è una cosa distinta.
Non è questione di fascia, è questione che amd per performance pure al momento è una generazione indietro, che poi sia la fascia medio/alta attuale quella della 5700 xt e 2070 super è un altro discorso, ma se prendo il meglio che offrono i due brand, quella indietro di una generazione non è certo nvidia.
leoneazzurro
15-09-2020, 11:49
Si sta disquisendo sul sesso degli angeli... all'epoca AMD non poteva rispondere a NVidia perchè pur se l'architettura RDNA era promettente, per superare leggermente la 2070 servivano i 220W della 5700Xt. Anche raddoppiando la 5700 avremmo avuto una scheda che andava poco più della 2800Ti ma con un'assorbimento di potenza esagerato (più di 300W) e senza parecchie features come RTX e variable rate shaders... Quindi poco appetibile senza se e senza ma, e giustamente un'azienda non spende soldi per sviluppare un chip che poi non genera utili (e dato che per i datacenter si era già deciso di "sdoppiare" l'architettura tra RDNA e CDNA, non ci sarebbero stati neppure i proventi derivanti dall'uso professionale).
Adesso i miglioramenti di RDNA2 (se confermati) e l'aggiunta del Ray tracing e Variable Rate Shaders, potrebbero consentire una buona competitività prestazionale e a livello di features con un assorbimento di potenza che sembrerebbe dai rumors inferiore alla concorrenza. Quindi è normale che AMD provi a tornare a competere. E se lo scaling è quello dimostrato da RDNA, e i clock sono effettivamente quelli rumoreggiati, le prestazioni possono esserci. Chiaro che ci sono molti "se" ma se le prestazioni e i consumi che sono stati indicati dai rumors per la XboX series X sono realistici, beh, non c'è male.
State dimenticando che, anche se siamo in un forum di appassionati, la stragrande maggioranza degli utenti la 2080ti/3090 neanche la guarda, e una buona fetta anche la 3080.
Per tutti quelli per cui la 3070 è il limite massimo di spesa, una scheda AMD equivalente a un prezzo più basso è da valutare, punto. Anche se esce un mese dopo, anche se la 3090 va molto meglio a 1700 euro.
Sticazzi se Nvidia fa uscire schede che vanno molto di più ma costano 3 volte tanto. Tanto gli entusiast preordinano Nvidia a prescindere, anche senza lo straccio di un bench ufficiale.
Discorso diverso i driver, e qui mi aspetto evidenti progressi. Perchè se mi fai una scheda ottima lato perf/prezzo e poi non la posso usare per via dei driver, ha senso eccome spendere di più per andare praticamente uguale (stile 5700xt/2070).
nessuno29
15-09-2020, 11:57
Ok e va bene, ma se AMD il 28/10 ha una GPU anche solo uguale alla 3080 a 150 euro in meno ti fa schifo? :sofico: Cioè si tratta di aspettare un mesetto non 4 anni. Poi ovvio se uno ha già deciso a prescindere allora ok nulla da dire a riguardo :)
Una GPU 3080 like a 569 a euro? Ma neanche nel mondo delle favole dai
mikael84
15-09-2020, 12:01
Di AMD si può criticare tutto, come del resto nvidia, però la mancata concorrenza alla 2080ti va valutata.
Nvidia disegna quei chip per il pro, via quadro, con nvlink etc.
Il chip puro l'ha venduto a 10000$ con 48gb a conchiglia, che diventano 96 in nvlink, e 6400 con 24gb/48gb in nvlink.
Con lo stesso chip ha tirato fuori una Titan da 24gb sempre per esigenze pro a 2500$.
Avendo il chip, e visto che non si butta via niente, un chip devastato, con cache fallata l'ha utilizzato per coprire una carissima fascia gaming, ma il chip nasce per altro fondamentalmente, altrimenti un 754 da gaming, non l'avrebbe mai tirato fuori.:)
Le nVidia si comprano ad occhi chiusi, che senso ha aspettare... The faith it's meant to be prayed!
Io avrei anche aspettato la serie 6xxx se non fosse che ho avuto problemi di driver con le due 5700 che ho avuto.
Se si parla di una GPU con 16GB di RAM e prestazioni tra la 3080 e la 3070, a parità di driver e con un prezzo paragonabile alle Nvidia l'avrei tenuta in seria considerazione. In questo momento faccio un salto della fede e per essere sicuri di non rimanere senza scheda per cyperpunk 2077 ho deciso di prendere Nvidia al lancio.
I miei più grossi punti interrogativi per AMD sono: disponibilità al lancio (soprattutto le schede dei partner), gestione del Ray tracing, presenza o meno di DLSS. Cyperpunk le userà tutte e tre di sicuro e con un display 4k la 3080 è quasi obbligata.
Ale55andr0
15-09-2020, 12:24
Affare in raster,ma in Rt?
non mi aspetto certo prestazioni inferiori a turing in rt. Poi magari non arriverà ad ampere da quel punto di vista ma a quel punto bisognerebbe anche porsi altre domande:
-le prestazioni in RT prescindono l'engine specifico e le sponsorizzazioni o è prestazione garantita sempre e comunque in base all'architettura? Voglio dire, facile che in cyberpunk andrà meglio l'RT nvidia, ma in un ipotetico gioco RT sponsorizzato da AMD sarà uguale?
-quanti e quali giochi in RT avremo in concomitanza con la vita utile della scheda?
per dire, MS2020 non è certo in RT ma spacca uguale, e considerando che cmq avremo molti porting console non so quanti di essi sfrutteranno l'RT nativamente stante la "bassa" potenza di queste ultime
A me,oltre a questo, interessa che Amd diventi competitiva sulla fascia alta.
Non lo scordo,ma l'incazzatura ti viene perchè uscita molto dopo e mi auguro che Rdna2 non vada a rapportarsi con la 2080Ti(aka 3070) e che sia un mezzo flop come Vega.
quindi oggi una prestazione da 2080ti è diventata deludente :asd:
Cmq non si sa, si saprà il 28 come posizioneranno la scheda ergo o aspetti o aspetti per quello. O compri una 3080 se riesci prima di allora
Si sta disquisendo sul sesso degli angeli... all'epoca AMD non poteva rispondere a NVidia perchè pur se l'architettura RDNA era promettente, per superare leggermente la 2070 servivano i 220W della 5700Xt. Anche raddoppiando la 5700 avremmo avuto una scheda che andava poco più della 2800Ti ma con un'assorbimento di potenza esagerato (più di 300W) e senza parecchie features come RTX e variable rate shaders... Quindi poco appetibile senza se e senza ma, e giustamente un'azienda non spende soldi per sviluppare un chip che poi non genera utili (e dato che per i datacenter si era già deciso di "sdoppiare" l'architettura tra RDNA e CDNA, non ci sarebbero stati neppure i proventi derivanti dall'uso professionale).
Adesso i miglioramenti di RDNA2 (se confermati) e l'aggiunta del Ray tracing e Variable Rate Shaders, potrebbero consentire una buona competitività prestazionale e a livello di features con un assorbimento di potenza che sembrerebbe dai rumors inferiore alla concorrenza. Quindi è normale che AMD provi a tornare a competere. E se lo scaling è quello dimostrato da RDNA, e i clock sono effettivamente quelli rumoreggiati, le prestazioni possono esserci. Chiaro che ci sono molti "se" ma se le prestazioni e i consumi che sono stati indicati dai rumors per la XboX series X sono realistici, beh, non c'è male.
Sono discorsi troppo sensati questi. Almeno in questo thread.
Ton90maz
15-09-2020, 13:01
Affare in raster,ma in Rt?
A me,oltre a questo, interessa che Amd diventi competitiva sulla fascia alta.
Non lo scordo,ma l'incazzatura ti viene perchè uscita molto dopo e mi auguro che Rdna2 non vada a rapportarsi con la 2080Ti(aka 3070) e che sia un mezzo flop come Vega.Altro che mezzo :asd:
Era un flop su: consumi, prezzi, ritardo, prestazioni
Dei veri cessi di schede che hanno cominciato a costare il giusto solo quando era troppo tardi
Ale55andr0
15-09-2020, 13:05
Una GPU 3080 like a 569 a euro? Ma neanche nel mondo delle favole dai
all'epoca con la 90 liscia portarono a 400 euro prestazioni di "fascia titan", che ne costava quanti? 1000? Ora, so che gli slogan di una azienda contano come il parere sul vino dell'oste intendiamoci, ma se dicono che per loro rdna2 sarà il "ryzen delle gpu" allora PER FORZA vogliono essere molto competitivi lato prezzo (ricordatevi quanto costavano 8 core intel..) e non vedo motivo per cui non possano con un chip più piccolo e un pp ormai rodato, esserlo.
Altro che mezzo :asd:
Era un flop su: consumi, prezzi, ritardo, prestazioni
Dei veri cessi di schede che hanno cominciato a costare il giusto solo quando era troppo tardi
beh, allora confidiamo che non ripetano lo stesso errore :)
MrBrillio
15-09-2020, 13:35
all'epoca con la 90 liscia portarono a 400 euro prestazioni di "fascia titan", che ne costava quanti?
Quindi una VGA che esce 9 mesi dopo (immagino tu ti riferisca alla 290) che va come la top di Nvidia "vecchia" ok? Gridiamo al miracolo?
Che poi...prestazioni fascia titan...nzomma...
Ale55andr0
15-09-2020, 13:40
Quindi una VGA che esce 9 mesi dopo (immagino tu ti riferisca alla 290) che va come la top di Nvidia "vecchia" ok? Gridiamo al miracolo?
Che poi...prestazioni fascia titan...nzomma...
peccato che nove mesi dopo nvidia non offriva nulla di quelle prestazioni a quel prezzo prendendo nvidia alla sprovvista... Se poi è tutto così facile e non ci fu nulla di "miracoloso" buon per te, sei un genio nel fare le gpu ;)
Già ai possessori di 780 da 700€ ancora probabilmente gli brucia
Ma il colpo di genio che si fece venire amd con hawaii fu di lasciare le sole reference per tre mesi sul mercato così tutti potevano sentirsi meglio adducendo che il rumore che facevano quelle reference era insopportabile e potevano comprare di nuovo nvidia a meno
FrancoBit
15-09-2020, 13:45
r9 290x (Direct CU II) l'ho avuta, gran scheda, è stata l'ultima Ati/AMD che ho avuto, bei ricordi.
MrBrillio
15-09-2020, 13:51
r9 290x (Direct CU II) l'ho avuta, gran scheda, è stata l'ultima Ati/AMD che ho avuto, bei ricordi.
Anche io avevo un CF di 290X..ahhahaha il CF della morte :D
Comunque travisate le mie parole...qui si sta parlando di concorrenza inesistente o che arriva dopo mesi e mesi di ritardo (come accade ormai da un po' di generazioni)..comunque dai bona o si va troppo OT con mezze flammate.
FrancoBit
15-09-2020, 13:54
Anche io avevo un CF di 290X..ahhahaha il CF della morte :D
Comunque travisate le mie parole...qui si sta parlando di concorrenza inesistente o che arriva dopo mesi e mesi di ritardo (come accade ormai da un po' di generazioni)..comunque dai bona o si va troppo OT con mezze flammate.
Si vero, chiudiamo OT, è che mi sembra contemporaneamente così poco e così tanto tempo fa, starò rincoglionendo :doh:
Ton90maz
15-09-2020, 14:10
Si sta disquisendo sul sesso degli angeli... all'epoca AMD non poteva rispondere a NVidia perchè pur se l'architettura RDNA era promettente, per superare leggermente la 2070 servivano i 220W della 5700Xt. Anche raddoppiando la 5700 avremmo avuto una scheda che andava poco più della 2800Ti ma con un'assorbimento di potenza esagerato (più di 300W) e senza parecchie features come RTX e variable rate shaders... Quindi poco appetibile senza se e senza ma, e giustamente un'azienda non spende soldi per sviluppare un chip che poi non genera utili (e dato che per i datacenter si era già deciso di "sdoppiare" l'architettura tra RDNA e CDNA, non ci sarebbero stati neppure i proventi derivanti dall'uso professionale).
Adesso i miglioramenti di RDNA2 (se confermati) e l'aggiunta del Ray tracing e Variable Rate Shaders, potrebbero consentire una buona competitività prestazionale e a livello di features con un assorbimento di potenza che sembrerebbe dai rumors inferiore alla concorrenza. Quindi è normale che AMD provi a tornare a competere. E se lo scaling è quello dimostrato da RDNA, e i clock sono effettivamente quelli rumoreggiati, le prestazioni possono esserci. Chiaro che ci sono molti "se" ma se le prestazioni e i consumi che sono stati indicati dai rumors per la XboX series X sono realistici, beh, non c'è male.
Oddio, poco appetibile mica tanto, se al giusto prezzo. Poi è mancato quel chip ma hanno avuto il coraggio di far uscire quell'aborto della baracca iper, pochi mesi prima.
Anche io avevo un CF di 290X..ahhahaha il CF della morte :D
Comunque travisate le mie parole...qui si sta parlando di concorrenza inesistente o che arriva dopo mesi e mesi di ritardo (come accade ormai da un po' di generazioni)..comunque dai bona o si va troppo OT con mezze flammate.
e non si vuole ammettere
leoneazzurro
15-09-2020, 14:23
Oddio, poco appetibile mica tanto, se al giusto prezzo. Poi è mancato quel chip ma hanno avuto il coraggio di far uscire quell'aborto della baracca iper, pochi mesi prima.
Radeon VII? Ma quello è "uno scarto" del chip professionale, quindi farlo uscire costava praticamente nulla ad AMD. Discorso diverso per un chip solo gaming.
VanCleef
15-09-2020, 15:01
Anche io avevo un CF di 290X..ahhahaha il CF della morte :D
Comunque travisate le mie parole...qui si sta parlando di concorrenza inesistente o che arriva dopo mesi e mesi di ritardo (come accade ormai da un po' di generazioni)..comunque dai bona o si va troppo OT con mezze flammate.
in fascia alta inesistente...
Gyammy85
15-09-2020, 15:17
Oddio, poco appetibile mica tanto, se al giusto prezzo. Poi è mancato quel chip ma hanno avuto il coraggio di far uscire quell'aborto della baracca iper, pochi mesi prima.
Che andava comunque il 35% in più consumando meno, non andava il 25% in più consumando 70m watt in più spacciando architetture rivoluzionarie, chi vuole capire capisce
fraussantin
15-09-2020, 15:18
Le prestazioni si misurano in sputacchi :asd:
https://www.tweaktown.com/news/75139/amd-big-navi-hits-spitting-distance-of-geforce-rtx-3080-performance/index.html?utm_source=dlvr.it&utm_medium=facebook
FrancoBit
15-09-2020, 15:19
Le prestazioni si misurano un sputacchi :asd:
https://www.tweaktown.com/news/75139/amd-big-navi-hits-spitting-distance-of-geforce-rtx-3080-performance/index.html?utm_source=dlvr.it&utm_medium=facebook
Eh ma perchè non ce n'è di coviddi :doh:
mikael84
15-09-2020, 15:22
Che andava comunque il 35% in più consumando meno, non andava il 25% in più consumando 70m watt in più spacciando architetture rivoluzionarie, chi vuole capire capisce
Ci mancherebbe che uno shrink su un nodo nettamente superiore, con 2 stack di HBM in più, andasse meno e consumasse di più.:p
Gyammy85
15-09-2020, 15:23
Le prestazioni si misurano in sputacchi :asd:
https://www.tweaktown.com/news/75139/amd-big-navi-hits-spitting-distance-of-geforce-rtx-3080-performance/index.html?utm_source=dlvr.it&utm_medium=facebook
Tirano su una news su una frase di moore law is dead in un suo video dove dice tipo "piglia minimo la 3080 se no asfalta e distrugge la 3070", che poi è la stessa cosa
Gyammy85
15-09-2020, 15:25
Ci mancherebbe che uno shrink su un nodo nettamente superiore, con 2 stack di HBM in più, andasse meno e consumasse di più.:p
Perché da turing a ampere non c'è lo shrink? O dobbiamo negare anche questo? Neghiamo pure che stanno millantando 2x sp quando al massimo ne usa +10%?
Ah già, ben due stack di hbm in più...mah
fraussantin
15-09-2020, 15:31
Parlando di cose serie
Ma questi spinotti dietro a cosa servono .?
https://uploads.tapatalk-cdn.com/20200915/27515f83cee61a228afd117c9ae9d0d0.jpg
AceGranger
15-09-2020, 15:31
Perché da turing a ampere non c'è lo shrink? O dobbiamo negare anche questo? Neghiamo pure che stanno millantando 2x sp quando al massimo ne usa +10%?
Ah già, ben due stack di hbm in più...mah
questa si che è matematica :sofico:
ninja750
15-09-2020, 15:33
dalla foto quel 8+8 pin non lascia presagire nulla di buono :fagiano:
mikael84
15-09-2020, 15:36
Perché da turing a ampere non c'è lo shrink? O dobbiamo negare anche questo?
Si uno shrink con il 50% di transistor in più.:asd:
Una Vega a quasi 20mtransistor, non l'ho mai vista.
Neghiamo pure che stanno millantando 2x sp quando al massimo ne usa +10%?
Quindi a logica una 3080, dovrebbe andare un 10% scarso. Vediamo domani, me lo segno.:p
Guarda che se non succede, fai una figuraccia.
Ah già, ben due stack di hbm in più...mah
Ah già, 512 gb/s di ram, parliamo di una banda oltre le 5700xt e 200$.:p
https://images.anandtech.com/graphs/graph13923/106275.png
Gyammy85
15-09-2020, 15:42
Parlando di cose serie
Ma questi spinotti dietro a cosa servono .?
https://uploads.tapatalk-cdn.com/20200915/27515f83cee61a228afd117c9ae9d0d0.jpg
Sembra lo spinotto dove si attaccano le ventole
questa si che è matematica :sofico:
Intendevo che su 8000 sp ne sfrutta al massimo 5000
Andy1111
15-09-2020, 15:46
Si uno shrink con il 50% di transistor in più.:asd:
Una Vega a quasi 20mtransistor, non l'ho mai vista.
Quindi a logica una 3080, dovrebbe andare un 10% scarso. Vediamo domani, me lo segno.:p
Guarda che se non succede, fai una figuraccia.
Ah già, 512 gb/s di ram, parliamo di una banda oltre le 5700xt e 200$.:p
https://images.anandtech.com/graphs/graph13923/106275.png
mikael quando hai tempo guarda il video per favore e dimmi che ne pensi grazie
https://www.hwupgrade.it/forum/showpost.php?p=46974206&postcount=57270
mikael84
15-09-2020, 15:48
mikael quando hai tempo guarda il video per favore e dimmi che ne pensi grazie
https://www.hwupgrade.it/forum/showpost.php?p=46974206&postcount=57270
L'ho scritto di la tutto quello che so per ora, sulla shader a 128kb, BW l1, RT 2.0. Domani pure io, posso vederlo sul campo realmente.:)
non mi aspetto certo prestazioni inferiori a turing in rt. Poi magari non arriverà ad ampere da quel punto di vista ma a quel punto bisognerebbe anche porsi altre domande:
-le prestazioni in RT prescindono l'engine specifico e le sponsorizzazioni o è prestazione garantita sempre e comunque in base all'architettura? Voglio dire, facile che in cyberpunk andrà meglio l'RT nvidia, ma in un ipotetico gioco RT sponsorizzato da AMD sarà uguale?
-quanti e quali giochi in RT avremo in concomitanza con la vita utile della scheda?
per dire, MS2020 non è certo in RT ma spacca uguale, e considerando che cmq avremo molti porting console non so quanti di essi sfrutteranno l'RT nativamente stante la "bassa" potenza di queste ultime
quindi oggi una prestazione da 2080ti è diventata deludente :asd:
Cmq non si sa, si saprà il 28 come posizioneranno la scheda ergo o aspetti o aspetti per quello. O compri una 3080 se riesci prima di allora
Guardatevi questo video che parla del mercato 3080 dal 17. Non mi sembra uno che dice fesserie. Cioè non lo conosco, ma se è il suo lavoro ne saprà qualcosa...
Forse aspettare AMD non è poi una cattiva idea anche per chi ha deciso di cambiare bandiera
https://www.youtube.com/watch?v=nQR0SJ4l0Gc
L'ho scritto di la tutto quello che so per ora, sulla shader a 128kb, BW l1, RT 2.0. Domani pure io, posso vederlo sul campo realmente.:)
Intendevi dire shared memory, giusto?
dalla foto quel 8+8 pin non lascia presagire nulla di buono :fagiano:
e perchè scusa? :fagiano: meglio un 12 pin? :sofico:
mikael84
15-09-2020, 15:55
Intendevi dire shared memory, giusto?
Si, ho sbagliato.
ninja750
15-09-2020, 16:05
e perchè scusa? :fagiano: meglio un 12 pin? :sofico:
mi pare di ricordare che le reference fossero massimo 8+6 e le custom 8+8
se già partiamo 8+8 dalla reference ipotizzo consumi alti già con PL0% default
Gyammy85
15-09-2020, 16:20
mi pare di ricordare che le reference fossero massimo 8+6 e le custom 8+8
se già partiamo 8+8 dalla reference ipotizzo consumi alti già con PL0% default
No no, vega 64 e radeon 7 avevano 2x8 pin
Se la settano a 300 watt ci stanno tutti, non mancheranno le 8+6 pin tipo l'es di giorni fa
Si, ho sbagliato.
E va beh, capita :( volevo giusto capire se stessi parlando della stessa cosa che stavo pensando :fagiano:
mi pare di ricordare che le reference fossero massimo 8+6 e le custom 8+8
se già partiamo 8+8 dalla reference ipotizzo consumi alti già con PL0% default
quella è la 6900, la top, non la sostituta delle 5700 (6700? :stordita: ) :fagiano:
mikael84
15-09-2020, 16:38
E va beh, capita :( volevo giusto capire se stessi parlando della stessa cosa che stavo pensando :fagiano:
:D Si parlavo di quello.
Ton90maz
15-09-2020, 16:49
Radeon VII? Ma quello è "uno scarto" del chip professionale, quindi farlo uscire costava praticamente nulla ad AMD. Discorso diverso per un chip solo gaming.
Il problema è che faceva schifo pure lì :asd:
per gran parte degli scopi era addirittura più inadeguata di quanto non lo fosse rispetto alle turing nel gaming
Tutti a parlare male di amd e poi magari invidia a rimandato di due giorni le reviews per sostituire delle schede bruciate ai recensori, alla fine è tutto bello compatto e le memorie sono tra chip e vrm.
Ellamadonna :sofico:
fraussantin
15-09-2020, 17:16
Tutti a parlare male di amd e poi magari invidia a rimandato di due giorni le reviews per sostituire delle schede bruciate ai recensori, alla fine è tutto bello compatto e le memorie sono tra chip e vrm.Più probabile che abbiano aggiornato i driver per sfruttare meglio la nuova architettura e rifatto fare i test a tutti .
OrazioOC
15-09-2020, 17:39
Più probabile che abbiano aggiornato i driver per sfruttare meglio la nuova architettura e rifatto fare i test a tutti .
Ma no dai, è evidente che i recensori per far apparire le rtx 3080 superiore alla vega 7 le abbiano overvoltate talmente tanto da farle bruciare. :asd:
Magari per paura delle nuove rdna 2 gli hanno dato una ritoccata al bios stile rx 5600 xt.
fraussantin
15-09-2020, 17:51
Ma no dai, è evidente che i recensori per far apparire le rtx 3080 superiore alla vega 7 le abbiano overvoltate talmente tanto da farle bruciare. :asd:
Magari per paura delle nuove rdna 2 gli hanno dato una ritoccata al bios stile rx 5600 xt.:asd:
amon.akira
15-09-2020, 18:38
r9 290x (Direct CU II) l'ho avuta, gran scheda, è stata l'ultima Ati/AMD che ho avuto, bei ricordi.
Stessa mia situazione, l'ultima AMD la 290x poi sono passato a maxwell e AMD più avute.
uguale presi la 290 al dayone 400euro la msi e venivo da 7950, poi maxwell,pascal,turing,ampere
Di AMD si può criticare tutto, come del resto nvidia, però la mancata concorrenza alla 2080ti va valutata.
Nvidia disegna quei chip per il pro, via quadro, con nvlink etc.
Il chip puro l'ha venduto a 10000$ con 48gb a conchiglia, che diventano 96 in nvlink, e 6400 con 24gb/48gb in nvlink.
Con lo stesso chip ha tirato fuori una Titan da 24gb sempre per esigenze pro a 2500$.
Avendo il chip, e visto che non si butta via niente, un chip devastato, con cache fallata l'ha utilizzato per coprire una carissima fascia gaming, ma il chip nasce per altro fondamentalmente, altrimenti un 754 da gaming, non l'avrebbe mai tirato fuori.:)
Si sta disquisendo sul sesso degli angeli... all'epoca AMD non poteva rispondere a NVidia perchè pur se l'architettura RDNA era promettente, per superare leggermente la 2070 servivano i 220W della 5700Xt. Anche raddoppiando la 5700 avremmo avuto una scheda che andava poco più della 2800Ti ma con un'assorbimento di potenza esagerato (più di 300W) e senza parecchie features come RTX e variable rate shaders... Quindi poco appetibile senza se e senza ma, e giustamente un'azienda non spende soldi per sviluppare un chip che poi non genera utili (e dato che per i datacenter si era già deciso di "sdoppiare" l'architettura tra RDNA e CDNA, non ci sarebbero stati neppure i proventi derivanti dall'uso professionale).
Adesso i miglioramenti di RDNA2 (se confermati) e l'aggiunta del Ray tracing e Variable Rate Shaders, potrebbero consentire una buona competitività prestazionale e a livello di features con un assorbimento di potenza che sembrerebbe dai rumors inferiore alla concorrenza. Quindi è normale che AMD provi a tornare a competere. E se lo scaling è quello dimostrato da RDNA, e i clock sono effettivamente quelli rumoreggiati, le prestazioni possono esserci. Chiaro che ci sono molti "se" ma se le prestazioni e i consumi che sono stati indicati dai rumors per la XboX series X sono realistici, beh, non c'è male.
Due ragionamenti che condivido,il resto che ho letto al riguardo IMHO sono come le discussioni al bar "la domenica prima delle partite"
Oirasor_84
15-09-2020, 19:39
Rx 6800 best buy segnate...
Prestazioni superiori a 3070 di circa il 5/7% in 4k,tdp 250w 16gb 449$
Inviato dal mio Mi A1 utilizzando Tapatalk
Rx 6800 best buy segnate...
Prestazioni superiori a 3070 di circa il 5/7% in 4k,tdp 250w 16gb 449$
Inviato dal mio Mi A1 utilizzando Tapatalk
Se questo è vero, abbiamo acchiappato la 3080, con Big navi:)
Rx 6800 best buy segnate...
Prestazioni superiori a 3070 di circa il 5/7% in 4k,tdp 250w 16gb 449$
Inviato dal mio Mi A1 utilizzando Tapatalk
:cincin:
Oirasor_84
15-09-2020, 20:14
Se questo è vero, abbiamo acchiappato la 3080, con Big navi:)Non è detto, fin'ora amd nella fascia top ha sempre piazzato chip molto vicini in termini di prestazioni, solitamente attorno al 10% di differenza.
Mi pare di capire che fra la 3070 e la 3080 c'è spazio per un'altra sbarra 2 vga che se vendute al giusto prezzo,daranno uno scossone al mercato.
Quindi rimanendo in modalità ottimista 6800 e 6900 con prestazioni tra 3070 e 3080,magari con la 6900 giusto quel 5% meno della 3080 in 4k.
Inviato dal mio Mi A1 utilizzando Tapatalk
leoneazzurro
15-09-2020, 20:25
Anche Navi 2x supporta il decoding AV1
https://forum.beyond3d.com/posts/2155808/
Ale55andr0
15-09-2020, 20:48
Rx 6800 best buy segnate...
Prestazioni superiori a 3070 di circa il 5/7% in 4k,tdp 250w 16gb 449$
Inviato dal mio Mi A1 utilizzando Tapatalk
dove si firma?
cmq se la big costa solo un centone in più un pensierino ce lo faccio :asd:
fraussantin
15-09-2020, 21:04
Rx 6800 best buy segnate...
Prestazioni superiori a 3070 di circa il 5/7% in 4k,tdp 250w 16gb 449$
Inviato dal mio Mi A1 utilizzando TapatalkCioè per 50 euro in meno ti danno 3-5 fps in più in 4k 30 w in più di tdp e niente raytracing ne dlss? Non penso.
Secondo me almeno sulla reference la piccola costerà 399 ad 8 giga . 16 sulla big a 599
Non è detto, fin'ora amd nella fascia top ha sempre piazzato chip molto vicini in termini di prestazioni, solitamente attorno al 10% di differenza.
Mi pare di capire che fra la 3070 e la 3080 c'è spazio per un'altra sbarra 2 vga che se vendute al giusto prezzo,daranno uno scossone al mercato.
Quindi rimanendo in modalità ottimista 6800 e 6900 con prestazioni tra 3070 e 3080,magari con la 6900 giusto quel 5% meno della 3080 in 4k.
Inviato dal mio Mi A1 utilizzando Tapatalk
Magari....
OvErClOck82
15-09-2020, 21:07
Cioè per 50 euro in meno ti danno 3-5 fps in più in 4k 30 w in più di tdp e niente raytracing ne dlss? Non penso.
Secondo me almeno sulla reference la piccola costerà 399 ad 8 giga . 16 sulla big a 599Beh, 3-5 fps solitamente significano "asfaltata" a seconda di che parte si considera la questione :D
Inviato dal mio Redmi Note 8 Pro utilizzando Tapatalk
Oirasor_84
15-09-2020, 21:17
Cioè per 50 euro in meno ti danno 3-5 fps in più in 4k 30 w in più di tdp e niente raytracing ne dlss? Non penso.
Secondo me almeno sulla reference la piccola costerà 399 ad 8 giga . 16 sulla big a 599
Mi sono perso la notizia dove amd dichiara che non ci sarà supporto hardware al raytracing con rdna2?
Inviato dal mio Mi A1 utilizzando Tapatalk
fraussantin
15-09-2020, 21:19
Mi sono perso la notizia dove amd dichiara che non ci sarà supporto hardware al raytracing con rdna2?
Inviato dal mio Mi A1 utilizzando TapatalkGuarda se il raytracing funzionerà bene in 4k sulla piccola tanto di cappello , dimmi dove sei ti offro un caffè!
Non funzionerà sulla 3090 imho senza upscaling.
In 2k forse con la 3070 e il dlss da 720p o meno andrà decentemente. Forse .. infatti non caccio fuori un euro finchè non vedo le recensioni di c2077
Anche Navi 2x supporta il decoding AV1
https://forum.beyond3d.com/posts/2155808/
ci sono un paio di succosi riferimenti in questi 3d
""Actually hardcore OC" made an interesting analysis, he said that the location of the bracket and and screws may suggest HBM because of how far apart they are. would be interesting to see a real one and make some measurements.
About the cache i am also skeptical...but Sony said they asked for specific features that the GPU most have and that if we see similar design in the retail GPU is because AMD saw potential for client use and decided to implement it in the retail version of the Arch. So if this "Infinity cache" is real it may be a Sony idea and therefore explain why it is not in the Xbox and why Sony is being so secret about its Die. "
"There are two chips, Navy Flounder and Sienna Cichlid, one is HBM the other is G6. "
magari scopro l'acqua calda......
HBM sulla top XT sarebbe in effetti il top per l'utente, meno per gli azionisti amd (immaginate dove mi metto :asd: )
Inoltre la versione ddr6 potrebbe benissimo essere in declinazione post-navi1 per ovvi discorsi lato costi della vga vista la fascia
I 384 bit su ddr6 16gbit sono "pochi" per la tradizione amd delle ultime architetture top, per arrivare poi a quei 16gb che saranno sicuramente sfruttati da amd in chiave markettaro anti-3080, non hanno senso...
6900 XT + cut 2 stack HBM2 aquabolt 16GB (sulla cut scrause, sulla XT binnate)
6800 XT + cut 256 bit 8GB DDR6 16gbit (idem con patate)
6700 navi1 rebrandate 8gb 14gbit
ma poi quella 6900XT con hbm powa scazzotta con il perf/$, da cui si capirebbe ancora di più la pre-mossa nvidia dei 699$msrp sulla nuova Ti, cough! 3080. Oltre alla marea di possessori pascal che hanno bellamente mandato a f.... la serie turing.
AkiraFudo
15-09-2020, 21:27
Beh, 3-5 fps solitamente significano "asfaltata" a seconda di che parte si considera la questione :D
Inviato dal mio Redmi Note 8 Pro utilizzando Tapatalk
https://i.postimg.cc/WbGV2Mp2/Immagine.png
Mi sono perso la notizia dove amd dichiara che non ci sarà supporto hardware al raytracing con rdna2?
Inviato dal mio Mi A1 utilizzando Tapatalk
Tutto deve avere supporto hardware per girare altrimenti sarebbe vaporware
RDNA2 è la prima architettura amd a supportare il RT DX12 Ultimate feature level, di più non serve, come lo faccia, chissenefrega (parlo per me)
Ma al momento chissenefrega proprio dell'RT :asd: su Hunt Showdown non c'è, magari su Star Renegades :asd:
Oirasor_84
15-09-2020, 21:30
Guarda se il raytracing funzionerà bene in 4k sulla piccola tanto di cappello , dimmi dove sei ti offro un caffè!
Non funzionerà sulla 3090 imho senza upscaling.
In 2k forse con la 3070 e il dlss da 720p o meno andrà decentemente. Forse .. infatti non caccio fuori un euro finchè non vedo le recensioni di c2077Da come hai scritto sembrava che amd presentasse una vga con prestazione da 3070 senza supporto al raytracing.
Sulla bontà delle prestazioni in raytracing non si può nemmeno fantasticare,troppi fattori in gioco aggiunti al fatto che non si sa nulla di come sarà gestito.
Inviato dal mio Mi A1 utilizzando Tapatalk
AkiraFudo
15-09-2020, 21:34
Guarda se il raytracing funzionerà bene in 4k sulla piccola tanto di cappello , dimmi dove sei ti offro un caffè!
Non funzionerà sulla 3090 imho senza upscaling.
In 2k forse con la 3070 e il dlss da 720p o meno andrà decentemente. Forse .. infatti non caccio fuori un euro finchè non vedo le recensioni di c2077
no vabbe dai 720p nel 2020; anche se dlss e con diavolerie varie sarebbe troppo triste. :D
OrazioOC
15-09-2020, 21:35
https://videocardz.com/newz/amd-radeon-rx-6000-3-fan-and-2-fan-graphics-card-pictures-leaked-by-jayztwocents
fraussantin
15-09-2020, 21:37
no vabbe dai 720p nel 2020; anche se dlss e con diavolerie varie sarebbe troppo triste. :DSe fanno macinare bene i supercomputer il risultato è buono , vedi DS.
Poi vabbè c2077 è un altra cosa , ma secondo me questo ultimo ritardo è dato proprio per ottimizzare queste funzionalità mentre che aspettano ampere.
Le nVidia si comprano ad occhi chiusi, che senso ha aspettare... The faith it's meant to be prayed!
:asd::asd:
zetalife
15-09-2020, 21:46
Scusate ma non ho capito, usciranno 2 schede RX 6800 e RX 6900?
La triple fan dovrebbe essere proprio la 6900
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Ale55andr0
15-09-2020, 21:52
ci sono un paio di succosi riferimenti in questi 3d
""Actually hardcore OC" made an interesting analysis, he said that the location of the bracket and and screws may suggest HBM because of how far apart they are. would be interesting to see a real one and make some measurements.
About the cache i am also skeptical...but Sony said they asked for specific features that the GPU most have and that if we see similar design in the retail GPU is because AMD saw potential for client use and decided to implement it in the retail version of the Arch. So if this "Infinity cache" is real it may be a Sony idea and therefore explain why it is not in the Xbox and why Sony is being so secret about its Die. "
"There are two chips, Navy Flounder and Sienna Cichlid, one is HBM the other is G6. "
magari scopro l'acqua calda......
HBM sulla top XT sarebbe in effetti il top per l'utente, meno per gli azionisti amd (immaginate dove mi metto :asd: )
Inoltre la versione ddr6 potrebbe benissimo essere in declinazione post-navi1 per ovvi discorsi lato costi della vga vista la fascia
I 384 bit su ddr6 16gbit sono "pochi" per la tradizione amd delle ultime architetture top, per arrivare poi a quei 16gb che saranno sicuramente sfruttati da amd in chiave markettaro anti-3080, non hanno senso...
6900 XT + cut 2 stack HBM2 aquabolt 16GB (sulla cut scrause, sulla XT binnate)
6800 XT + cut 256 bit 8GB DDR6 16gbit (idem con patate)
6700 navi1 rebrandate 8gb 14gbit
ma poi quella 6900XT con hbm powa scazzotta con il perf/$, da cui si capirebbe ancora di più la pre-mossa nvidia dei 699$msrp sulla nuova Ti, cough! 3080. Oltre alla marea di possessori pascal che hanno bellamente mandato a f.... la serie turing.
https://www.youtube.com/watch?v=7WE84fnaZmA
Ale55andr0
15-09-2020, 21:59
https://videocardz.com/newz/amd-radeon-rx-6000-3-fan-and-2-fan-graphics-card-pictures-leaked-by-jayztwocents
confermo, mi fa veramente cagare al cubo visivamente, a ogni modo mi interessano le prestazioni ecc. ecc.
Gyammy85
15-09-2020, 22:01
https://i.postimg.cc/BnJhtppn/2020-09-15.png (https://postimg.cc/ykrhbF2M)
Si vede anche il backplate, sembrerebbe più grossa della radeon 7 quindi i 500 mm2 a questo punto sono confermati
Gyammy85
15-09-2020, 22:02
confermo, mi fa veramente cagare al cubo visivamente, a ogni modo mi interessano le prestazioni ecc. ecc.
Quella è un prototipo, gli altri son render
Gigibian
15-09-2020, 22:05
https://i.postimg.cc/BnJhtppn/2020-09-15.png (https://postimg.cc/ykrhbF2M)
Si vede anche il backplate, sembrerebbe più grossa della radeon 7 quindi i 500 mm2 a questo punto sono confermati
Ma quindi non si puo' proprio sperare abbia performance superiori della 3070 ? :cry: che dicono le ultime indiscrezioni?
Perchè così fosse già partiamo male: 2 connettori da 8 pin, per battere la 3070 che ne usa uno solo da 8. (adattato a 12 ma quello è solo una questione di forma).
Speriamo non si riproponga vega, consumi molto maggiori per agguantare le performance della fascia medio-alta.
Il mio PC full-amd ha bisogno di un adeguato successore.
Gyammy85
15-09-2020, 22:08
Ma quindi non si puo' proprio sperare abbia performance superiori della 3070 ? :cry: che dicono le ultime indiscrezioni?
Perchè così fosse già partiamo male: 2 connettori da 8 pin, per battere la 3070 che ne usa uno solo da 8. (adattato a 12 ma quello è solo una questione di forma).
Speriamo non si riproponga vega, consumi molto maggiori per agguantare le performance della fascia medio-alta.
Il mio PC full-amd ha bisogno di un adeguato successore.
Presenteranno 3 gpu, ognuna contro le tre nvidia, a mio avviso la top starà fra 3080 e 3090, qualcuno ipotizza che nvidia lanci la 3080ti e già ci sono tracce di una 3070ti da 16 giga
fraussantin
15-09-2020, 22:13
Presenteranno 3 gpu, ognuna contro le tre nvidia, a mio avviso la top starà fra 3080 e 3090, qualcuno ipotizza che nvidia lanci la 3080ti e già ci sono tracce di una 3070ti da 16 gigaSulla 3070 ti si ci credo , ma non prima di primavera imho.
E idem per la 3080ti.
Jackson ha chiamato la 3080 flagship Di ampere , se fra 1 mese fa uscire qualcosa da gaming migliore si prende uova marce in faccia...
OvErClOck82
15-09-2020, 22:17
Sulla 3070 ti si ci credo , ma non prima di primavera imho.
E idem per la 3080ti.
Jackson ha chiamato la 3080 flagship Di ampere , se fra 1 mese fa uscire qualcosa da gaming migliore si prende uova marce in faccia...Ma quali uova marce, che c'è gente disposta a tirargli le mutande :D
Inviato dal mio Redmi Note 8 Pro utilizzando Tapatalk
Ale55andr0
15-09-2020, 22:20
Quella è un prototipo, gli altri son render
mi fa rimettere a priori esteticamente, che sia un render o fisicamente tangibile
fraussantin
15-09-2020, 22:21
mi fa rimettere a priori esteticamente, che sia un render o fisicamente tangibileVabbè sono plasticoni ,ma la grande non è accia...
La piccola sembra un condizionatore industriale in miniatura ..
Oirasor_84
15-09-2020, 22:22
confermo, mi fa veramente cagare al cubo visivamente, a ogni modo mi interessano le prestazioni ecc. ecc.
Concordo è zaurdunaaa ;) ,molto sapphire stile non mi stupirei se sapphire gli schiaffeggiasse 4 sticker e la vendesse come custom.
Ale55andr0
15-09-2020, 22:22
Vabbè sono plasticoni ,ma la grande non è accia...
La piccola sembra un condizionatore industriale in miniatura ..
mi infastidisce soprattutto quella specie di cornice rossa
fraussantin
15-09-2020, 22:36
Concordo è zaurdunaaa ;) ,molto sapphire stile non mi stupirei se sapphire gli schiaffeggiasse 4 sticker e la vendesse come custom.Da quello che so sentito su YTube pare se le faccia fare da sapphire.. ( non so quanto possa essere vero)
Gigibian
15-09-2020, 22:37
Presenteranno 3 gpu, ognuna contro le tre nvidia, a mio avviso la top starà fra 3080 e 3090, qualcuno ipotizza che nvidia lanci la 3080ti e già ci sono tracce di una 3070ti da 16 giga
Quindi sia nvidia che AMD a sto giro 7nm EUV ?
Quindi già presupponi, te che sei storicament ottimista AMD :D, che AMD non riuscirà cmq a raggiungere le 3090 giusto?
Ma già raggiungesse la 3080 sarebbe grasso che cola! Sperem!
mircocatta
15-09-2020, 22:52
confermo, mi fa veramente cagare al cubo visivamente, a ogni modo mi interessano le prestazioni ecc. ecc.
a me piace e al contrario di molti mi fan cagare a spruzzo le ampere FE, so' gusti :boh:
Quindi sia nvidia che AMD a sto giro 7nm EUV ?
Quindi già presupponi, te che sei storicament ottimista AMD :D, che AMD non riuscirà cmq a raggiungere le 3090 giusto?
Ma già raggiungesse la 3080 sarebbe grasso che cola! Sperem!
Vabbè che tra 3080 e 3090 balleranno si e no il 15% di prestazioni...in questi casi credo che il rapporto price/performance prevalga su tutto. Poi chi vuole spendere 1500 euro per quel 15% è liberissimo di farlo e non dev'essere bollato come scemo, ma come "appassionato coissordi" :)
mi infastidisce soprattutto quella specie di cornice rossa
una bella passata di uniposca del colore che vuoi tu ed avrai una special custom :D
StylezZz`
15-09-2020, 23:43
a me piace e al contrario di molti mi fan cagare a spruzzo le ampere FE, so' gusti :boh:
Siamo in due...a 'sto giro nvidia e amd si sono invertite come design, anche se le ampere le vedo molto bene nei sistemi tipo Mac Pro etc...
la mia sfera di cristallo dice:
Big Navi: prestazioni -5% rispetto a 3080 a 659 soldi
Big Navi cut: prestazioni +/- 5% rispetto a 3070 a 499 soldi
se ci prendo me ne regalate una :p
Gyammy85
16-09-2020, 06:51
la mia sfera di cristallo dice:
Big Navi: prestazioni -5% rispetto a 3080 a 659 soldi
Big Navi cut: prestazioni +/- 5% rispetto a 3070 a 499 soldi
se ci prendo me ne regalate una :p
Non capisco perché debba andare meno della 3080
Fra una 980ti e una 1080 c'era più del 25/30%, eppure Vega stava sopra alla 1080, e parliamo di un'arch votata al calcolo e sempre sottoutilizzata in game, oltre a non avere un massiccio incremento perf/watt e IPC su Polaris
Si tende a sopravvalutare troppo la 3080 secondo me, qualcuno oggi resterà deluso
fraussantin
16-09-2020, 07:02
Si lol, questo i primi 10 secondi dopo aver letto l'eventuale annuncio, poi partirebbe l'isterismo sul mercatino, la scimmia compulsiva, il preorder ad occhi chiusi, la firma incoming per chiudere con "questa è l'ultima volta che mi fregano!!"
È cosi dannatamente ciclico che ormai JJ ad ogni lancio alza l'asticella per vedere quanto ancora può tirare la corda... :asd:No , dopo 1,2 mesi non la butterebbero giù in molti.
Già sta 2080ti ha frizzato a tanti .. vedrai che di 3090 ne venderanno ben poche a confronto. Molta gente l'ha capita che quella fascia a quel prezzo è una fregatura a prescindere.
Al massimo se ci sarà un problema di RAM farà uscire la 3080 identica con 20 giga a conchiglia.
Ma se non lo ha fatto fin da subito evidentemente sanno cosa amd ha in cantiere e si sentono sicuri.
OrazioOC
16-09-2020, 07:40
Non capisco perché debba andare meno della 3080
Fra una 980ti e una 1080 c'era più del 25/30%, eppure Vega stava sopra alla 1080, e parliamo di un'arch votata al calcolo e sempre sottoutilizzata in game, oltre a non avere un massiccio incremento perf/watt e IPC su Polaris
Si tende a sopravvalutare troppo la 3080 secondo me, qualcuno oggi resterà deluso
La 980 ti è stata sostituita dalla 1080 ti, così come la 2080 ti sarà sostituita dalla 3090, inoltre Vega 64 non è sopra neanche oggi alla gtx 1080, ma vabbe'. :asd:
https://www.computerbase.de/2020-09/amd-radeon-nvidia-geforce-ampere-rdna-2-benchmark-test/2/#abschnitt_benchmarks_in_2560__1440
fraussantin
16-09-2020, 07:50
Da Tapatalk non si vede la data di iscrizione
Quindi sia nvidia che AMD a sto giro 7nm EUV ?
Quindi già presupponi, te che sei storicament ottimista AMD :D, che AMD non riuscirà cmq a raggiungere le 3090 giusto?
Ma già raggiungesse la 3080 sarebbe grasso che cola! Sperem!
no
nvidia è su 8nm samsung
fraussantin
16-09-2020, 08:05
Cut
Oggi il forum pare una congrega di ragazzine a un concerto dei One Direction
Crysis90
16-09-2020, 08:37
eppure Vega stava sopra alla 1080
Ma dove. :asd:
https://www.techpowerup.com/review/amd-radeon-rx-vega-64/31.html
Nel migliore dei casi, andava alla pari.
Sennò, se ne stava dietro.
la mia sfera di cristallo dice:
Big Navi: prestazioni -5% rispetto a 3080 a 659 soldi
Big Navi cut: prestazioni +/- 5% rispetto a 3070 a 499 soldi
se ci prendo me ne regalate una :p
Se così sarà, considero i prezzi troppo alti. Se riescono a tenersi 100 e. sotto avrò ancora AMD nel mio pc.
Oggi il forum pare una congrega di ragazzine a un concerto dei One Direction
sei rimasto indietro, ora vanno i BTS :D
Se così sarà, considero i prezzi troppo alti. Se riescono a tenersi 100 e. sotto avrò ancora AMD nel mio pc.
è giusto un mio sentore. non ho nessuna anteprima particolare.
si però anche voi, che pretese avete sui prezzi?!? ve le devono regalare? :fagiano:
mircocatta
16-09-2020, 09:06
Ma dove. :asd:
https://www.techpowerup.com/review/amd-radeon-rx-vega-64/31.html
Nel migliore dei casi, andava alla pari.
Sennò, se ne stava dietro.
https://www.techpowerup.com/review/asus-radeon-rx-5700-xt-tuf-evo/28.html
Per quanto riguarda la 7, boh, è una Vega cut su 7nm, ne più ne meno, il salto rispetto alle precedenti è evidente
Crysis90
16-09-2020, 09:10
https://www.techpowerup.com/review/asus-radeon-rx-5700-xt-tuf-evo/28.html
Per quanto riguarda la 7, boh, è una Vega cut su 7nm, ne più ne meno, il salto rispetto alle precedenti è evidente
Per "Vega" si intendono ovviamente Vega 56 e 64.
La 5700 XT non aveva di certo le Pascal come target, ma le Turing.
ninja750
16-09-2020, 11:28
Big Navi cut: prestazioni +/- 5% rispetto a 3070 a 499 soldi
a quel prezzo non la comprerebbero nemmeno i fanboy più stipendiati :asd:
ninja750
16-09-2020, 11:32
https://i.postimg.cc/WbGV2Mp2/Immagine.png
già rido per i grafici con i consumi che usciranno tra poco :asd: tutti ovviamente misurati con il devkit fornito da nvidia un mese fa
Beh effettivamente io sono stato bannato per molto molto molto meno....:D :D
Comunque stavo leggendo che molti consigliano di aspettare ad acquistare le nuove GPU, addirittura di qualche mese
Oggi ha ancora meno senso...visto che mancano i giochi che richiedono tali prestazioni.
fabietto27
16-09-2020, 12:01
Edit
fraussantin
16-09-2020, 12:19
Oggi ha ancora meno senso...visto che mancano i giochi che richiedono tali prestazioni.Il gioco decisivo sarà cyberpunk 2077. Ma.anche Valhalla non scherzerà imho
Il gioco decisivo sarà cyberpunk 2077. Ma.anche Valhalla non scherzerà imho
mi immagino le risate se lo ritardano per la terza volta :p tutti a dover dirottare su minecraft per dare un senso all'acquisto
fraussantin
16-09-2020, 13:28
mi immagino le risate se lo ritardano per la terza volta :p tutti a dover dirottare su minecraft per dare un senso all'acquistoSe le 3080 saranno disponibili in quantità sufficente non ritarderà... Anche a costo di farlo uscire buggato.
Anche a costo di farlo uscire buggato.
Bhe quella è la prassi per ogni titolo AAA :asd:
mircocatta
16-09-2020, 14:44
facciamo i compitini
3080 +30% 2080ti quindi
5700xt 100%
2080ti 150%
3080 195%
se big navi gioca l'all-in e proverà a raggiungere il 2x rdna1 potrebbe tranquillamente andare attorno alla 3080
RoUge.boh
16-09-2020, 14:47
facciamo i compitini
3080 +30% 2080ti quindi
5700xt 100%
2080ti 150%
3080 195%
se big navi gioca l'all-in e proverà a raggiungere il 2x rdna1 potrebbe tranquillamente andare attorno alla 3080
Mah speriamo..sperando in consumi "umani" insomma la 3080 si parla di una scheda da 310 W...:stordita: :stordita:
Gyammy85
16-09-2020, 14:56
facciamo i compitini
3080 +30% 2080ti quindi
5700xt 100%
2080ti 150%
3080 195%
se big navi gioca l'all-in e proverà a raggiungere il 2x rdna1 potrebbe tranquillamente andare attorno alla 3080
C'è da dire che la 5700xt in diversi giochi ha qualche problema di banda a 4k, quindi quel 50% diventa 35% a 1440p
Ton90maz
16-09-2020, 15:29
C'è da dire che la 5700xt in diversi giochi ha qualche problema di banda a 4k, quindi quel 50% diventa 35% a 1440pE a 480p vanno quasi uguale, e allora? :asd:
Oggi ha ancora meno senso...visto che mancano i giochi che richiedono tali prestazioni.
Tieni presente che alcuni hanno fatto una scelta mirata. Acquistato una 2080 ti svalutata e aspettare qualche mese per far maturare tutte le schede AMD. E in effetti ci stavo facendo un pensierino anche io visto che gioco in 4 k spesso.
Ale55andr0
16-09-2020, 15:56
no ma la 5700XT non batte (come fosse nata per quello peraltro) la 1080ti e le prende dalla 2070s :asd:
https://www.hwupgrade.it/articoli/5827/media_fps-2.png
Arà* (&company), mi sa che hai preso un granchio, anzi, un'aragosta :sofico:
*In sicilia gli "Orazio" li chiamiamo amichevolmente Arazio :O
OrazioOC
16-09-2020, 15:59
*In sicilia gli "Orazio" li chiamiamo amichevolmente Arazio :O
Poi magari ti posto un altro bench di un'altra fonte autorevole e mi dirai che "no ma cherry picki i benchmark" proprio non ce la fate ad accettare che al momento neanche i 7nm di tsmc e le gddr6 bastano per mettere i piedi in testa a quel fossile della 1080 ti.:rolleyes:
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/2/#abschnitt_benchmarks_in_2560__1440_sowie_1920__1080
Ale55andr0
16-09-2020, 16:12
Poi magari ti posto un altro bench di un'altra fonte autorevole e mi dirai che "no ma cherry picki i benchmark" proprio non ce la fate ad accettare che al momento neanche i 7nm di tsmc e le gddr6 bastano per mettere i piedi in testa a quel fossile della 1080 ti.:rolleyes:
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/2/#abschnitt_benchmarks_in_2560__1440_sowie_1920__1080
quella è una media con diversi titoli non un cherry picking coi titoli a favore e sono test appena eseguiti essendo relativi alla 3080. Peraltro ci sono anche medie che favoriscono la 3080 sulla 2080ti...allora che facciamo non vale nulla e basta? essù...la 5700xt spacca i culi per il prezzo hce ha il chippetto "insignificante" che è, punto.
fraussantin
16-09-2020, 16:17
quella è una media con diversi titoli non un cherry picking coi titoli a favore e osn otest appena eseguiti essendo relativi alla 308. Peraltro ci sono anche medie che favoriscono la 3080 sulla 2080ti...allora che facciamo non vale nulla e basta? essù...la 5700xt spacca i culi, punto.La 5700xt é una buona scheda l'ho sempre detto , e l'ho fatta comprare.anche ad un mio amico \parente.
Ecco non ti sto a dire che bestemmie ci abbiamo tirato dietro a quella nitro.
Adesso per fortuna con i nuovi driver tutto si é placato 0 crash 0 black screen e i giochi si avviano quasi tutti.
Ma dopo 1 anno é una comica...
Se era nel mio PC una scheda che ad ogni versione di driver alcuni giochi iniziavano a.funzionare ed altri smettevano , e ogni tanto si spengeva nel nulla ... Sarebbe tornata indietro ad Amazon subito.
POI RIPETO SULLA CARTA É UN OTTIMA SCHEDA!
Quel benchmark prob é lì perché é migliorata con gli ultimi driver e perché sono usciti dei giochi dove va oggettivamente bene.
OrazioOC
16-09-2020, 16:19
quella è una media non un cherry picking e peraltro ci osno anche medie che favoriscono la 3080sulla 2080ti...allora che facciamo no nvale nulla e basta? essù...la 5700xt spacca i culi, punto.
Che è diverso dal tentare di dimostrare a tutti i modi che batte la top di gamma rivale di 2 generazioni fa.
Ha un ottimo rapporto prezzo/prestazioni, e nessuno qui dentro te lo nega, ma su praticamente tutti i test che cerchi su google, succede sempre che per qualche occasione in cui la 5700 xt batte 2070 super e 1080 ti, ce ne sono tante altre in cui le verdi la sorpassano, anche in benchmarks mediamente recenti.
Ma il punto è che amd deve progredire, e di parecchio, sta 3080 uscita oggi ha rifilato in 4k minimo un 30% in più di performance rispetto alla 2080 ti, e già la 2080 ti è a una distanza siderale dal meglio che offre ora amd.
Mi aspetto che almeno in raster, se si presentano con una scheda da 300w e rotti di tdp, amd arrivi almeno a superare la titan rtx, quindi a stare minimo a metà strada tra la 3070 e la 3080, altrimenti sarebbe un'altra vega, nè più nè meno.
"Aspettando radeon" e finiamo per parlare di navi 1 e ampere.
Congrats :fagiano: :fagiano: :fagiano: :fagiano: :fagiano:
OrazioOC
16-09-2020, 16:21
"Aspettando radeon" e finiamo per parlare di navi 1 e ampere.
Congrats :fagiano: :fagiano: :fagiano: :fagiano: :fagiano:
Sicuramente è colpa mia e di alessandro se il meglio che può mostrare amd a metà settembre sulle nuove radeon sono dei mini teaser su fortnite.:rolleyes:
Ale55andr0
16-09-2020, 16:29
Sicuramente è colpa mia e di alessandro se il meglio che può mostrare amd a metà settembre sulle nuove radeon sono dei mini teaser su fortnite.:rolleyes:
se la presentazione ha una data precisa, come quella di nvidia, non è che possono dirti vita morte e miracoli prima, come nemmeno nvidia ha fatto :read: . Nemmeno a me fa piacere aspettare così "tanto", intendiamoci, ma se la data è una è una, amen, non ci si può lamentare che non dicano nulla prima del programam stabilito, sennò lo dovevamo fare anche con nvidia. Fra parentesi a me non risulta che due mesi prima nvidia avesse fatto vedere il design delle schede....
JuneFlower
16-09-2020, 16:41
Quindi per avere qualcosa di Radeon bisogna aspettare diciamo dicembre inoltrato ? Non parlo di info ma per comprare una nuova scheda.
Faranno (la conferenza) tutta in un evento non in due eventi, e a fine ottobre?
Vabbe.. godiamoci quello che abbiamo, non c'è proprio da lamentarsi credo.
OrazioOC
16-09-2020, 16:44
se la presentazione ha una data precisa, come quella di nvidia, non è che possono dirti vita morte e miracoli prima, come nemmeno nvidia ha fatto :read: . Nemmeno a me fa piacere aspettare così "tanto", intendiamoci, ma se la data è una è una, amen, non ci si può lamentare che non dicano nulla prima del programam stabilito, sennò lo dovevamo fare anche con nvidia. Fra parentesi a me non risulta che due mesi prima nvidia avesse fatto vedere il design delle schede....
https://videocardz.com/newz/nvidia-geforce-rtx-3080-heatsink-leaked
Non era ufficiale nvidia, ma queste sono le schede nvidia in uscita oggi, e parliamo di un leak uscito 3 mesi prima della presentazione ufficiale.
Ma il problema è ancora un altro, che almeno a parte la data di presentazione ufficiale, inziassero almeno a snocciolare qualcosa sul target delle schede, i teaser che stanno facendo vedere non aggiungono nulla di nuovo a quel pochissimo che si sà già sulle nuove radeon.
Ale55andr0
16-09-2020, 16:49
https://videocardz.com/newz/nvidia-geforce-rtx-3080-heatsink-leaked
Non era ufficiale nvidia, ma queste sono le schede nvidia in uscita oggi, e parliamo di un leak uscito 3 mesi prima della presentazione ufficiale.
Ma il problema è ancora un altro, che almeno a parte la data di presentazione ufficiale, inziassero almeno a snocciolare qualcosa sul target delle schede, i teaser che stanno facendo vedere non aggiungono nulla di nuovo a quel pochissimo che si sà già.
magari ora che hanno visto le prestazioni anche loro uscirà qualcosa in più, ma non mi aspetterei chissà cosa. Di sicuro però, internamente alla loro sede, ora sanno come regolarsi con la propria offerta avendo visto vita morte e miracoli della 3080 (da li a capire quanto faranno 3070/90 non serve chissà cosa), quindi prezzi, taglio ram e clock potranno essere tarati "cum grano salis", ovviamente sempre relativamente a cio che può o non può essere fisicamente/logisticamente essere fatto a questo punto...
Ale55andr0
16-09-2020, 16:51
...che poi oh, ripeto, chi ha la fregola di avere tutto e subito e non arriva da qui a un mese e mezzo compri nvidia e amen ee :read:
OrazioOC
16-09-2020, 16:52
magari ora che hanno visto le prestazioni anche loro uscirà qualcosa in più, ma non mi aspetterei chissà cosa. Di sicuro però, internamente alla loro sede, ora sanno come regolarsi con la propria offerta avendo visto vita morte e miracoli della 3080 (da li a capire quanto faranno 3070/90 non serve chissà cosa), quindi prezzi, taglio ram e clock potranno essere tarati "cum grano salis", ovviamente sempre relativamente a cio che può o non può essere fisicamente/logisticamente essere fatto a questo punto...
E' un vantaggio per amd, ma c'è anche un altro svantaggio, che nvidia a parte acchiapparsi gli early adopters, può comunque contrastare le prossime radeon facendo delle eventuali ti/super, hanno dei buchi in gamma notevoli tra 3070/3080 e forse 3090.
nessuno29
16-09-2020, 17:00
ma su praticamente tutti i test che cerchi su google, succede sempre che per qualche occasione in cui la 5700 xt batte 2070 super e 1080 ti, ce ne sono tante altre in cui le verdi la sorpassano, anche in benchmarks mediamente recenti.
E quindi?
E' un vantaggio per amd, ma c'è anche un altro svantaggio, che nvidia a parte acchiapparsi gli early adopters, può comunque contrastare le prossime radeon facendo delle eventuali ti/super, hanno dei buchi in gamma notevoli tra 3070/3080 e forse 3090.
dove?
fra 2080ti e 3080 passa fra il 20%35% al massimo una 3070 super con più ram, fra 3080 e 3090 tutto questo spazio non c'è.
Parliamoci chiaro a me è passato l'entusiasmo (che è un bene mi ritengo un consumatore accorto) fino a ieri pensavo che a novembre mi sarei fatto il ryzen 4700 + 3070 e me ne fregavo della logistica visto l'hype (il fisso lo posso usare poche settimane l'anno causa lavoro) adesso penso di aspettare per vedere che succede.
Ale55andr0
16-09-2020, 17:16
E' un vantaggio per amd, ma c'è anche un altro svantaggio, che nvidia a parte acchiapparsi gli early adopters, può comunque contrastare le prossime radeon facendo delle eventuali ti/super, hanno dei buchi in gamma notevoli tra 3070/3080 e forse 3090.
yes but se lo fa subito fa incazzare quelli che la scheda gliela hanno comprata :asd: sia perchè gliele svaluta sia perchè magari le volevano pure loro così. Se invece le differenzia per prezzo non sovrapponendole non cambia troppo. Esempio: 3070ti 16gb a 599. Tutto ok, ma se la big navi va come quella e costa meno resta più conveniente AMD. Senza contare che una 3070Ti dopo qualche settimana e con 6gb in più a 100 euro meno della 3080 e prestazioni relativamente vicine (si vocifera di chip full e memorie più veloci oltre che più capienti) sarebbe semepre motivo di incazzatura per qualcuno e "incoerenza" di dotazione con una 3080/10gb
Piedone1113
16-09-2020, 17:18
E' un vantaggio per amd, ma c'è anche un altro svantaggio, che nvidia a parte acchiapparsi gli early adopters, può comunque contrastare le prossime radeon facendo delle eventuali ti/super, hanno dei buchi in gamma notevoli tra 3070/3080 e forse 3090.
Prima di dire altro:
Quanto va in meno una 3070 rispetto alla 3080?
C'è spazio per una 3070 super o si avrà una quasi sovrapposizione?
3080 ti o super a quanti watt se gia questa ha 320w di consumo?
Semplicemente credo che rdna2 darà un bello scossone al mercato, e piacente o meno nvidia si ritroverà ad essere cane da lepre che era.
Se invece avesse presentato una 3080 da 280w con queste prestazioni avrei pensato ad un buon prodotto amd, ma 320w mi fa pensare ad rdna2 davvero al ryzen delle gpu ( con miglioramenti tangibili ad ogni generazione per i prossimi 3/4 anni)
OrazioOC
16-09-2020, 17:22
dove?
fra 2080ti e 3080 passa fra il 20%35% al massimo una 3070 super con più ram, fra 3080 e 3090 tutto questo spazio non c'è.
Parliamoci chiaro a me è passato l'entusiasmo (che è un bene mi ritengo un consumatore accorto) fino a ieri pensavo che a novembre mi sarei fatto il ryzen 4700 + 3070 e me ne fregavo della logistica visto l'hype (il fisso lo posso usare poche settimane l'anno causa lavoro) adesso penso di aspettare per vedere che succede.
C'è gente che sta tirando avanti con gpu improvvisate perchè si è venduta le loro vecchie top di gamma prima che uscissero queste, è gente che magari non è disposta ad aspettare e fa acquisti di pancia.
Poi magari le nuove radeon saranno convincenti, e potrebbero uscire anche altre nvidia migliori di queste a parità di fascia e prezzo(es. rtx 2080 vs 2080 super), ma per loro non fa tanta differenza, tanto l'upgrade sostanzioso lo fanno comunque.
Spero solo che amd sia davvero pronta per portare le sue nuove radeon già competitive al d1, almeno contro la titan rtx, quindi superare di slancio 3070 e 2080 ti, per avere un'alternativa solida alle solite nvidia, magari con più vram per chi modda i giochi o per chi punta alla longevità(più vram ha la scheda più ovviamente può andare avanti, vedasi gtx 680/770 vs 7970, 780/ti vs 290x, fury x vs 980 ti, 970/980 vs 390x ecc...).
yes but se lo fa subito fa incazzare quelli che la scheda gliela hanno comprata :asd: sia perchè gliele svaluta sia perchè magari le volevano pure loro così. Se invece le differenzia per prezzo non sovrapponendole non cambia troppo. Esempio: 3070ti 16gb a 599. Tutto ok, ma se la big navi va come quella e costa meno resta più conveniente AMD. Senza contare che una 3070Ti dopo qualche settimana e con 6gb in più a 100 euro meno della 3080 e prestazioni relativamente vicine (si vocifera di chip full e memorie più veloci oltre che più capienti) sarebbe semepre motivo di incazzatura per qualcuno e "incoerenza" di dotazione con una 3080/10gb
Non si possono incazzare, se le schede le devono ancora presentare.:asd:
Una 3070 ti può andare più forte di una 3070, ma se la prezzi più in alto diventa una fascia a se, in questo modo non pesterebbe i piedi a 3070 e 3080.
Una roba stile rtx super potrebbe farli incazzare, ma quanto ha guadagnato una rtx 2080 super sulla 2080?5/7%?Valeva la pena aspettare 9 mesi per guadagnare quella percentuale a parità di prezzo?
Idem per amd, hanno fatto una 5600 xt che nella fattispecie ha soppiantato la 5700 liscia(che praticamente è sparita negli store, ma nessuno ne parla), però costava meno e copriva meglio la sua fascia di prezzo.
Prima di dire altro:
Quanto va in meno una 3070 rispetto alla 3080?
C'è spazio per una 3070 super o si avrà una quasi sovrapposizione?
3080 ti o super a quanti watt se gia questa ha 320w di consumo?
Semplicemente credo che rdna2 darà un bello scossone al mercato, e piacente o meno nvidia si ritroverà ad essere cane da lepre che era.
Se invece avesse presentato una 3080 da 280w con queste prestazioni avrei pensato ad un buon prodotto amd, ma 320w mi fa pensare ad rdna2 davvero al ryzen delle gpu ( con miglioramenti tangibili ad ogni generazione per i prossimi 3/4 anni)
La 3070 se è davvero simil 2080 ti, ha un buon 30% di gap da colmare dalla 3080, ci possono stare tranquillamente due schede, una che va' il 10% in più della 3070, montando più vram e il chip full(6144 cc contro i 5888 della 3070), e un'altra che monta una versione ulteriormente scartata della 3080(ma qui per le combinazioni che potrebbe avere bisogna aspettare le radeon nuove).
Come tdp la 3070 full potrebbe stare tranquillamente nei 250w canonici, mentre lo scarto della 3080 quasi sicuramente poco sotto i 300w.
yes but se lo fa subito fa incazzare quelli che la scheda gliela hanno comprata :asd: sia perchè gliele svaluta sia perchè magari le volevano pure loro così. Se invece le differenzia per prezzo non sovrapponendole non cambia troppo. Esempio: 3070ti 16gb a 599. Tutto ok, ma se la big navi va come quella e costa meno resta più conveniente AMD. Senza contare che una 3070Ti dopo qualche settimana e con 6gb in più a 100 euro meno della 3080 e prestazioni relativamente vicine (si vocifera di chip full e memorie più veloci oltre che più capienti) sarebbe semepre motivo di incazzatura per qualcuno e "incoerenza" di dotazione con una 3080/10gb
Ecco stavo per scriverlo.
Già hanno svalutato di punto in bianco tutte le 2000 (era ben differente se l'avessero fatto gradualmente)...immaginati se uscissero dopo 1-2 mesi con versioni ti/super non annunciate.
Andy1111
16-09-2020, 17:33
C'è gente che sta tirando avanti con gpu improvvisate perchè si è venduta le loro vecchie top di gamma prima che uscissero queste, è gente che magari non è disposta ad aspettare e fa acquisti di pancia.
Poi magari le nuove radeon saranno convincenti, e potrebbero uscire anche altre nvidia migliori di queste a parità di fascia e prezzo(es. rtx 2080 vs 2080 super), ma per loro non fa tanta differenza, tanto l'upgrade sostanzioso lo fanno comunque.
Spero solo che amd sia davvero pronta per portare le sue nuove radeon già competitive al d1, almeno contro la titan rtx, quindi superare di slancio 3070 e 2080 ti, per avere un'alternativa solida alle solite nvidia, magari con più vram per chi modda i giochi o per chi punta alla longevità(più vram ha la scheda più ovviamente può andare avanti, vedasi gtx 680/770 vs 7970, 780/ti vs 290x, fury x vs 980 ti, 970/980 vs 390x ecc...).
Non si possono incazzare, se le schede le devono ancora presentare.:asd:
Una 3070 ti può andare più forte di una 3070, ma se la prezzi più in alto diventa una fascia a se, in questo modo non pesterebbe i piedi a 3070 e 3080.
Una roba stile rtx super potrebbe farli incazzare, ma quanto ha guadagnato una rtx 2080 super sulla 2080?5/7%?Valeva la pena aspettare 9 mesi per guadagnare quella percentuale a parità di prezzo?
Idem per amd, hanno fatto una 5600 xt che nella fattispecie ha soppiantato la 5700 liscia(che praticamente è sparita negli store, ma nessuno ne parla), però costava meno e copriva meglio la sua fascia di prezzo.
La 3070 se è davvero simil 2080 ti, ha un buon 30% di gap da colmare dalla 3080, ci possono stare tranquillamente due schede, una che va' il 10% in più della 3070, montando più vram e il chip full(6144 cc contro i 5888 della 3070), e un'altra che monta una versione ulteriormente scartata della 3080(ma qui per le combinazioni che potrebbe avere bisogna aspettare le radeon nuove).
Come tdp la 3070 full potrebbe stare tranquillamente nei 250w canonici, mentre lo scarto della 3080 quasi sicuramente poco sotto i 300w.
Sotto la 3080 con GA102 non credo possa uscire altro è lo scarto dello scarto dello scarto più in la potrebbe solo uscire una 3080 TI tra la 3090 e 3080 forse:
NVIDIA Quadro RTX 8100
NVIDIA GeForce RTX 3090
NVIDIA GeForce RTX 3080
forse dicevi una probabile 3070 TI ma con GA104 chip full poi probabile a seconda delle memorie che userà e dal quantitativo andrà tra i 250/280W circa
OrazioOC
16-09-2020, 17:40
https://videocardz.com/newz/amd-radeon-rx-6900xt-leaks-in-new-photos
Quindi si potranno acquistare le 2080ti fuori garanzia dalle 350 alle 400 €? Ho aperto la finestra e ho visto uno stormo di bestemmie passare in lontananza 😂
Inviato dal mio LM-G710 utilizzando Tapatalk
Einhander
16-09-2020, 17:42
Sotto la 3080 con GA102 non credo possa uscire altro è lo scarto dello scarto dello scarto più in la potrebbe solo uscire una 3080 TI tra la 3090 e 3080 forse:
NVIDIA Quadro RTX 8100
NVIDIA GeForce RTX 3090
NVIDIA GeForce RTX 3080
forse dicevi una probabile 3070 TI ma con GA104 chip full poi probabile a seconda delle memorie che userà e dal quantitativo andrà tra i 250/280W circa
Ok ma dei consumi non frega piu' nulla a nessuno? : D
Chiedo ad Acegranger: lato rendering le nuove unita rtx come vanno ?
Hai trovato nulla in merito? bench?
Purtroppo non ho avuto modo di controllare onestamente.
Detto questo a me piacerebbe veder tornare amd a chippettini stile hd50xx che consumano poco ma picchiano di brutto, poi magari e' fantascienza eh, pero' poteva essere un modo per contrastare nvidia.
Cmq rega' lasciando da parte il 4k alle altre risoluzioni ste schede anche senza DLSS reggono il raytracing -sul panorama videoludico attuale- senza problemi.
Temo che se amd anche avesse prestazioni allineate o leggermente superiori (in raster) e inferiori in termini di RT a parita' di prezzo e/o inferiore potrebbero cmq venir scartate.
Mai sottovalutare la potenza del marketing e la forza del "brand" anche se amd, grazie anche ai ryzen, e' cresciuta molto in termini di valore percepito del marchio.
Spero solo che dopo quasi 4 anni di ryzen anche il settore GPU possa iniziare ad avere liquidita' per tornare ai vecchi fasti.
Lo ripeto da una vita, amd e' dove e', piaccia o meno, con due spicci....E' da sempre che mi chiedo cosa potrebbero fare con un quantitativo appropriato di "grana" :asd:
Einhander
16-09-2020, 17:50
Quindi si potranno acquistare le 2080ti fuori garanzia dalle 350 alle 400 €? Ho aperto la finestra e ho visto uno stormo di bestemmie passare in lontananza 😂
Inviato dal mio LM-G710 utilizzando Tapatalk
sul "subito" si trovano gia' diverse a 400/450 :asd:
mircocatta
16-09-2020, 17:53
https://videocardz.com/newz/amd-radeon-rx-6900xt-leaks-in-new-photos
oh non so che dirvi, ma esteticametne è eoni avanti alle precedenti reference, me lo fa diventare quasi barzotto
oh non so che dirvi, ma esteticametne è eoni avanti alle precedenti reference, me lo fa diventare quasi barzotto
Sicuramente anni luce, l'ultima reference pareva venuta fuori da un incidente stradale.
AkiraFudo
16-09-2020, 18:14
oh non so che dirvi, ma esteticametne è eoni avanti alle precedenti reference, me lo fa diventare quasi barzotto
https://i.postimg.cc/0jhkyHft/barzotto.gif
Piedone1113
16-09-2020, 18:24
La 3070 se è davvero simil 2080 ti, ha un buon 30% di gap da colmare dalla 3080, ci possono stare tranquillamente due schede, una che va' il 10% in più della 3070, montando più vram e il chip full(6144 cc contro i 5888 della 3070), e un'altra che monta una versione ulteriormente scartata della 3080(ma qui per le combinazioni che potrebbe avere bisogna aspettare le radeon nuove).
Quindi 3070-3070S-3070Ti-3080?
Tra 6 mesi minimo potrà valutarsi una 3070ti, ma con un netto ritocco verso il basso dell'intero listino
Piedone1113
16-09-2020, 18:24
ed
Piedone1113
16-09-2020, 18:25
ed
ghiltanas
16-09-2020, 18:46
https://videocardz.com/newz/amd-radeon-rx-6900xt-leaks-in-new-photos
A me confonde la nomenclatura, se hanno in mente di fare anche una 6900 mi aspetto che vada in competizione con la 3090
Ale55andr0
16-09-2020, 18:48
https://videocardz.com/newz/amd-radeon-rx-6900xt-leaks-in-new-photos
sto tizio ha postato per te :D
"if AMD release the details before they are ready to launch, it would just give Nvidia enough time to drop prices and we'll end up in a price war where AMD would lose out.
Besides, those who would buy Nvidia now even after AMD set a date for announcement would not stop doing so even if AMD releases more details.
So if you can wait, you wait. If you can't, Nvidia welcomes you."
Ton90maz
16-09-2020, 18:50
Poi magari ti posto un altro bench di un'altra fonte autorevole e mi dirai che "no ma cherry picki i benchmark" proprio non ce la fate ad accettare che al momento neanche i 7nm di tsmc e le gddr6 bastano per mettere i piedi in testa a quel fossile della 1080 ti.:rolleyes:
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/2/#abschnitt_benchmarks_in_2560__1440_sowie_1920__1080C'è però da dire che una media con un 60% su metacritic e un titolo di macchine random non si presenta proprio benissimo :asd:
OrazioOC
16-09-2020, 18:51
sto tizio ha postato per te :D
"if AMD release the details before they are ready to launch, it would just give Nvidia enough time to drop prices and we'll end up in a price war where AMD would lose out.
Besides, those who would buy Nvidia now even after AMD set a date for announcement would not stop doing so even if AMD releases more details.
So if you can wait, you wait. If you can't, Nvidia welcomes you."
Sicuro che finisce come dice lui. :asd:
Ma andiamo, vuoi che Jensen non sappia cos'abbia in mano amd?La 3080 l'ha lanciata competitiva come prezzi apposta, altrimenti ce la saremmo ritrovata a 999 dollari come la 2080 ti.
Questa gente ovviamente deve fare hype, il disperato di clickbait ci campa sai com'è...
C'è però da dire che una media con un 60% su metacritic e un titolo di macchine random non si presenta proprio benissimo :asd:
Non significa che non vadano testati, sono titoli comunque famosi.:asd:
OvErClOck82
16-09-2020, 18:52
sto tizio ha postato per te :D
"if AMD release the details before they are ready to launch, it would just give Nvidia enough time to drop prices and we'll end up in a price war where AMD would lose out.
Besides, those who would buy Nvidia now even after AMD set a date for announcement would not stop doing so even if AMD releases more details.
So if you can wait, you wait. If you can't, Nvidia welcomes you."Direi che questo sintetizza bene la situazione, con buona pace dei finti super partes
Inviato dal mio Redmi Note 8 Pro utilizzando Tapatalk
Ale55andr0
16-09-2020, 19:01
Sicuro che finisce come dice lui. :asd:
Ma andiamo, vuoi che Jensen non sappia cos'abbia in mano amd?La 3080 l'ha lanciata competitiva come prezzi apposta, altrimenti ce la saremmo ritrovata a 999 dollari come la 2080 ti.
Questa gente ovviamente deve fare hype, il disperato di clickbait ci campa sai com'è...
se nvidia ha "abbassato" (:asd:) i prezzi perchè sa cosa ha in mano AMD allora vuol dire che AMD ha in mano qualcosa di buono, sennò non "regalavano" (:asd:) ampere, se guardiamo al passato almeno. E come dice il tizio chi può aspettare aspetta, chi non vuole compra nvidia perchè tanto avrebbe comprato comunque nvidia :)
OrazioOC
16-09-2020, 19:14
se nvidia ha "abbassato" (:asd:) i prezzi perchè sa cosa ha in mano AMD allora vuol dire che AMD ha in mano qualcosa di buono, sennò non "regalavano" (:asd:) ampere, se guardiamo al passato almeno. E come dice il tizio chi può aspettare aspetta, chi non vuole compra nvidia perchè tanto avrebbe comprato comunque nvidia :)
Così come in tutte le cose, è il prezzo a decidere se è un acquisto valido o meno, la 3080 potrebbe essere molto più sensata a 699 dollari rispetto ad un'ipotetico 999 dollari nonostante delle radeon rivali. :asd:
Poi la storia insegna, amd fa uscire la 290x, subito nvidia risponde con la 780 ti... esce la fury x?3 settimane prima nvidia butta fuori una 980 ti superiore a 360 gradi...Vega 56 batte la 1070?Fanno una 1080 con le gddr5 e la chiamano 1070 ti...5700 xt superiore alla 2070?Sostituiscono la 2070 liscia con uno scarto ulteriore della 2080, e così via.
Crysis90
16-09-2020, 19:15
A me confonde la nomenclatura, se hanno in mente di fare anche una 6900 mi aspetto che vada in competizione con la 3090
se nvidia ha "abbassato" (:asd:) i prezzi perchè sa cosa ha in mano AMD allora vuol dire che AMD ha in mano qualcosa di buono, sennò non "regalavano" (:asd:) ampere, se guardiamo al passato almeno. E come dice il tizio chi può aspettare aspetta, chi non vuole compra nvidia perchè tanto avrebbe comprato comunque nvidia :)
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-founders-edition/34.html
Non c'è modo che AMD prenda la 3080, tantomeno la 3090.
Le attuali top di gamma AMD (Radeon VII, 5700 XT) stano al 50/60% di una 3080, il che vuol dire che quest'ultima va quasi il doppio di queste ultime 2.
Ergo AMD dovrebbe lanciare una scheda che garantisce un salto del +70/80% sopra la sua attuale top di gamma.
Come vi sembra anche solo minimamente possibile?
E questo solo per prendere una 3080, figuriamoci una 3090.
Ale55andr0
16-09-2020, 19:20
Così come in tutte le cose, è il prezzo a decidere se è un acquisto valido o meno, la 3080 potrebbe essere molto più sensata a 699 dollari rispetto ad un'ipotetico 999 dollari nonostante delle radeon rivali. :asd:
Poi la storia insegna, amd fa uscire la 290x, subito nvidia risponde con la 780 ti... esce la fury x?3 settimane prima nvidia butta fuori una 980 ti superiore a 360 gradi...Vega 56 batte la 1070?Fanno una 1080 con le gddr5 e la chiamano 1070 ti...5700 xt superiore alla 2070?Sostituiscono la 2070 liscia con uno scarto ulteriore della 2080, e così via.
Ottimo :O :read:
...Quindi tu che ci stai a fare qua? :asd: :Prrr: :ciapet:
Ale55andr0
16-09-2020, 19:23
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-founders-edition/34.html
Non c'è modo che AMD prenda la 3080, tantomeno la 3090.
Le attuali top di gamma AMD (Radeon VII, 5700 XT) stano al 50/60% di una 3080, il che vuol dire che quest'ultima va quasi il doppio di queste ultime 2.
Ergo AMD dovrebbe lanciare una scheda che garantisce un salto del +70/80% sopra la sua attuale top di gamma.
Come vi sembra anche solo minimamente possibile?
E questo solo per prendere una 3080, figuriamoci una 3090.
per prendere la 3080 teoricamente "basta" mantenere il +50% perf x watt di rnda 2, ovviamente dandolo per buono, se ci pijano per il :ciapet: è un altro discorso. Per arrivare alla 2080ti/3070 così bastano 220w...per arrivare alla 3080 bastano "solo" 300w, ergo pure meno della 3080.
La 3090 penso che amd non la abbia mai considerata come fascia.
mircocatta
16-09-2020, 19:24
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-founders-edition/34.html
Non c'è modo che AMD prenda la 3080, tantomeno la 3090.
Le attuali top di gamma AMD (Radeon VII, 5700 XT) stano al 50/60% di una 3080, il che vuol dire che quest'ultima va quasi il doppio di queste ultime 2.
Ergo AMD dovrebbe lanciare una scheda che garantisce un salto del +70/80% sopra la sua attuale top di gamma.
Come vi sembra anche solo minimamente possibile?
E questo solo per prendere una 3080, figuriamoci una 3090.
in molte altre testate non sembra proprio così, tipo qua
https://www.hwupgrade.it/articoli/5827/media_fps-2.png
detto questo, una 80cu a 2100mhz non credo si piazzerebbe tanto lontano, ma basterà aspettare e "vedere", altrimenti c'è nvidia che vi aspetta con le nuove e fiammanti (fiammanti seriamente) 3080 :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.