View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
Ale55andr0
10-10-2022, 18:16
Fossero così ci metterei la firma
senza sapere le perfomance? :stordita:
Se AMD volesse muovere le vendite io immaginerei tipo:
-7700XT 6144sp 12gb €499+tasse (è pur sempre un chip più piccolissimo, meno della 6800 liscia e con 4gb di ram in meno...)
7800XT 8192sp 16gb €679+tasse
7900XT 12288sp 24gb €1199+tasse
questo con performance simili o leggermente superiori in raster alle 4080 12/16 - 4090 e un -15/20% in RT (e sarebeb un salto avanti ENORME, sia chiaro!)
sulla 7950 non mi esprimo perchè non so nemmeno se la presenteranno subito essendo teoricamente rivale della 4090ti ma se si parla del doppio ccx da 8000sp e 32gb di ram possono tranquillamente prezzarla la rivale
No Life King
10-10-2022, 18:22
senza sapere le perfomance? :stordita:
Se AMD volesse muovere le vendite io immaginerei tipo:
-7700XT 6144sp 12gb €499+tasse (è pur sempre un chip più piccolissimo, meno della 6800 liscia e con 4gb di ram in meno...)
7800XT 8192sp 16gb €679+tasse
7900XT 12288sp 24gb €1199+tasse
questo con performance simili o leggermente superiori in raster alle 4080 12/16 - 4090 e un -15/20% in RT (e sarebeb un salto avanti ENORME, sia chiaro!)
sulla 7950 non mi esprimo perchè non so nemmeno se la presenteranno subito essendo teoricamente rivale della 4090ti ma se si parla del doppio ccx da 8000sp e 32gb di ram possono tranquillamente prezzarla la rivale
Sì, perchè tanto a quei prezzi Jensen la serie 4000 se la può ficcare dove non batte il sole, quindi per me la scelta sarà amd (a patto che decida di cambiare, se nò mi tengo l'attuale e amen)
mikael84
10-10-2022, 18:26
senza sapere le perfomance? :stordita:
Se AMD volesse muovere le vendite io immaginerei tipo:
-7700XT 6144sp 12gb €499+tasse (è pur sempre un chip più piccolissimo, meno della 6800 liscia e con 4gb di ram in meno...)
7800XT 8192sp 16gb €679+tasse
7900XT 12288sp 24gb €1199+tasse
questo con performance simili o leggermente superiori in raster alle 4080 12/16 - 4090 e un -15/20% in RT (e sarebeb un salto avanti ENORME, sia chiaro!)
sulla 7950 non mi esprimo perchè non so nemmeno se la presenteranno subito essendo teoricamente rivale della 4090ti ma se si parla del doppio ccx da 8000sp e 32gb di ram possono tranquillamente prezzarla la rivale
12288 è il chip top
10700 il chip cut (7900xt)
navi 32: 7680 st
cut: 6144st
L'ipotetica dual GPU MCM da 16000 shader è pensata per giocarsela con le doppie FP in campo pro della 4090.
esatto, la 7600Xt dovrebbe andare uguale in FHD, e come la 6800 in QHD.
7700 decisamente sopra.
Io vorrei stare sulla fascia medio-alta visto che gioco in ultrawide ma sicuramente la 7800XT sarà fuori budget. :fagiano:
scorpion73
10-10-2022, 22:35
12288 è il chip top
10700 il chip cut (7900xt)
navi 32: 7680 st
cut: 6144st
L'ipotetica dual GPU MCM da 16000 shader è pensata per giocarsela con le doppie FP in campo pro della 4090.
10700 vanno bene, l'importante è capire come si comporta in RT (almeno per me)
Se si comportano bene in raster e vanno un meglio di ampere in RT (rispetto alla 3090) è la prossima vga da prendere la 7900XT.
330W di TDP ci siamo.
nessuno29
11-10-2022, 06:19
Come gli stava sulle palle il Ray tracing, ora che ha la 6000 gongola, prima con la 580 ne diceva di ogni :asd:
Chiedi ora cosa ne pensa del ray tracing, pensa se sulle 7000 ci saranno i tensor core e faranno una cosa simile in AMD al DLSS :asd:
Almeno io rimango coerente, anche perchè al momento non è che o non hai la scheda con RT o non giochi forzatamente, ma ammetto che a livello di vendite e marketing non è più trascurabile così come i super resolution vari, verde, rosso o blu.
E' solo che sta iniziando a rosicare ancora prima di domani :asd:
Ma l'hai testato l'fsr 2.1 in qualche gioco? E' eccellente...
Non esiste una sola strada per raggiungere lo stesso obiettivo, le unità dedicate non sono obbligatorie.
Si ma meglio non sperarci troppo per non rimanere delusi :D
Se sparano alto mal che vada mi prendo una 6900 ma dovrebbe costare 1499€ la 7900 per farmi desistere!
Oh se no rimando così metto da parte i soldi e c'è più disponibilità....si spera!
Se sparano alto mal che vada mi prendo una 6900 ma dovrebbe costare 1499€ la 7900 per farmi desistere!
Oh se no rimando così metto da parte i soldi e c'è più disponibilità....si spera!
A rigor di logica dovrebbero costare di meno rispetto alla 4090 (e si parla della 7950XT come modello di punta), quindi difficile che si arrivi a quelle somme.
Spero.
Domanda per tutti: la conferma è per il 3 Novembre come uscita ufficiale o la vendita avverrà dopo?
Portocala
11-10-2022, 08:50
Solitamente si presenta e poi qualche settimana dopo si vende.
Gyammy85
11-10-2022, 08:51
A rigor di logica dovrebbero costare di meno rispetto alla 4090 (e si parla della 7950XT come modello di punta), quindi difficile che si arrivi a quelle somme.
Spero.
Domanda per tutti: la conferma è per il 3 Novembre come uscita ufficiale o la vendita avverrà dopo?
3 novembre presentazione, immagino almeno metà mese per la vendita
narniagreen
11-10-2022, 08:55
Io vorrei stare sulla fascia medio-alta visto che gioco in ultrawide ma sicuramente la 7800XT sarà fuori budget. :fagiano:
Si credo che per la 7800XT a sto giro servano almeno 1000 carte.
la 4080 12 GB viene 1100€ sul sito Nvidia, ahahahahahahahahahah :sbonk:
Ma l'hai testato l'fsr 2.1 in qualche gioco? E' eccellente...
Non esiste una sola strada per raggiungere lo stesso obiettivo, le unità dedicate non sono obbligatorie.
Non ho detto che non sia all'altezza, ho detto che se domani AMD facesse le unità dedicate a quello, per Gian diverrebbe un must have :asd:
Si ma meglio non sperarci troppo per non rimanere delusi :D
:asd:
Anche perchè con una 4080 12GB che da sito viene 1100€ finiti e la 16GB 1500€, non vedo perchè e come AMD possa abbassare troppo i prezzi, andrebbe in shortage perenne, i prezzi alla fine si alzerebbero lo stesso e ci andrebbero a guadagnare i Terzi e non lei.
:sofico: :sofico: :sofico:
https://i.ibb.co/tLPbvcZ/Cattura.jpg
Gyammy85
11-10-2022, 09:00
Si credo che per la 7800XT a sto giro servano almeno 1000 carte.
la 4080 12 GB viene 1100€ sul sito Nvidia, ahahahahahahahahahah :sbonk:
Non ho detto che non sia all'altezza, ho detto che se domani AMD facesse le unità dedicate a quello, per Gian diverrebbe un must have :asd:
:asd:
Anche perchè con una 4080 12GB che da sito viene 1100€ finiti e la 16GB 1400€, non vedo perchè e come AMD possa abbassare troppo i prezzi, andrebbe in shortage perenne, i prezzi alla fine si alzerebbero lo stesso e ci andrebbero a guadagnare i Terzi e non lei.
Ammesso e non concesso che amd le faccia, non vedo come potrebbero essere utilizzate, visto che a quanto ne so il dlss è roba chiusa stile cuda...fsr3? sarebbe un'idea per combattere il marketing del dlss3, ma boh, tanto sbaglio lo stesso, se mi piace o non mi piace :asd:
Se proprio proprio dovessero spingere su unità hardware lo faranno per rt
Io penso che già mettendo 2 o 3 ray acc per cu e bvh hardware si recupera tanto tanto, ma la vera svolta è la cache che a quanto pare è più densa e con latenze inferiori, da là partono le perf in rt di amd
Io aspetto le future 7600/7700 (e relative controparti verdi 4060/4070), toccherà aspettare 9-12 mesi ma per il momento la mia vega 56 è abbastanza adeguata per le mie esigenze in QHD.
Devo dire tuttavia che le 6700xt custom a 450 euro mi stanno facendo salire un po' di scimmia, sopratutto se le nuove avranno 8GB di ram
narniagreen
11-10-2022, 10:22
Io aspetto le future 7600/7700 (e relative controparti verdi 4060/4070), toccherà aspettare 9-12 mesi ma per il momento la mia vega 56 è abbastanza adeguata per le mie esigenze in QHD.
Devo dire tuttavia che le 6700xt custom a 450 euro mi stanno facendo salire un po' di scimmia, sopratutto se le nuove avranno 8GB di ram
effettivamente quello che mi frenerebbe anche a me sullo scegliere le 7600, sarebbero gli 8GB, meglio la 7700 liscia.
Io aspetto le future 7600/7700 (e relative controparti verdi 4060/4070), toccherà aspettare 9-12 mesi ma per il momento la mia vega 56 è abbastanza adeguata per le mie esigenze in QHD.
Devo dire tuttavia che le 6700xt custom a 450 euro mi stanno facendo salire un po' di scimmia, sopratutto se le nuove avranno 8GB di ram
Non credo serva tanto, per me Ces di gennaio annuncio poi uscita nel giro di non molto :)
narniagreen
11-10-2022, 10:53
Non credo serva tanto, per me Ces di gennaio annuncio poi uscita nel giro di non molto :)
7700 si Q1, 7600 direi Q2 se non Q3 2023...
Ale55andr0
11-10-2022, 12:32
12288 è il chip top
10700 il chip cut (7900xt)
navi 32: 7680 st
cut: 6144st
L'ipotetica dual GPU MCM da 16000 shader è pensata per giocarsela con le doppie FP in campo pro della 4090.
quale chip "cut?" io sapevo che si basavano solo su due "ccx", uno da 6144sp per la scheda base e uno da 8000ca per la "media", e combinandoli a seconda della necessità per le top (es 6144x2=12288sp e 8192x2= 16384sp)
mikael84
11-10-2022, 13:05
quale chip "cut?" io sapevo che si basavano solo su due "ccx", uno da 6144sp per la scheda base e uno da 8000ca per la "media", e combinandoli a seconda della necessità per le top (es 6144x2=12288sp e 8192x2= 16384sp)
No, sono solo i collegamenti impilati, il die è monolitico.
Navi 31, dovrebbe essere un die da 300mm2 a 5nm + i collegamenti a 6nm, per un totale di 12288 shader e 384bit x 96mb l2. La l2 scende da 32 a 16mb per canale
https://cdn.videocardz.com/1/2022/05/AMD-Navi-31-GPU.jpg
Navi 32: avrà 7680 st e 256 bit.
Navi 33 un die completamente monolitico da 4096 shader.
Il core 2x da 8000 è solo speculativo e non gaming, in quanto dovrebbe competere con la 4090 in campo pro, dove questa usa tutte le fp che ha, ovvero 16384, senza interi.:)
Ps: il dato della cache nell' immagine è vecchio
No, sono solo i collegamenti impilati, il die è monolitico.
Navi 31, dovrebbe essere un die da 300mm2 a 5nm + i collegamenti a 6nm, per un totale di 12288 shader e 384bit x 96mb l2. La l2 scende da 32 a 16mb per canale
https://cdn.videocardz.com/1/2022/05/AMD-Navi-31-GPU.jpg
Navi 32: avrà 7680 st e 256 bit.
Navi 33 un die completamente monolitico da 4096 shader.
Il core 2x da 8000 è solo speculativo e non gaming, in quanto dovrebbe competere con la 4090 in campo pro, dove questa usa tutte le fp che ha, ovvero 16384, senza interi.:)La 7800/xt come dovrebbe essere sulla carta?
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
narniagreen
11-10-2022, 16:23
la 4090 è uscita, è un giocattolo tecnicamente FORTE a 360gradi, soprattutto in RT e dlss, ma troppo grossa e costosa.
Valutando le possibilità di AMD la 4090 fa "solo" +50% perf/watt sulla 6950XT e per quanto dichiarato da AMD UFFICIALMENTE le basta una scheda da 350watt (-100watt) per pareggiare questa 4090 almeno in Raster :fagiano:
https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/energy-efficiency.png
Come si poteva ipotizzare, su raster non ci saranno problemi, ma vedremo se AMD avrà spinto bene in RT anche lei o no, minimo minimo devono fare 2x su rdna2, perchè ADA spinge veramente forte qua e sul dlss.
Questo poi potrebbe rivelarsi vincente nelle fasce basse, dove la 4080 e 4060 sembrano decisamente sotto dimensionate.
Ale55andr0
11-10-2022, 16:54
vedremo che tirerà fuori AMD, certo che altre 3 settimane di attesa, uffa :mc:
cmq è icredibile come ci siano ZERO leak AMD mentre su nvidia diciamo che ci han beccato abbastanza...(peisino sulle rimarchiate a serie 80 a 12gb :doh:)
mikael84
11-10-2022, 17:08
La 7800/xt come dovrebbe essere sulla carta?
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Mediamente farà 2x flops, ad un clock di 3,2 almeno. Poi da vedere le latenze con MCM.
In linea di massima dovrebbe ripetere quanto fatto da 6700xt vs 69/500xt, in base alle res.
vedremo che tirerà fuori AMD, certo che altre 3 settimane di attesa, uffa :mc:
cmq è icredibile come ci siano ZERO leak AMD mentre su nvidia diciamo che ci han beccato abbastanza...(peisino sulle rimarchiate a serie 80 a 12gb :doh:)
Ma infatti, far sapere che ci sono anche loro. Oggi sono tutti inscimmiati per la 4090, butta due numeri e fatti attendere.
Al momento viene riportato ancora navi33 in 6nm, che è impossibile per il die.
Ale55andr0
11-10-2022, 17:14
Ma infatti, far sapere che sono anche loro. Oggi sono tutti inscimmiati per la 4090, butta due numeri e fatti attendere.
Al momento viene riportato ancora navi33 in 6nm, che è impossibile per il die.
La recensione della 4090 ha fatto l'analogia "va come verstappen". Bene, a me invece il silenzio AMD pare quello della dirigenza Ferrari a ogni inchiappettata regolamentare FIA, sempre e solo a senso unico...zitti, muti supini e grazie per averci penalizzato mentre gli altri fanno il cazzo che vogliono che vanno prue incoraggiati. Rebellion ancora non pervenuta.
A ogni modo non mi aspetto nulla di eclatante, quantomeno in RT, persino quel mostro della 4090 in 4k nativo rt-maxato in CP2077 non sa cosa siano 60 frame. Siamo ancora dietro di due generazioni almeno per definirlo "alla portata" di qualsiasi gpu da gamer, figuriamoci se mo AMD farà un 3/4x in RT, perchè questo le servirebbe per acciuffare nvidia....
mikael84
11-10-2022, 17:37
La recensione della 4090 ha fatto l'analogia "va come verstappen". Bene, a me invece il silenzio AMD pare quello della dirigenza Ferrari a ogni inchiappettata regolamentare FIA, sempre e solo a senso unico...zitti, muti supini e grazie per averci penalizzato mentre gli altri fanno il cazzo che vogliono che vanno prue incoraggiati. Rebellion ancora non pervenuta.
A ogni modo non mi aspetto nulla di eclatante, quantomeno in RT, persino quel mostro della 4090 in 4k nativo rt-maxato in CP2077 non sa cosa siano 60 frame. Siamo ancora dietro di due generazioni almeno per definirlo "alla portata" di qualsiasi gpu da gamer, figuriamoci se mo AMD farà un 3/4x in RT, perchè questo le servirebbe per acciuffare nvidia....
Eppure con i ryzen, si è fatta sentire, eccome...
Anche l'altra volta per inscimmiare aveva tirato fuori test sulla 6800 e non sulla 6900.
Certo sul RT deve recuperare 2 gen, ma è anche vero che nvidia ha solo una fascia alta, le altre sono aborti, la 4080 16 è una x70 max ti. Se poi guardiamo i costi...
Ciò che manca sono anche i leaks. Con nvidia siamo dall'anno scorso o quasi che bene o male sapevamo le spec, anche i clock, e da vari mesi, hanno fatto uscire anche test 3dmark attendibili.
Butta un 3dmark almeno, fai parlare di te, almeno, bene o male, vedi anche le fasce sotto come si collocheranno.
Gyammy85
11-10-2022, 18:13
vedremo che tirerà fuori AMD, certo che altre 3 settimane di attesa, uffa :mc:
cmq è icredibile come ci siano ZERO leak AMD mentre su nvidia diciamo che ci han beccato abbastanza...(peisino sulle rimarchiate a serie 80 a 12gb :doh:)
Se fai uscire un leak amd oggi si perde nell'oceano di complimenti e stupori vari sulla 4090, ma sempre meglio dell'altra volta dove il massimo possibile arrivabile era la 3070
Eppure con i ryzen, si è fatta sentire, eccome...
Anche l'altra volta per inscimmiare aveva tirato fuori test sulla 6800 e non sulla 6900.
Certo sul RT deve recuperare 2 gen, ma è anche vero che nvidia ha solo una fascia alta, le altre sono aborti, la 4080 16 è una x70 max ti. Se poi guardiamo i costi...
Ciò che manca sono anche i leaks. Con nvidia siamo dall'anno scorso o quasi che bene o male sapevamo le spec, anche i clock, e da vari mesi, hanno fatto uscire anche test 3dmark attendibili.
Butta un 3dmark almeno, fai parlare di te, almeno, bene o male, vedi anche le fasce sotto come si collocheranno.
La 4090 si sa quanto va dal 2021 o giù di lì, la review non ha aggiunto niente di più, il bello viene ora, con quelli dello #stopbuy che acquisteranno a 3000 euro la 4090 rog strix senza problemi
Butta un 3dmark almeno, fai parlare di te, almeno, bene o male, vedi anche le fasce sotto come si collocheranno.
La verità è che Lisa voleva comprare un po' di azioni a buon mercato. Adesso che sono sul -50% vedrai che inizierà a far trapelare qualcosa :p
Predator_1982
11-10-2022, 18:19
La recensione della 4090 ha fatto l'analogia "va come verstappen". Bene, a me invece il silenzio AMD pare quello della dirigenza Ferrari a ogni inchiappettata regolamentare FIA, sempre e solo a senso unico...zitti, muti supini e grazie per averci penalizzato mentre gli altri fanno il cazzo che vogliono che vanno prue incoraggiati. Rebellion ancora non pervenuta.
A ogni modo non mi aspetto nulla di eclatante, quantomeno in RT, persino quel mostro della 4090 in 4k nativo rt-maxato in CP2077 non sa cosa siano 60 frame. Siamo ancora dietro di due generazioni almeno per definirlo "alla portata" di qualsiasi gpu da gamer, figuriamoci se mo AMD farà un 3/4x in RT, perchè questo le servirebbe per acciuffare nvidia....
quoto, ma era ovvio che fosse così...come sempre AMD è in ritardo. Ora, o fa prezzi davvero aggressivi al limite del possibile oppure ciaone anche a questo giro...
Ma devono ancora uscire,e sono già in ritardo,fail.... 😆😆
Va beh dai se metterà la 7950XT a 500€ due o tre le venderà....d'altronde con soli 2000€ a salire si può prendere la 4090
😆
Predator_1982
11-10-2022, 18:40
Ma devono ancora uscire,e sono già in ritardo,fail.... 😆😆
Va beh dai se metterà la 7950XT a 500€ due o tre le venderà....d'altronde con soli 2000€ a salire si può prendere la 4090
😆
mi sono espresso male effettivamente, intendo dire che considerando le prestazioni di una 4090, dubito fortemente che a questo giro possa riuscire a colmare il divario di prestazioni in RT...il ritardo era inteso in questo senso. Poi contento se sarò smentito alla grande dai fatti..
mi sono espresso male effettivamente, intendo dire che considerando le prestazioni di una 4090, dubito fortemente che a questo giro possa riuscire a colmare il divario di prestazioni in RT...il ritardo era inteso in questo senso. Poi contento se sarò smentito alla grande dai fatti..Solo in caso di miracolo pareggerà le prestazioni RT della 4090,ma questo non vuol dire che siano schede da buttare,anzi...
StylezZz`
11-10-2022, 18:43
quoto, ma era ovvio che fosse così...come sempre AMD è in ritardo. Ora, o fa prezzi davvero aggressivi al limite del possibile oppure ciaone anche a questo giro...
Mancano 3 settimane, dai su per piacere...
EDIT: ho visto ora il chiarimento :asd:
Predator_1982
11-10-2022, 18:49
Solo in caso di miracolo pareggerà le prestazioni RT della 4090,ma questo non vuol dire che siano schede da buttare,anzi...
Assolutamente, se prezzate bene potrebbero sbancare….SE. il problema è che dubito abbiano intenzione di farlo
LentapoLenta
11-10-2022, 18:56
Avete capito male, “va come Verstappen” significa che sfora il budget… infatti guardate quanto costa… :D
Ale55andr0
11-10-2022, 19:06
Avete capito male, “va come Verstappen” significa che sfora il budget… infatti guardate quanto costa… :D
this :asd:
Ale55andr0
11-10-2022, 19:09
Se fai uscire un leak amd oggi si perde nell'oceano di complimenti e stupori vari sulla 4090, ma sempre meglio dell'altra volta dove il massimo possibile arrivabile era la 3070
i
veramente verrebbe ripreso da OGNI testata online del settore e dagli influencer, e lo sai bene, ma devi pur sempre trovare qualcosa cui aggrapparti per fare il solito meme
quoto, ma era ovvio che fosse così...come sempre AMD è in ritardo. Ora, o fa prezzi davvero aggressivi al limite del possibile oppure ciaone anche a questo giro...
se parli di fascia 4090 si', sotto nvidia imho ha fatto THE mikyaton-one e dovrebbero lasciargliele li' ad ammuffire e dimezzarsi di prezzo prima anche solo di considerare la loro esistenza. Ma temo molto la volubilità e l'imprevedibilità della mente umana, lo ammetto...del resto ormai è appurato come verità comune che il dlss con l'aliasing, il flickering e i glitch visivi è meglio della nativa perchè lo dice giacchetta corroborato digital foundry con fermi immagine fatti col culo e da chi gioca con 1620p su 32" DLSS on (!) e da' degli ipovedenti agli altri...(orrore)
Assolutamente, se prezzate bene potrebbero sbancare….SE. il problema è che dubito abbiano intenzione di farlo
Se offrono prestazioni equivalenti non ci contare
L'RT lo dico sinceramente,per me,lascia il tempo che trova non lo reputo fondamentale,se butta fuori una 7900XT che va come la RTX 4090 in raster,me ne sbatto allegramente del RT,ovviamente con prezzo e consumi ricalibrati
Io aspetto senza isterismi fino al 3 Novembre
Ale55andr0
11-10-2022, 19:31
si sa almeno che tipo di ram monteranno ste schede? Cosa hanno a disposizione oggi i vari micron, samsung etc? non posso pensare saranno ancora ferme a 18gps
Domani notizie?
https://uploads.tapatalk-cdn.com/20221011/9d55ba0d4f23485f5e6d863dd1fc72e6.jpg
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Gyammy85
11-10-2022, 20:15
Domani notizie?
https://uploads.tapatalk-cdn.com/20221011/9d55ba0d4f23485f5e6d863dd1fc72e6.jpg
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Troppo tardi ormai hanno shoppato tutti :O
Gyammy85
11-10-2022, 20:15
si sa almeno che tipo di ram monteranno ste schede? Cosa hanno a disposizione oggi i vari micron, samsung etc? non posso pensare saranno ancora ferme a 18gps
Si parlava di almeno 20 gbps
mikael84
11-10-2022, 20:29
La 4090 si sa quanto va dal 2021 o giù di lì, la review non ha aggiunto niente di più, il bello viene ora, con quelli dello #stopbuy che acquisteranno a 3000 euro la 4090 rog strix senza problemi
Le perf le sapevamo da tempo in quanto avevi tutto per farti una stima. Ovviamente i più pensavano ad un +20, +30 ed oggi sono rimasti increduli.
Sugli acquisti, stai pur certo che non riguarda me.:p
La verità è che Lisa voleva comprare un po' di azioni a buon mercato. Adesso che sono sul -50% vedrai che inizierà a far trapelare qualcosa :p
:p
Si parlava di almeno 20 gbps
Si, gli ultimi leak davano le 20. Spero quanto prima nelle g7.
Vedo Lisa che grida, aumentate il pl di 100 wattttt
:D
Vedo Lisa che grida, aumentate il pl di 100 wattttt
:D
Onestamente vedendo come scala (bene) la 4090 scendendo di wattaggio, mi chiedo perché l'abbiano dovuta lanciare a 450w. Voglio dire, a 375w perde tipo il 4%, quindi il dubbio di chi abbia gridato per alzare il power limit a me viene al contrario :stordita:
fraussantin
11-10-2022, 20:36
Onestamente vedendo come scala (bene) la 4090 scendendo di wattaggio, mi chiedo perché l'abbiano dovuta lanciare a 450w. Voglio dire, a 375w perde tipo il 4%, quindi il dubbio di chi abbia gridato per alzare il power limit a me viene al contrario :stordita:Dovendo chiedere un sacco di soldi anche il 4% fa .
Però potevano farla dual bios.
Onestamente vedendo come scala (bene) la 4090 scendendo di wattaggio, mi chiedo perché l'abbiano dovuta lanciare a 450w. Voglio dire, a 375w perde tipo il 4%, quindi il dubbio di chi abbia gridato per alzare il power limit a me viene al contrario :stordita:
Vogliono portare a casa sino all'ultimo punto, le custom saranno pure peggio.
Dovendo chiedere un sacco di soldi anche il 4% fa .
Però potevano farla dual bios.
Beh, fosse stata targettata a 375w sarebbe costato anche meno il PCB e il sistema di raffreddamento. 75w per 4% è tipico scenario da overclock, diciamocela tutta.
Quindi... dovendo chiedere un sacco di soldi io lo tramuterei in VOLENDO chiedere un sacco di soldi, ma magari mi sbaglio :stordita: .
Ale55andr0
11-10-2022, 21:19
Si parlava di almeno 20 gbps
ottimo
Ale55andr0
11-10-2022, 21:20
Vedo Lisa che grida, aumentate il pl di 100 wattttt l'MSRP di 100$
:D
fixed :asd:
Arrow0309
11-10-2022, 23:35
Vedo Lisa che grida, aumentate il pl di 100 wattttt + l'MSRP di 100$
:D
fixed :asd:
Entrambe rega
Buongiorno, vedendo i prezzi allucinanti delle nuove verdi mi domando se esiste la possibilità di trovare una 7800/XT intorno ai 900€. Secondo voi è possibile? Altrimenti mi metto l'anima in pace e prendo una 6900XT accettando qualche compromesso
Buongiorno, vedendo i prezzi allucinanti delle nuove verdi mi domando se esiste la possibilità di trovare una 7800/XT intorno ai 900€. Secondo voi è possibile? Altrimenti mi metto l'anima in pace e prendo una 6900XT accettando qualche compromesso
Mi sa che devi aspettare il 3 come tutti noi...:muro:
Mi sa che devi aspettare il 3 come tutti noi...
È quello che avevo in mente ma ho il sentore che i prezzi saranno vicini alla concorrenza e l'assenza di leaks mi fa impazzire.
La tentazione di saltare questa generazione si fa sempre più grande
ninja750
12-10-2022, 08:03
Assolutamente, se prezzate bene potrebbero sbancare….SE. il problema è che dubito abbiano intenzione di farlo
ma sbancare cosa in una fascia di mercato da 1000+€? io quella la lascerei volentieri ogni gen a giacchetta. sono numeri ridicoli
non sbancheranno nulla, per sbancare bisognerà vedere nella fascia sub 500 e sub 400 quelle che la gente compra, e si sta già turando il naso perchè prima ne spendevano 100 in meno per fascia
Vedo Lisa che grida, aumentate il tjmax a 105°
:D
arifixed
Buongiorno, vedendo i prezzi allucinanti delle nuove verdi mi domando se esiste la possibilità di trovare una 7800/XT intorno ai 900€. Secondo voi è possibile? Altrimenti mi metto l'anima in pace e prendo una 6900XT accettando qualche compromesso
keep calm & porta pazienz'
ninja750
12-10-2022, 08:16
ieri ho notato una cosa curiosa che rende in parte interessante l'uscita delle 7000 AMD
la 4090 scala benissimo in 4k ma malissimo in 1440p/1080p, tanto che in alcuni giochi non ci sono vantaggi né rispetto ad ampere né rispetto a RDNA2. leggendo qua e la viene data la colpa sia allo scaling (che poi cavoli loro se scala male) e alla possibilità che sia molto cpu limited (ri-cavoli loro visto che le recensioni le hanno fatte con la cpu più veloce acquistabile oggi)
la considerazione è che abbiamo visto come negli anni nvidia soffra di overhead driver, l'ipotesi è che una 7900XT di pari potenza sulla carta possa andare molto ma molto di più in 1440P o inferiori, per pareggiare in 4K
avrebbe un ottimo posizionamento e logica per quelli che giocano competitivo e cercano tantissimi FPS a risoluzioni non-4k, proprio dove si è evidenziato bene questo problema
È quello che avevo in mente ma ho il sentore che i prezzi saranno vicini alla concorrenza e l'assenza di leaks mi fa impazzire.
La tentazione di saltare questa generazione si fa sempre più grande
Beh in teoria con le nuove in uscita non avranno senso le 6900 a 1000€ (custom) e già le referenze sono scese, aspettare non costa nulla, anche io sono nella tua stessa situazione!
Gyammy85
12-10-2022, 08:20
ieri ho notato una cosa curiosa che rende in parte interessante l'uscita delle 7000 AMD
la 4090 scala benissimo in 4k ma malissimo in 1440p/1080p, tanto che in alcuni giochi non ci sono vantaggi né rispetto ad ampere né rispetto a RDNA2. leggendo qua e la viene data la colpa sia allo scaling (che poi cavoli loro se scala male) e alla possibilità che sia molto cpu limited (ri-cavoli loro visto che le recensioni le hanno fatte con la cpu più veloce acquistabile oggi)
la considerazione è che abbiamo visto come negli anni nvidia soffra di overhead driver, l'ipotesi è che una 7900XT di pari potenza sulla carta possa andare molto ma molto di più in 1440P o inferiori, per pareggiare in 4K
avrebbe un ottimo posizionamento e logica per quelli che giocano competitivo e cercano tantissimi FPS a risoluzioni non-4k, proprio dove si è evidenziato bene questo problema
Andare di più in 4k è facile basta aumentare la banda, e navi 31 dovrebbe avere 1 tb reali che diventerebbero anche 3 con la cache
Non cominciamo con la corsa al ribasso, siamo partiti con è sotto di poco con rt a va comunque più di ampere a almeno starà sempre sopra in raster a "4k no ma sicuro a 1440p si", capisco l'ubriacatura però...bastava pigliare una 3090 e metterci +70/80% per ubriacarsi uguale pure un anno fa :O
Gigibian
12-10-2022, 08:20
ieri ho notato una cosa curiosa che rende in parte interessante l'uscita delle 7000 AMD
la 4090 scala benissimo in 4k ma malissimo in 1440p/1080p, tanto che in alcuni giochi non ci sono vantaggi né rispetto ad ampere né rispetto a RDNA2. leggendo qua e la viene data la colpa sia allo scaling (che poi cavoli loro se scala male) e alla possibilità che sia molto cpu limited (ri-cavoli loro visto che le recensioni le hanno fatte con la cpu più veloce acquistabile oggi)
la considerazione è che abbiamo visto come negli anni nvidia soffra di overhead driver, l'ipotesi è che una 7900XT di pari potenza sulla carta possa andare molto ma molto di più in 1440P o inferiori, per pareggiare in 4K
avrebbe un ottimo posizionamento e logica per quelli che giocano competitivo e cercano tantissimi FPS a risoluzioni non-4k, proprio dove si è evidenziato bene questo problema
Assolutamente d'accordo su tutto!
La 7900XT per chi cerca tantissimi FPS in 1440p, OPPURE, chi vuole giocare a cyberpunk o a plague tale con tutte le impostazioni a fondo scala :) (compreso SMAA4x! il TAA lo lasciamo ai ragazzi :P )
Beh in teoria con le nuove in uscita non avranno senso le 6900 a 1000€ (custom)
Si trovano a 700/800€ ora, la paura per me è che assestino la nuova generazione (dalla 7800 in poi) sopra i 1000€ come ha fatto Nvidia.
Ad ogni modo aspetterò
Si trovano a 700/800€ ora, la paura per me è che assestino la nuova generazione (dalla 7800 in poi) sopra i 1000€ come ha fatto Nvidia.
Ad ogni modo aspetterò
L'unica cosa è che probabilmente presenterà la fascia alta...ma sono solo rumor!
narniagreen
12-10-2022, 08:53
Se fai uscire un leak amd oggi si perde nell'oceano di complimenti e stupori vari sulla 4090, ma sempre meglio dell'altra volta dove il massimo possibile arrivabile era la 3070
Qua bene, concordo.
La 4090 si sa quanto va dal 2021 o giù di lì, la review non ha aggiunto niente di più, il bello viene ora, con quelli dello #stopbuy che acquisteranno a 3000 euro la 4090 rog strix senza problemi
Qua male, classico rosicone.
Ma ancora che rosichi dopo tutti sti anni per delle VGA?
quoto, ma era ovvio che fosse così...come sempre AMD è in ritardo. Ora, o fa prezzi davvero aggressivi al limite del possibile oppure ciaone anche a questo giro...
in che senso "ritardo", quando una gen dura 2 anni?
https://media.tenor.com/jmYGxzxLqGMAAAAM/whatever-shrug.gif
Avete capito male, “va come Verstappen” significa che sfora il budget… infatti guardate quanto costa… :D
Ahahahahah :sofico:
Onestamente vedendo come scala (bene) la 4090 scendendo di wattaggio, mi chiedo perché l'abbiano dovuta lanciare a 450w. Voglio dire, a 375w perde tipo il 4%, quindi il dubbio di chi abbia gridato per alzare il power limit a me viene al contrario :stordita:
O è un megalomane, o sa che per difendersi da Navi31 deve fare i salti mortali.
O è un megalomane, o sa che per difendersi da Navi31 deve fare i salti mortali.
Già, probabile che il più grande e affidabile leak per la flagship amd..l'ha rilasciato Nvidia stessa:D
Anche perché di logica oltre che inutile e deleterio spingere troppo per poco, più consumi calore costi PCB etc, oltretutto lasci anche pochissimo margine ai tuoi partner per le custom
EVGA docet..
Già, probabile che il più grande e affidabile leak per la flagship amd..l'ha rilasciato Nvidia stessa:D
Quoto, evidentemente JHH sa che la bestia rossa ara i campi e quindi ha spinto al massimo, la 4090 è assolutamente estrema per il contesto attuale, anche troppo. :rolleyes:
Quoto, evidentemente JHH sa che la bestia rossa ara i campi e quindi ha spinto al massimo, la 4090 è assolutamente estrema per il contesto attuale, anche troppo. :rolleyes:
i prodigeek - non mi fanno impazzire ma han portato bene avanti il business - dicono scali male in fhd la 4090
bho... io me la farei, è troppo figa, un po' come la campbel
dai in dlss3 e rtx ma anche in raster puro spara veramente alto, tanto da rendere quasi inutili le cpu come raptor e ryzla z4
da una parte sono molto contento di questo, stavo quasi per vendere la 6900xt da gioco, ma penso che me la terrò un altro anno, e forse me la terrò a vita... e a fine prossimo anno, cambio totalmente piattaforma + 4090
ovviamente lo dico con la speranza che amd tiri qualcosa di buono fuori e che magari pompi di brutto in fullhd... 360hz o 390hz con 360-390fps fissi mi servonOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOO
i prodigeek - non mi fanno impazzire ma han portato bene avanti il business - dicono scali male in fhd la 4090
bho... io me la farei, è troppo figa, un po' come la campbel
dai in dlss3 e rtx ma anche in raster puro spara veramente alto, tanto da rendere quasi inutili le cpu come raptor e ryzla z4
da una parte sono molto contento di questo, stavo quasi per vendere la 6900xt da gioco, ma penso che me la terrò un altro anno, e forse me la terrò a vita... e a fine prossimo anno, cambio totalmente piattaforma + 4090
ovviamente lo dico con la speranza che amd tiri qualcosa di buono fuori e che magari pompi di brutto in fullhd... 360hz o 390hz con 360-390fps fissi mi servonOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOO
Si diciamo che ci farei una sveltina, poi però la lascio e mi metto con una ragazza seria, questa è un pò frivola (se mi sente mia moglie...) :fagiano:
Adesso meglio aspettare a mio avviso, per avere il quadro d'insieme di entrambi i produttori, le schede che m'interessano devono ancora uscire :)
Ale55andr0
12-10-2022, 10:18
Già, probabile che il più grande e affidabile leak per la flagship amd..l'ha rilasciato Nvidia stessa:D
Anche perché di logica oltre che inutile e deleterio spingere troppo per poco, più consumi calore costi PCB etc, oltretutto lasci anche pochissimo margine ai tuoi partner per le custom
EVGA docet..
Quoto, evidentemente JHH sa che la bestia rossa ara i campi e quindi ha spinto al massimo, la 4090 è assolutamente estrema per il contesto attuale, anche troppo. :rolleyes:
Sul consumo si' MA se te le piazza a 2000 poi pensi l'esatto opposto (posso permettermi di prezzarle quanto voglio e le vendo, ergo paura di AMD 0). Tale ragionamento era molto più credibile con la 3070 "faster than 2080Ti quattro-nove-nove"
Gyammy85
12-10-2022, 10:28
Sul consumo si' MA se te le piazza a 2000 poi pensi l'esatto opposto (posso permettermi di prezzarle quanto voglio e le vendo, ergo paura di AMD 0). Tale ragionamento era molto più credibile con la 3070 "faster than 2080Ti quattro-nove-nove"
Il fail di amd era dietro l'angolo con la 3080 a 699 perché amd andava max come una 3070 con 300 watt ed è dietro l'angolo ora con una vga "stupenda leggendaria" a 2500 perché andrà max come una 1030 in rt, non vedo le differenze
Ale55andr0
12-10-2022, 10:37
Il fail di amd era dietro l'angolo con la 3080 a 699 perché amd andava max come una 3070 con 300 watt ed è dietro l'angolo ora con una vga "stupenda leggendaria" a 2500 perché andrà max come una 1030 in rt, non vedo le differenze
ogni tanto prova a cambiare caramella
ninja750
12-10-2022, 11:06
Sul consumo si' MA se te le piazza a 2000 poi pensi l'esatto opposto (posso permettermi di prezzarle quanto voglio e le vendo, ergo paura di AMD 0).
siamo al solito discorso che chi compra verde lo farà a prescindere, piuttosto perde una fascia ma rimane verde (e al verde) e quello che producono di rosso nemmeno viene guardato per i soliti discorsi triti e ritriti
narniagreen
12-10-2022, 11:13
siamo al solito discorso che chi compra verde lo farà a prescindere, piuttosto perde una fascia ma rimane verde (e al verde) e quello che producono di rosso nemmeno viene guardato per i soliti discorsi triti e ritriti
Ma infatti ancora sentire parlare di concorrenza nel 2022 fa proprio ridere, ahah :D
bisogna vedere entrambe le lineup complete
l'RT o meglio la serie 3000 non era il riferimento, per me, non era proprio da prendere come riferimento
erano un po' le prime bozze, come prestazioni diciamo ok ma non troppo
la 4090 sarà overkill per tutto e tutti ma deve essere il punto di riferimento per l'RT, e va al di là di ogni nostra valutazione
poi.. da qui a vedere sfornare titoli con rt come zio comanda, ce ne passa
la demo/beta di plague tale comunque parla in quel senso
amd in raster non credo avrà problemi, prendendo come metro di paragone proprio la 4090... su RT sarà tutta una sorpresa, in negativo che in positivo
da qui in avanti - per adesso, magari a fine mese esce amd e sarà lei con le 7000 il nuovo metro di paragone - la 4090 sarà il metro di paragone
avete visto il test a 200w dei prodigeek?
Ale55andr0
12-10-2022, 11:23
in raster ormai non ha problemi nessun da 6700/roito in su, non è certo quello l'ago della bilancia
Gyammy85
12-10-2022, 11:26
bisogna vedere entrambe le lineup complete
l'RT o meglio la serie 3000 non era il riferimento, per me, non era proprio da prendere come riferimento
erano un po' le prime bozze, come prestazioni diciamo ok ma non troppo
la 4090 sarà overkill per tutto e tutti ma deve essere il punto di riferimento per l'RT, e va al di là di ogni nostra valutazione
poi.. da qui a vedere sfornare titoli con rt come zio comanda, ce ne passa
la demo/beta di plague tale comunque parla in quel senso
amd in raster non credo avrà problemi, prendendo come metro di paragone proprio la 4090... su RT sarà tutta una sorpresa, in negativo che in positivo
da qui in avanti - per adesso, magari a fine mese esce amd e sarà lei con le 7000 il nuovo metro di paragone - la 4090 sarà il metro di paragone
avete visto il test a 200w dei prodigeek?
La nuova moda dei test a metà potenza per dimostrare che siamo grossi anche se siamo piccoli
narniagreen
12-10-2022, 11:27
...
avete visto il test a 200w dei prodigeek?
Ma secondo te io ho perso mai tempo nel guardare i video marketta dei prodicosi? :ciapet:
La nuova moda dei test a metà potenza per dimostrare che siamo grossi anche se siamo piccoli
a me interessa se voglio giocare la notte a warzozzo mentre la donna dorme
non voglio sentire le ventole a palla, e voglio un sistema itx stra tappato bello fresco :O
praticamente con 200w bloccati hai due schede in una, la potenza della 4090 e la conservatezza della 3090 :O
e poi greta mi fa un boc.... ahemmm
ninja750
12-10-2022, 11:30
l'RT o meglio la serie 3000 non era il riferimento, per me, non era proprio da prendere come riferimento
erano un po' le prime bozze, come prestazioni diciamo ok ma non troppo
poveri quelli che hanno comprato le RTX2000 per giocare in raytracing allora
poveri quelli che hanno comprato le RTX2000 per giocare in raytracing allora
ma è vero infatti, a parte forse le 2080
poveri quelli che hanno comprato le RTX2000 per giocare in raytracing allora
non commento :asd:
ma diciamo che quegli utenti sono simili a quelli che hanno abboccato a mantle all'uscita di bf4 :asd:
1 a 1 palle al centro
Sul consumo si' MA se te le piazza a 2000 poi pensi l'esatto opposto (posso permettermi di prezzarle quanto voglio e le vendo, ergo paura di AMD 0). Tale ragionamento era molto più credibile con la 3070 "faster than 2080Ti quattro-nove-nove"
Penso che la fascia 4090 non sia così importante da fronteggiare, del resto è un prodotto di nicchia ad un prezzo di nicchia, AMD può benissimo attendere un paio di settimane e svelare le sue carte. Tanto chi vuole RTX compra RTX, poi c'è chi aspetta.
Poi lo sappiamo, JHH prezza i suoi prodotti (almeno nelle ultime gen) > di AMD.
Insomma il silenzio non è per forza un segnale brutto.
Ale55andr0
12-10-2022, 11:39
La nuova moda dei test a metà potenza per dimostrare che siamo grossi anche se siamo piccoli
by "basta downcloccare e consuma scalda poco come nvidia" (cit tu qualche gen fa)
narniagreen
12-10-2022, 11:39
non commento :asd:
ma diciamo che quegli utenti sono simili a quelli che hanno abboccato a mantle all'uscita di bf4 :asd:
1 a 1 palle al centro
Ma diciamo anche che la propaganda sul forum era bella forte ai tempi, non è che non te lo ricordi di come lottavate per difendere le rtx2000 :asd:
Non voglio fare il Gyammy, non mi interessa o non rosico più per il ban, ma tant'è ;)
Ale55andr0
12-10-2022, 11:39
Ma secondo te io ho perso mai tempo nel guardare i video marketta dei prodicosi? :ciapet:
non markettano nulla, dicono quasi che non ha senso acquistarla se non pochissimi casi, non mi pare granchè come promo....:asd:
Gyammy85
12-10-2022, 11:40
a me interessa se voglio giocare la notte a warzozzo mentre la donna dorme
non voglio sentire le ventole a palla, e voglio un sistema itx stra tappato bello fresco :O
praticamente con 200w bloccati hai due schede in una, la potenza della 4090 e la conservatezza della 3090 :O
e poi greta mi fa un boc.... ahemmm
Visto e considerato che la 4090 andrà al massimo un +40% sulla tua nei giochi che dici a quella res l'esperienza di gioco è praticamente la stessa
Mini itx, come no, pure una boccia di nutella casomai ci venisse fame
Gyammy85
12-10-2022, 11:46
by "basta downcloccare e consuma scalda poco come nvidia" (cit tu qualche gen fa)
Magari in un discorso ci può stare dato che se prendi una vega 56 consuma relativamente poco ma la 64 no (ammesso che fosse questa l'occasione)
Ma qui abbiamo il thread ryzen "guarda a 65 watt va quasi come a stock ma perché lo hanno fatto", la 4090 "wow a 200 watt va tantissimo lo stesso ma è incredibile", sono modi diversi di fare marketing adattandolo all'utenza media
Visto e considerato che la 4090 andrà al massimo un +40% sulla tua nei giochi che dici a quella res l'esperienza di gioco è praticamente la stessa
Mini itx, come no, pure una boccia di nutella casomai ci venisse fame
la 6900xt ci sta e pure bella fresca :O
sniperspa
12-10-2022, 12:42
Ma qui abbiamo il thread ryzen "guarda a 65 watt va quasi come a stock ma perché lo hanno fatto", la 4090 "wow a 200 watt va tantissimo lo stesso ma è incredibile", sono modi diversi di fare marketing adattandolo all'utenza media
Mi sa un pò da "compro la macchina elettrica da 60 mila € perchè mi costa meno mantenerla"
Ale55andr0
12-10-2022, 12:48
Mi sa un pò da "compro la macchina elettrica da 60 mila € perchè mi costa meno mantenerla"
Diciamo che come detto altrove nel tanto hai anche il poco, il contrario no
by "basta downcloccare e consuma scalda poco come nvidia" (cit tu qualche gen fa)
:p
Magari in un discorso ci può stare dato che se prendi una vega 56 consuma relativamente poco ma la 64 no (ammesso che fosse questa l'occasione)
Ma qui abbiamo il thread ryzen "guarda a 65 watt va quasi come a stock ma perché lo hanno fatto", la 4090 "wow a 200 watt va tantissimo lo stesso ma è incredibile", sono modi diversi di fare marketing adattandolo all'utenza media
per me il discorso è piu' per il calore e rumore
ma le reference nvidia sono sempre state avanti su quel fronte e tra l'altro la 4090 uberpaua scalda pure poco
quante volte mi è stato detto di lockare la 6900xt sia per framerate che per volt sul thread delle 6000... non le conto...
dai su non farne un cruccio, la 4090 ha sborrato su tutti i fronti, e ci ha schizzato tutti in faccia, pure te:
- vuoi il massimo, 4090
- vuoi il massimo ma con un pelo di minimo, 4090
- vuoi il minimo, locka la 4090 a 200w
- vuoi il medio, non il dito, 4090
- vuoi raster, 4090
- vuoi rt, 4090
- vuoi retrogaming e rt, 4090
- cetrioli ne avete, 4090
- i zucchini quanti li fai, 4090
Ale55andr0
12-10-2022, 13:13
se vuoi il massimo prima aspetti AMD (si sa mai..) e poi la 4090ti con 18k cuda e le 24gbs...2 testoni per due testoni tanto vale avere il chip full
se vuoi il massimo prima aspetti AMD (si sa mai..) e poi la 4090ti con 18k cuda e le 24gbs...2 testoni per due testoni tanto vale avere il chip full
se amd non tira fuori qualcosa di rokkosolido, prima che nvidia faccia uscire una 4090ti campa cavallo
ci metto una mano sul fuoco che a sto giro vedremo prima una titan a tipo 3-4000 euro e poi una TI
Andy1111
12-10-2022, 13:18
:p
per me il discorso è piu' per il calore e rumore
ma le reference nvidia sono sempre state avanti su quel fronte e tra l'altro la 4090 uberpaua scalda pure poco
quante volte mi è stato detto di lockare la 6900xt sia per framerate che per volt sul thread delle 6000... non le conto...
dai su non farne un cruccio, la 4090 ha sborrato su tutti i fronti, e ci ha schizzato tutti in faccia, pure te:
- vuoi il massimo, 4090
- vuoi il massimo ma con un pelo di minimo, 4090
- vuoi il minimo, locka la 4090 a 200w
- vuoi il medio, non il dito, 4090
- vuoi raster, 4090
- vuoi rt, 4090
- vuoi retrogaming e rt, 4090
- cetrioli ne avete, 4090
- i zucchini quanti li fai, 4090
Con 2500€ mi ci sono fatto un PC nuovo mobo ram processore vga e rispettivi waterblock per mettere a liquido e come vedi in firma non sono andato al risparmio!
mikael84
12-10-2022, 13:21
se amd non tira fuori qualcosa di rokkosolido, prima che nvidia faccia uscire una 4090ti campa cavallo
ci metto una mano sul fuoco che a sto giro vedremo prima una titan a tipo 3-4000 euro e poi una TI
Se non ci lavori in ambito pro, usi programmi come blender, è davvero no sense. Ormai si stanno raggiungendo le quadro di fascia alta. Dopo si andrà verso le tesla.:D
AceGranger
12-10-2022, 13:25
Se non ci lavori in ambito pro, usi programmi come blender, è davvero no sense. Ormai si stanno raggiungendo le quadro di fascia alta. Dopo si andrà verso le tesla.:D
si stanno raggiungendo le VECCHIE Quadro di fascia alta... le attuali Quadro TOP costano come automobili :asd:
Andy1111
12-10-2022, 13:25
Se non ci lavori in ambito pro, usi programmi come blender, è davvero no sense. Ormai si stanno raggiungendo le quadro di fascia alta. Dopo si andrà verso le tesla.:D
mikael84 dopo questo refresh se nvidia non mette mano a tutto dalla prossima gen ci sarà poco da stare allegri, tra mega chipponi che a livello full arriveranno anche oltre gli ho 800W, la scarsa scalabilità ecc ecc
Se non ci lavori in ambito pro, usi programmi come blender, è davvero no sense. Ormai si stanno raggiungendo le quadro di fascia alta. Dopo si andrà verso le tesla.:D
tu dammi una scheda da 360-390fissi su warazozzo... poi te lo dico io cosa è sense per me :p :O
mikael84
12-10-2022, 13:43
si stanno raggiungendo le VECCHIE Quadro di fascia alta... le attuali Quadro TOP costano come automobili :asd:
Sinceramente non ho neppure visto il listino della nuova, ma ho visto quello di hopper:D
mikael84 dopo questo refresh se nvidia non mette mano a tutto dalla prossima gen ci sarà poco da stare allegri, tra mega chipponi che a livello full arriveranno anche oltre gli ho 800W, la scarsa scalabilità ecc ecc
La prossima gen, è ancora un mistero, tra diffusione RT e UE5 a livello software.
Cmq ancora non si sa neppure il nodo che userà, potrebbe anche utilizzare i primi GAAFET 3nm di samsung. Il 2nm di TSMC per il 2024 non è pronto.
Rivedere la microarchitettura sarà fondamentale, a sto giro ha sfruttato il clock, come su Pascal.
tu dammi una scheda da 360-390fissi su warazozzo... poi te lo dico io cosa è sense per me :p :O
Purtroppo non ne produco ancora GPU.:( :p
visto che sei diventato ricco, finanziami. :D
narniagreen
12-10-2022, 13:47
non markettano nulla, dicono quasi che non ha senso acquistarla se non pochissimi casi, non mi pare granchè come promo....:asd:
Non parlo di questo caso specifico, ripeto figurati se apro un loro video, ma sono anni che campano markettando Nvidia, almeno da quel che mi ricordo di anni fa, poi se non è più così non gli regalo lo stesso la mia views...
A lavorare deve andare sta gente.
la 6900xt ci sta e pure bella fresca :O
Uhm, non è tanto mini itx, faccela stare qua https://it.sharkoon.com/product/16433 ;) i 40€ meglio spesi, in salotto ci fosse uno che si accorge che sia un PC :D
Non parlo di questo caso specifico, ripeto figurati se apro un loro video, ma sono anni che campano markettando Nvidia, almeno da quel che mi ricordo di anni fa, poi se non è più così non gli regalo lo stesso la mia views...
A lavorare deve andare sta gente.
Uhm, non è tanto mini itx, faccela stare qua https://it.sharkoon.com/product/16433 ;) i 40€ meglio spesi, in salotto ci fosse uno che si accorge che sia un PC :D
ehhh pare na lavastoviglie :stordita:
https://pbs.twimg.com/media/DVi6FbAXcAYWNCz.jpg
next time take a nr200p ;)
narniagreen
12-10-2022, 14:08
ehhh pare na lavastoviglie :stordita:
https://pbs.twimg.com/media/DVi6FbAXcAYWNCz.jpg
next time take a nr200p ;)
ahahah :rotfl:
Dai è bello, poi pagato 40€ e sembra un subwoofer, nessuno pensa che sia un PC ;)
https://www.sharkoon.com/ImgSrv/1000/1000/QB_ONE/gallery/Cases_and_Power/Mini_ITX/QB_ONE/QB_ONE_04.jpg
ho pensato la stessa cosa... ma dillo alla tipa quando arriva con i piatti sporchi a caricarti il pc :D
fraussantin
12-10-2022, 14:16
Cut
narniagreen
12-10-2022, 14:43
ho pensato la stessa cosa... ma dillo alla tipa quando arriva con i piatti sporchi a caricarti il pc :D
Non c'è pericolo, la lavastoviglie la faccio io da vero maschio alpha 2.0 :sbonk:
Arrow0309
12-10-2022, 16:56
:p
per me il discorso è piu' per il calore e rumore
ma le reference nvidia sono sempre state avanti su quel fronte e tra l'altro la 4090 uberpaua scalda pure poco
quante volte mi è stato detto di lockare la 6900xt sia per framerate che per volt sul thread delle 6000... non le conto...
dai su non farne un cruccio, la 4090 ha sborrato su tutti i fronti, e ci ha schizzato tutti in faccia, pure te:
- vuoi il massimo, 4090
- vuoi il massimo ma con un pelo di minimo, 4090
- vuoi il minimo, locka la 4090 a 200w
- vuoi il medio, non il dito, 4090
- vuoi raster, 4090
- vuoi rt, 4090
- vuoi retrogaming e rt, 4090
- cetrioli ne avete, 4090
- i zucchini quanti li fai, 4090
https://64.media.tumblr.com/48b608c503b41af9648078323b646cf1/tumblr_mpxzy0KiZx1rgewb2o2_250.gif
AceGranger
12-10-2022, 17:50
ahahah :rotfl:
Dai è bello, poi pagato 40€ e sembra un subwoofer, nessuno pensa che sia un PC ;)
si.. ma di quelli brutti :ciapet:
Arrow0309
12-10-2022, 19:21
[... cut ...]
Purtroppo non ne produco ancora GPU.:( :p
visto che sei diventato ricco, finanziami. :D
Quoto :asd:
E deve cambiare pure la firma sotto l'avatar :p
mikael84
13-10-2022, 00:58
Quoto :asd:
E deve cambiare pure la firma sotto l'avatar :p
E' ricco, non mi finanzia e deve anche cambiare la firma.:p
https://wccftech.com/amd-radeon-rx-7000-rdna-3-launch-december-difficult-to-compete-with-nvidia-rtx-40-gpus-rumor/
"AMD lancerà due schede grafiche Radeon RX 7000 a dicembre, le prestazioni complessive sono inferiori nel ray-tracing e nella rasterizzazione rispetto alle GPU RTX 40 di NVIDIA"
Mah... tirare fuori almeno un sintetico, così calcoliamo le perf... Non deve darla vinta a JHH, per carità.
https://wccftech.com/amd-radeon-rx-7000-rdna-3-launch-december-difficult-to-compete-with-nvidia-rtx-40-gpus-rumor/
"AMD lancerà due schede grafiche Radeon RX 7000 a dicembre, le prestazioni complessive sono inferiori nel ray-tracing e nella rasterizzazione rispetto alle GPU RTX 40 di NVIDIA"
A me basta che vadano più della 6900 in raster a prezzo/consumi decenti chi se ne frega della 4090!
OvErClOck82
13-10-2022, 06:23
E' ricco, non mi finanzia e deve anche cambiare la firma.:p
https://wccftech.com/amd-radeon-rx-7000-rdna-3-launch-december-difficult-to-compete-with-nvidia-rtx-40-gpus-rumor/
"AMD lancerà due schede grafiche Radeon RX 7000 a dicembre, le prestazioni complessive sono inferiori nel ray-tracing e nella rasterizzazione rispetto alle GPU RTX 40 di NVIDIA"
Mah... tirare fuori almeno un sintetico, così calcoliamo le perf... Non deve darla vinta a JHH, per carità.
da come ha scritto, la top avrà prestazioni inferiori alla 4090, il resto è libera interpretazione di chi ha scritto l' "articolo"
A me che sia sotto la 4090 poco interessa, quello che mi interessa è quanto va di più della gpu che ho adesso (6900xt) e soprattutto il prezzo.
Io ai prezzi nvidia non compro nulla e se amd si adeguerà (come temo che faccia, l'inflazione è alle stessa, aspettarsi prezzi "bassi" è da illusi) me ne resto tranquillo con la 6900xt fino alla prossima gen sperano che intanto la situazione globale si calmi un po'.
This! Io al massimo se dovessero allinearsi ai prezzi Nvidia prendo la 6900 e bon
Gyammy85
13-10-2022, 06:40
A me che sia sotto la 4090 poco interessa, quello che mi interessa è quanto va di più della gpu che ho adesso (6900xt) e soprattutto il prezzo.
Io ai prezzi nvidia non compro nulla e se amd si adeguerà (come temo che faccia, l'inflazione è alle stessa, aspettarsi prezzi "bassi" è da illusi) me ne resto tranquillo con la 6900xt fino alla prossima gen sperano che intanto la situazione globale si calmi un po'.
Eh sarà difficile andare più delle vga vecchie per le vga nuove di AMD, come al solito
MetalAxe79
13-10-2022, 07:05
This! Io al massimo se dovessero allinearsi ai prezzi Nvidia prendo la 6900 e bonConcordo, io adesso ho una 5700xt... Vorrei prendere una delle nuove, ma se sparando prezzi folli vado su una 6900xt, che adesso si riesce a trovare a prezzi ragionevoli.
Inviato dal mio Mi 9T utilizzando Tapatalk
A me che sia sotto la 4090 poco interessa, quello che mi interessa è quanto va di più della gpu che ho adesso (6900xt) e soprattutto il prezzo.
Io ai prezzi nvidia non compro nulla e se amd si adeguerà (come temo che faccia, l'inflazione è alle stelle, aspettarsi prezzi "bassi" è da illusi) me ne resto tranquillo con la 6900xt fino alla prossima gen sperano che intanto la situazione globale si calmi un po'.
Se ricalcherà la strategia precedente i prezzi saranno leggermente più bassi ma senza esagerare.
Ho ricontrollato e la RTX 3080 venne presentata, sulla carta, a 800$ mentre la 6800XT a 650$ (-18%). Se teniamo lo stesso scarto viene una ipotetica 7800XT a 740$ se si prende a riferimento la 4080 12GB.
Per l'ipotetica 6900 XT penso che il prezzo dipenderà più dalle performance rispetto alla 4090.
Comunque, nel caso i prezzi siano sparati all'inverosimile potrei fare un pensierino su una 6900XT o 6800XT visto che ora si trovano (sono sempre care ma almeno non a prezzi da follia).
Coda per la tua 6900XT a 350€ :asd:
Visti i prezzi in discesa paurosa, la mia, se prendo la gpu nuova, me la tengo di backup piuttosto che svenderla :sofico:
E fai benissimo io la 6800XT l'ho messa come muletto e la tengo di backup per i prossimi 10 anni.
E' ricco, non mi finanzia e deve anche cambiare la firma.:p
https://wccftech.com/amd-radeon-rx-7000-rdna-3-launch-december-difficult-to-compete-with-nvidia-rtx-40-gpus-rumor/
"AMD lancerà due schede grafiche Radeon RX 7000 a dicembre, le prestazioni complessive sono inferiori nel ray-tracing e nella rasterizzazione rispetto alle GPU RTX 40 di NVIDIA"
Mah... tirare fuori almeno un sintetico, così calcoliamo le perf... Non deve darla vinta a JHH, per carità.
Diciamo che quell'articolo è pieno di sembrerebbe, parrebbe ecc, nessun riscontro reale, sono ipotesi :)
Poi in ogni caso, ma anche fosse ? Anzi... io spero davvero che siano inferiori perchè qua non sono le prestazioni il problema sono i prezzi, e più vai più costi e a me di vedere le schede in vetrina non piace molto preferisco metterle nel case :sofico:
narniagreen
13-10-2022, 09:18
si.. ma di quelli brutti :ciapet:
Uffaaa :(
Comunque tutti quelli che lo vedono mi dicono che non si nota che sia un PC e che è carino :friend:
E' ricco, non mi finanzia e deve anche cambiare la firma.:p
https://wccftech.com/amd-radeon-rx-7000-rdna-3-launch-december-difficult-to-compete-with-nvidia-rtx-40-gpus-rumor/
"AMD lancerà due schede grafiche Radeon RX 7000 a dicembre, le prestazioni complessive sono inferiori nel ray-tracing e nella rasterizzazione rispetto alle GPU RTX 40 di NVIDIA"
Mah... tirare fuori almeno un sintetico, così calcoliamo le perf... Non deve darla vinta a JHH, per carità.
I bench ce li hanno già tirati fuori le slide ufficiale Nvidia e devo dire che c'è da stare tranquilli sulle performance, almeno raster.
https://www.hwupgrade.it/news/skvideo/geforce-rtx-4080-nuovi-grafici-di-nvidia-mostrano-le-prestazioni_110918.html
Ci dice che la 4080 12GB è simile a 3090/6900XT, ok il dlss3, ma non penso che AMD starà a guardare con FSR e non ci saranno chissà quanti giochi con dlss3 a breve, inoltre sono già riusciti a moddare i driver per le 3000 e dlss3...
Ma anche la 4080 16GB non è nulla di così irraggiungibile, anzi, in quella slide sta a +17% medio dalla 3090ti.
Sicuramente uscirà una 4080ti e la 4090ti, ma onestamente anche meno, saranno schede da 2000+ €.
Enermax ha spoilerato la 7950XT da 420watt, che a prestazioni sulla 6950XT considerando il +50% perf/watt, stiamo a +80~90% di prestazioni, sopra alla 4090 (+70% da 6950XT e SOLO in 4k).
7700XT 200watt
7800XT 300watt
7900XT 330watt
7950XT 420watt
I leak hanno sempre dato 2x in prestazioni assolute, direi che la tabella TDP Enermax è in linea con i leak e il +50% dichiarato in perf/watt, cioè AMD per fare quasi 2x ha alzato di 90watt il TDP della flagship.
Il problema è un altro, cioè cosa succede sotto, le schede da 300~500 a 1000€ max.
in 2k prendendo TPU, 6700XT 200watt va la metà della 4090, il 51%, se alla 7700XT da 200watt consideriamo il +50% perf/watt succede che 51*1.5 = 76.5% pareggerebbe 6950XT e 3090Ti, con SOLI 200watt, pareggia sicuramente la 4080 12GB con quasi 100watt in meno.
Le altre posizionate di conseguenza, 7800XT sopra/pari 4080 16GB, e la 4090 si troverebbe in mezzo alla 7900XT e 7950XT, Nvidia risponderebbe con 4080Ti e 4090Ti.
sulle 7600 non sappiamo molto ed escono tardi, ma vedendo quanto descritto, non mi fascerei la testa, ~6800/XT.
Infine, i dubbi sono realmente solo in RT, li non sappiamo nulla.
Se ricalcherà la strategia precedente i prezzi saranno leggermente più bassi ma senza esagerare.
Ho ricontrollato e la RTX 3080 venne presentata, sulla carta, a 800$ mentre la 6800XT a 650$ (-18%). Se teniamo lo stesso scarto viene una ipotetica 7800XT a 740$ se si prende a riferimento la 4080 12GB.
Per l'ipotetica 6900 XT penso che il prezzo dipenderà più dalle performance rispetto alla 4090.
Comunque, nel caso i prezzi siano sparati all'inverosimile potrei fare un pensierino su una 6900XT o 6800XT visto che ora si trovano (sono sempre care ma almeno non a prezzi da follia).
Coda per la tua 6900XT a 350 :asd:A parte la 4090, la lineup della serie 40 Nvidia fa pietà.
In teoria la 7800xt dovrebbe mangiarsela a colazione quella schifezza di 4080 12gb
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Non ho seguito tutta la debacle, ma ho una domanda, come mai la 4090 e' piu' lenta delle gpu che rimpiazza in molti test raster?
Non avevo mai visto una top di gamma andare piu' lenta della generazione precedente in meta' dei test...
Ora qualcuno dira' "eh ma e' una scheda a 4k", okay, ma qui io vedo benchmark dove siamo di poco sopra i 100 euro e non c'e` verso che qualcuno mi venda che la cpu fa da collo di bottiglia...
Alla fine delle fini parliamo di un +45/50 % medio a 4k, considerati i consumi astronomici, il nuovo processo produttivo, la quantita' di transistors e l'essere il nuovo top di gamma mi sarei aspettato di piu.
https://tpucdn.com/review/msi-geforce-rtx-4090-suprim-liquid-x/images/borderlands-3-2560-1440.png
https://tpucdn.com/review/msi-geforce-rtx-4090-suprim-liquid-x/images/deathloop-1920-1080.png
https://tpucdn.com/review/msi-geforce-rtx-4090-suprim-liquid-x/images/divinity-original-sin-2-2560-1440.png
https://tpucdn.com/review/msi-geforce-rtx-4090-suprim-liquid-x/images/far-cry-6-2560-1440.png
https://tpucdn.com/review/msi-geforce-rtx-4090-suprim-liquid-x/images/halo-infinite-2560-1440.png
https://tpucdn.com/review/msi-geforce-rtx-4090-suprim-liquid-x/images/hitman-3-2560-1440.png
Re-voodoo
13-10-2022, 10:14
Come hai detto te sotto i 4k non scala bene, è una scheda per i 4k +
Non ho seguito tutta la debacle, ma ho una domanda, come mai la 4090 e' piu' lenta delle gpu che rimpiazza in molti test raster?
Non avevo mai visto una top di gamma andare piu' lenta della generazione precedente in meta' dei test...
Ora qualcuno dira' "eh ma e' una scheda a 4k", okay, ma qui io vedo benchmark dove siamo di poco sopra i 100 euro e non c'e` verso che qualcuno mi venda che la cpu fa da collo di bottiglia...
Alla fine delle fini parliamo di un +45/50 % medio a 4k, considerati i consumi astronomici, il nuovo processo produttivo, la quantita' di transistors e l'essere il nuovo top di gamma mi sarei aspettato di piu.
https://tpucdn.com/review/msi-geforce-rtx-4090-suprim-liquid-x/images/borderlands-3-2560-1440.png
https://tpucdn.com/review/msi-geforce-rtx-4090-suprim-liquid-x/images/deathloop-1920-1080.png
https://tpucdn.com/review/msi-geforce-rtx-4090-suprim-liquid-x/images/divinity-original-sin-2-2560-1440.png
https://tpucdn.com/review/msi-geforce-rtx-4090-suprim-liquid-x/images/far-cry-6-2560-1440.png
https://tpucdn.com/review/msi-geforce-rtx-4090-suprim-liquid-x/images/halo-infinite-2560-1440.png
https://tpucdn.com/review/msi-geforce-rtx-4090-suprim-liquid-x/images/hitman-3-2560-1440.png
Perché sotto i 4k non scala, le cpu attuali non danno il giro, magari gli intel 13 o gli x3D prossimi.
narniagreen
13-10-2022, 10:16
Non ho seguito tutta la debacle, ma ho una domanda, come mai la 4090 e' piu' lenta delle gpu che rimpiazza in molti test raster?
Non avevo mai visto una top di gamma andare piu' lenta della generazione precedente in meta' dei test...
Ora qualcuno dira' "eh ma e' una scheda a 4k", okay, ma qui io vedo benchmark dove siamo di poco sopra i 100 euro e non c'e` verso che qualcuno mi venda che la cpu fa da collo di bottiglia...
Alla fine delle fini parliamo di un +45/50 % medio a 4k, considerati i consumi astronomici, il nuovo processo produttivo, la quantita' di transistors e l'essere il nuovo top di gamma mi sarei aspettato di piu.
...cut...
Chiedilo nel thread Nvidia.
Comunque è la combinazione di collo cpu e non sfruttamento ALU per colli in altri punti della microarchitettura.
ADA è Ampere 2.0 eh, non è una architettura nuova.
Gyammy85
13-10-2022, 10:16
Non ho seguito tutta la debacle, ma ho una domanda, come mai la 4090 e' piu' lenta delle gpu che rimpiazza in molti test raster?
Non avevo mai visto una top di gamma andare piu' lenta della generazione precedente in meta' dei test...
Ora qualcuno dira' "eh ma e' una scheda a 4k", okay, ma qui io vedo benchmark dove siamo di poco sopra i 100 euro e non c'e` verso che qualcuno mi venda che la cpu fa da collo di bottiglia...
Alla fine delle fini parliamo di un +45/50 % medio a 4k, considerati i consumi astronomici, il nuovo processo produttivo, la quantita' di transistors e l'essere il nuovo top di gamma mi sarei aspettato di piu.
https://tpucdn.com/review/msi-geforce-rtx-4090-suprim-liquid-x/images/borderlands-3-2560-1440.png
https://tpucdn.com/review/msi-geforce-rtx-4090-suprim-liquid-x/images/deathloop-1920-1080.png
https://tpucdn.com/review/msi-geforce-rtx-4090-suprim-liquid-x/images/divinity-original-sin-2-2560-1440.png
https://tpucdn.com/review/msi-geforce-rtx-4090-suprim-liquid-x/images/far-cry-6-2560-1440.png
https://tpucdn.com/review/msi-geforce-rtx-4090-suprim-liquid-x/images/halo-infinite-2560-1440.png
https://tpucdn.com/review/msi-geforce-rtx-4090-suprim-liquid-x/images/hitman-3-2560-1440.png
La cosa che emerge chiara è che amd non può farcela a sto giro :O
Vebbè che borderlands 3 lo benchano in dx11 per non si sa bene quale motivo, però effettivamente è strano questo comportamento
Vabbè aspettiamo i ryzen 7000 o 7000x3d, ma solo se stanno sotto i 300 euro, come ogni sana company concorrenzah dovrebbe fare per farci prendere la roba davvero buona a meno
RoUge.boh
13-10-2022, 10:17
Visti i prezzi in discesa paurosa, la mia, se prendo la gpu nuova, me la tengo di backup piuttosto che svenderla :sofico:
Io volevo vendere la mia 6800 per prendere la 7800xt ma è un mese che l'ho messa in vendita ma nulla.
leggendo il tuo commento ho buttato un occhio sui prezzi settimana è passata da 600 a 560 adesso.. :muro: :muro:
A sto punto non so quanto mi convenga venderla per una 7800xt...sinceramente
narniagreen
13-10-2022, 10:20
La cosa che emerge chiara è che amd non può farcela a sto giro :O
Vebbè che borderlands 3 lo benchano in dx11 per non si sa bene quale motivo, però effettivamente è strano questo comportamento
Vabbè aspettiamo i ryzen 7000 o 7000x3d, ma solo se stanno sotto i 300 euro, come ogni sana company concorrenzah dovrebbe fare per farci prendere la roba davvero buona a meno
Non è strano, è normale, comunque magari fatica pure nei minimi, perchè almeno dovrebbe stare sopra a tutte anche in collo cpu, la differenza che emerge dai colli cpu è che anche se le prestazioni si appiattiscono, le schede migliori stanno comunque davanti.
PS, rdna3 a basse Res penso proprio che farà a fette Ada.
Sui minimi potrebbe anche essere che la scheda scenda troppo di frequenza e caschi leggermente, se le recensioni sono state fatte con profili normali e non massime prestazioni. Succedeva anche con le Radeon 6000 e i primi driver, specie prima dei driver pro-DX11. Mi ricordo che mettevo le frequenze minime gioco per gioco, cosa che da diversi mesi non ho più dovuto fare :) .
Gyammy85
13-10-2022, 10:25
Non è strano, è normale, comunque magari fatica pure nei minimi, perchè almeno dovrebbe stare sopra a tutte anche in collo cpu, la differenza che emerge dai colli cpu è che anche se le prestazioni si appiattiscono, le schede migliori stanno comunque davanti.
PS, rdna3 a basse Res penso proprio che farà a fette Ada.
Secondo me è talmente pachidermica che è un macigno lato driver
Quei valori non mi sembrano particolarmente ingestibili per una cpu moderna, che i suoi 200 fps almeno li fa più o meno ovunque
Chiaro che nessuno sta con il microscopio a vedere perché e per come, a 2500 euro difficile pretendere di meglio, sperando che le prossime siano peggio e ne costino almeno 4000
alethebest90
13-10-2022, 10:27
Io volevo vendere la mia 6800 per prendere la 7800xt ma è un mese che l'ho messa in vendita ma nulla.
leggendo il tuo commento ho buttato un occhio sui prezzi settimana è passata da 600 a 560 adesso.. :muro: :muro:
A sto punto non so quanto mi convenga venderla per una 7800xt...sinceramente
la festa è finita, la serie 6000amd e la serie 3000 nvidia (e precedenti) verranno ricordate come le schede da collezione sugli scaffali dei privati
con tutta onestà io sono risucito a vendere la rx580 a 350€ quando la pagai meno di 300€ gia quasi nel periodo di rialzo dei prezzi e perciò mi sono preso una rx6600xt sperando che questo periodo finisse prima o poi
Io volevo vendere la mia 6800 per prendere la 7800xt ma è un mese che l'ho messa in vendita ma nulla.
leggendo il tuo commento ho buttato un occhio sui prezzi settimana è passata da 600 a 560 adesso.. :muro: :muro:
A sto punto non so quanto mi convenga venderla per una 7800xt...sinceramente
si ma a parte forse RT, mica è malvagia come scheda
Non essere come gli altri che inseguono sigle e proclami, io ho pc con e senza RT eppure Cyberpunk77 me lo sono goduto su entrambi senza problemi.
Anzi messo su OFF veramente non mi ha fatto pensare anzi guadagnavo in stabilità fps.
p.s. parlo con due pc: 1 con 3070 2 con la 6800
Come hai detto te sotto i 4k non scala bene, è una scheda per i 4k +
A parte che anche a 4k il boost e' solo + 45/50% non avevo mai visto una top di gamma, stile 3090 vs 2080ti andare piu lenta a 720 o 1080p perche' "era una gpu da res superiori".
nessuno29
13-10-2022, 11:22
si ma a parte forse RT, mica è malvagia come scheda
Non essere come gli altri che inseguono sigle e proclami, io ho pc con e senza RT eppure Cyberpunk77 me lo sono goduto su entrambi senza problemi.
Anzi messo su OFF veramente non mi ha fatto pensare anzi guadagnavo in stabilità fps.
p.s. parlo con due pc: 1 con 3070 2 con la 6800
Comunque la 6800 in RT su Cp2077 non va male eh
mikael84
13-10-2022, 11:27
A me basta che vadano più della 6900 in raster a prezzo/consumi decenti chi se ne frega della 4090!
Certo che andranno di più e con meno watt.
da come ha scritto, la top avrà prestazioni inferiori alla 4090, il resto è libera interpretazione di chi ha scritto l' "articolo"
L'ho riportato così per condividerlo, io i calcoli mediamente me li sono già fatti.:)
A me che sia sotto la 4090 poco interessa, quello che mi interessa è quanto va di più della gpu che ho adesso (6900xt) e soprattutto il prezzo.
Io ai prezzi nvidia non compro nulla e se amd si adeguerà (come temo che faccia, l'inflazione è alle stelle, aspettarsi prezzi "bassi" è da illusi) me ne resto tranquillo con la 6900xt fino alla prossima gen sperano che intanto la situazione globale si calmi un po'.
A me basterebbe una scheda simil 6900, magari a meno consumi, della 4090 fottesega. Con una 6900 visto il cambio penalizzante non toccavo proprio nulla.
Certo che andranno di più e con meno watt.
L'ho riportato così per condividerlo, io i calcoli mediamente me li sono già fatti.:)
A me basterebbe una scheda simil 6900, magari a meno consumi, della 4090 fottesega. Con una 6900 visto il cambio penalizzante non toccavo proprio nulla.
Cosa prevedi ? :)
nessuno29
13-10-2022, 11:38
A me serve una scheda da 150watt che vada come una 3080 chissà ahah
Giocando in 1440p 144hz la fascia alta comincia ad essere inutile a questa risoluzione.
mikael84
13-10-2022, 11:49
Diciamo che quell'articolo è pieno di sembrerebbe, parrebbe ecc, nessun riscontro reale, sono ipotesi :)
Poi in ogni caso, ma anche fosse ? Anzi... io spero davvero che siano inferiori perchè qua non sono le prestazioni il problema sono i prezzi, e più vai più costi e a me di vedere le schede in vetrina non piace molto preferisco metterle nel case :sofico:
L'ho giusto riportato, considerando che manca pochissimo al lancio, ed ogni rumor è giusto condividerlo, io mediamente alcuni calcoli me li sono già fatti.
I bench ce li hanno già tirati fuori le slide ufficiale Nvidia e devo dire che c'è da stare tranquilli sulle performance, almeno raster.
https://www.hwupgrade.it/news/skvideo/geforce-rtx-4080-nuovi-grafici-di-nvidia-mostrano-le-prestazioni_110918.html
Ci dice che la 4080 12GB è simile a 3090/6900XT, ok il dlss3, ma non penso che AMD starà a guardare con FSR e non ci saranno chissà quanti giochi con dlss3 a breve, inoltre sono già riusciti a moddare i driver per le 3000 e dlss3...
Ma anche la 4080 16GB non è nulla di così irraggiungibile, anzi, in quella slide sta a +17% medio dalla 3090ti.
Sicuramente uscirà una 4080ti e la 4090ti, ma onestamente anche meno, saranno schede da 2000+ €.
Enermax ha spoilerato la 7950XT da 420watt, che a prestazioni sulla 6950XT considerando il +50% perf/watt, stiamo a +80~90% di prestazioni, sopra alla 4090 (+70% da 6950XT e SOLO in 4k).
7700XT 200watt
7800XT 300watt
7900XT 330watt
7950XT 420watt
I leak hanno sempre dato 2x in prestazioni assolute, direi che la tabella TDP Enermax è in linea con i leak e il +50% dichiarato in perf/watt, cioè AMD per fare quasi 2x ha alzato di 90watt il TDP della flagship.
Il problema è un altro, cioè cosa succede sotto, le schede da 300~500 a 1000€ max.
in 2k prendendo TPU, 6700XT 200watt va la metà della 4090, il 51%, se alla 7700XT da 200watt consideriamo il +50% perf/watt succede che 51*1.5 = 76.5% pareggerebbe 6950XT e 3090Ti, con SOLI 200watt, pareggia sicuramente la 4080 12GB con quasi 100watt in meno.
Le altre posizionate di conseguenza, 7800XT sopra/pari 4080 16GB, e la 4090 si troverebbe in mezzo alla 7900XT e 7950XT, Nvidia risponderebbe con 4080Ti e 4090Ti.
sulle 7600 non sappiamo molto ed escono tardi, ma vedendo quanto descritto, non mi fascerei la testa, ~6800/XT.
Infine, i dubbi sono realmente solo in RT, li non sappiamo nulla.
Mancando poco più di 2 settimane l'ho condiviso, anche perchè parla di probabile lancio solo delle top, anche qua, cosa che non a tutti, come il sottoscritto interessa.:)
Lovelace è solo fascia media, la 4080 12, non è una 4080, la 4080 12, è più una x60. S guardiamo i rapporti cuda x chippone, o interpretiamo i parametri per die siamo li, altro che x80.
Sulle nuove, tralasciando il perf watt, non sempre realistico, vedi 6700xt il 30% sopra la 5700xt, ma consumando pure di più, o la 6900xt con tutt'altro scenario, mediamente una 7800xt, la mid, dovrebbe avere dei rapporti in base alle res (e lo scaling) che corrono tra 6700xt vs 69/500xt.
Mediamente un 2x flops si traduce spesso in un 50-60%, roba che può fare una 7800.
Teoricamente dovrebbe battere la 4070 16, pardon la 4080 16.:)
Non ho seguito tutta la debacle, ma ho una domanda, come mai la 4090 e' piu' lenta delle gpu che rimpiazza in molti test raster?
Non avevo mai visto una top di gamma andare piu' lenta della generazione precedente in meta' dei test...
Ora qualcuno dira' "eh ma e' una scheda a 4k", okay, ma qui io vedo benchmark dove siamo di poco sopra i 100 euro e non c'e` verso che qualcuno mi venda che la cpu fa da collo di bottiglia...
Alla fine delle fini parliamo di un +45/50 % medio a 4k, considerati i consumi astronomici, il nuovo processo produttivo, la quantita' di transistors e l'essere il nuovo top di gamma mi sarei aspettato di piu.
In 1440p scala male, 512 thread, senza hardware scheduler è tosta, ed è un totale no sense per le basse res.
Però non fissatevi solo con quel sito.
Es, su computerbase, alcuni di quei giochi un minimo scalano.
https://i.postimg.cc/MGzZmJtX/halo-tst.png
https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/2/
Nell'esempio che ho fatto, già la 7800xt potrebbe superare la 4090.
fraussantin
13-10-2022, 12:34
Cmq a questo giro le disponibilità ci dovranno essere quindi amd se vuol vendere dovrà per forza essere pi< conveniente.
Se non lo sarà subito basterà aspettare qualche mese.
Potrebbe uscire però qualche leak/notizia, amd come al solito bottonata fino all'annuncio.
In questi giorni sono stato lì lì nel prendere il 5800x3d ma senza la certezza di cambiare GPU non ha senso comprarlo.
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
narniagreen
13-10-2022, 14:15
Es, su computerbase, alcuni di quei giochi un minimo scalano.
https://i.postimg.cc/MGzZmJtX/halo-tst.png
https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/2/
Nell'esempio che ho fatto, già la 7800xt potrebbe superare la 4090.
Beh su Cbase mediamente comunque 4090 sta a +55% su 6900XT in QHD, quindi 7800XT sotto anche se di poco, però si la 7900XT in QHD dovrebbe battere mediamente 4090 già a 330watt, ma in 4k no.
Bisognerebbe capire anche AMD come scalerà alle basse Res, se mantiene l'indole di rdna2, vorrà dire che in 4k soffrirà un po' con ADA che si difenderà bene (+85% da 6900XT), ma in QHD e FHD Nvidia prenderà tante mazzate.
https://i.ibb.co/kQrKkxk/Cattura.jpg
https://i.ibb.co/n0GGTw1/Cattura.jpg
Speriamo che AMD abbia puntato decentemente sul RT, da perdere non più di una fascia.
Ale55andr0
13-10-2022, 14:17
A me che sia sotto la 4090 poco interessa, quello che mi interessa è quanto va di più della gpu che ho adesso (6900xt) e soprattutto il prezzo.
Io ai prezzi nvidia non compro nulla e se amd si adeguerà (come temo che faccia, l'inflazione è alle stelle, aspettarsi prezzi "bassi" è da illusi) me ne resto tranquillo con la 6900xt fino alla prossima gen sperano che intanto la situazione globale si calmi un po'.
Eh sarà difficile andare più delle vga vecchie per le vga nuove di AMD, come al solito
fuoco amico :(
sei incorreggibile :O
Ale55andr0
13-10-2022, 14:18
A me serve una scheda da 150watt che vada come una 3080 chissà ahah
Giocando in 1440p 144hz la fascia alta comincia ad essere inutile a questa risoluzione.
al prossimo giro, coi 3nani TSMC. Per allora cmq una prestazione da 3080 non andrà come una 3080 oggi coi titoli di oggi...per allora ci saranno mattoni in UE5, sara tipo avere una 6600 oggi...
nessuno29
13-10-2022, 14:21
al prossimo giro, coi 3nani TSMC. Per allora cmq la prestazione 3080 non andrà come una 3080 oggi coi titoli di oggi...per allora ci saranno mattoni in UE5
Secondo me la 7700 ci si avvicina, peccato per gli 8gb.
narniagreen
13-10-2022, 14:25
al prossimo giro, coi 3nani TSMC. Per allora cmq una prestazione da 3080 non andrà come una 3080 oggi coi titoli di oggi...per allora ci saranno mattoni in UE5, sara tipo avere una 6600 oggi...
Non devi aspattare i 3nm:
7700XT 200watt ~6900XT
7600XT 150watt ~6800XT, non meno di 6800 sicuro.
Secondo me la 7700 ci si avvicina, peccato per gli 8gb.
7700XT 12GB 200watt
FHD 6600XT 59% +50% = 88%
https://tpucdn.com/review/amd-radeon-rx-6950-xt-reference-design/images/relative-performance_1920-1080.png
QHD 6700XT 66% +50% = 99%
https://tpucdn.com/review/amd-radeon-rx-6950-xt-reference-design/images/relative-performance_2560-1440.png
RoUge.boh
13-10-2022, 15:15
la festa è finita, la serie 6000amd e la serie 3000 nvidia (e precedenti) verranno ricordate come le schede da collezione sugli scaffali dei privati
con tutta onestà io sono risucito a vendere la rx580 a 350€ quando la pagai meno di 300€ gia quasi nel periodo di rialzo dei prezzi e perciò mi sono preso una rx6600xt sperando che questo periodo finisse prima o poi
Io non ho problemi a tenerla la mia 6900xt.
Anche perché se ci devo prendere poco non vale nemmeno la pena smontare il wb (che tra l'altro è la versione radeon EK che è bellissimo) e rimetterla ad aria.
Dovessi cambiare gpu me la tengo che non si sa mai.
si ma a parte forse RT, mica è malvagia come scheda
Non essere come gli altri che inseguono sigle e proclami, io ho pc con e senza RT eppure Cyberpunk77 me lo sono goduto su entrambi senza problemi.
Anzi messo su OFF veramente non mi ha fatto pensare anzi guadagnavo in stabilità fps.
p.s. parlo con due pc: 1 con 3070 2 con la 6800
No ma sono molto contento della scheda di per se, e non sento la necessità (a livello prestazionale) di cambiare... i miei 165 fps a 1440 con qualche rinuncia li faccio... e sono molto contento.
era perché vorrei fare nuova postazione..
Ale55andr0
13-10-2022, 15:16
Non devi aspattare i 3nm:
7700XT 200watt ~6900XT
parlava di 150w = 3080 (suppongo anche in rt..)
mikael84
13-10-2022, 15:28
Beh su Cbase mediamente comunque 4090 sta a +55% su 6900XT in QHD, quindi 7800XT sotto anche se di poco, però si la 7900XT in QHD dovrebbe battere mediamente 4090 già a 330watt, ma in 4k no.
Bisognerebbe capire anche AMD come scalerà alle basse Res, se mantiene l'indole di rdna2, vorrà dire che in 4k soffrirà un po' con ADA che si difenderà bene (+85% da 6900XT), ma in QHD e FHD Nvidia prenderà tante mazzate.
Speriamo che AMD abbia puntato decentemente sul RT, da perdere non più di una fascia.
Questo purtroppo è un problema che si ritroverà pure AMD alle basse res. In quanto certo hardware non è proprio pensato per lavorare in quelle situazioni.
Ad esempio, navi 31, avrà un base di 192 rop's, che in full hd o anche qhd è surreale. Le ALU a quelle res, occupano meno porzione di banda, questo porta a stalli, più banda allocata più gli shader possono trovare spazio in calcolo, altrimenti vanno in contro ad un fenomeno che su nvidia, si chiama warp stall.
Se noi prendiamo una 6700xt vs 6900xt, mediamente 2x in risorse, abbiamo:
1080p + 33% (prendendo TPU).
1440p + 42
4k + 57%
Ora tra 7800xt e 6900xt dovrebbe raddoppiare solo il reparto shader x clock, ed il bus più veloce, mediamente dovremmo essere li, però alle basse res. devi gestire ben 7680 shader, quindi lo scaling è tutto da vedere.
Da notare che i collegamenti sono impilati, questo potrebbe portare latenze più alte dei 220ns delle g6 su mono.
Per me:
4k 7950-7900-7800xt
1440p 7800xt-7700xt (che dovrebbe essere il cut di navi 32) -7600xt (navi33).
Discorso diverso da navi33, dove non dovrà proprio vederlo il 4k:
Es:
4k: 6600xt vs 6900xt: 120% tpu
1440p: 80%
1080p: 60%
In 1080p praticamente potrebbe pure andare quanto la 6900, con consumi molto bassi.
Ale55andr0
13-10-2022, 15:39
imho è un non problema, a "bassa" risoluzione si macinano già frame a iosa, non vedo che problema ci sarebbe nel farne "solo" 150 invece che 200, per dire
imho è un non problema, a "bassa" risoluzione si macinano già frame a iosa, non vedo che problema ci sarebbe nel farne "solo" 150 invece che 200, per dire
Una 4090 senza DLSS sta a volte abbondante sotto i 150 fps a 1440p:
- cyberpunk 2077
- borderlands 3 (meno di 100 fps)
- far cry 6 (120 fps)
- hitmam3 (130 fps)
- watch dogs legion (110 fps)
Con buchi di framerate a ben meno di 60fps in alcune situazioni, e i framerate calano anche di piu con RT attivo.
Quindi non capisco il ragionamento: a 1440p a 144hz+ non ci giochi con una 4090, e' una gpu sensata solo a 4k 60hz per i giochi di ora e dei prossimi mesi.
Si potrebbe tirare in ballo il DLSS 3..ma in quel caso credo che anche la 4060ti (la 4080 da 12 gb) con dlss 3 gestira' le stesse risoluzioni a framerate ben oltre il refresh rate. Quindi questa 4090 che senso ha? Senza DLSS non fai certo chissa' che salti (specie considerando costi e consumi), con DLSS 2 bastava anche una 3080 per i 4k 60hz...boh...
AkiraFudo
13-10-2022, 16:36
Suona anacronistico sentir parlare di 4k in questa epoca di regresso tecnologico.
Il futuro che ci propinano sembra sempre più low res, con upscale AI farlocco + frame blending ancora più farlocco, per un uso folle di algoritmi inefficienti utili alle vendite di costosissimi chipponi da 1.21 Gigawatt.
Il DLSS 3 è l'attuale stato dell' arte, paragonabile solo alla "Merda d'Artista" e alla "Banana sul Muro".
https://youtu.be/GkUAGMYg5Lw?t=668
mikael84
13-10-2022, 16:41
imho è un non problema, a "bassa" risoluzione si macinano già frame a iosa, non vedo che problema ci sarebbe nel farne "solo" 150 invece che 200, per dire
Cmq non ci avevo fatto caso, ma TPU ha testato il tutto con un 5800x
Ma io dico testa almeno con un 7950.
Andy1111
13-10-2022, 17:41
Cmq non ci avevo fatto caso, ma TPU ha testato il tutto con un 5800x
Ma io dico testa almeno con un 7950.
Bastava anche un 5800x3d per i giochi
narniagreen
14-10-2022, 08:10
parlava di 150w = 3080 (suppongo anche in rt..)
150~200, non cambia nulla, 7700XT in 200watt comunque supera 3080, non è che la pareggia, e 7600XT in 150watt andrà almeno come 3070ti/6800, in FHD pure di più,~3080/6800XT.
Suona anacronistico sentir parlare di 4k in questa epoca di regresso tecnologico.
Il futuro che ci propinano sembra sempre più low res, con upscale AI farlocco + frame blending ancora più farlocco, per un uso folle di algoritmi inefficienti utili alle vendite di costosissimi chipponi da 1.21 Gigawatt.
Il DLSS 3 è l'attuale stato dell' arte, paragonabile solo alla "Merda d'Artista" e alla "Banana sul Muro".
https://youtu.be/GkUAGMYg5Lw?t=668
:asd:
Questo purtroppo è un problema che si ritroverà pure AMD alle basse res. In quanto certo hardware non è proprio pensato per lavorare in quelle situazioni.
Ad esempio, navi 31, avrà un base di 192 rop's, che in full hd o anche qhd è surreale. Le ALU a quelle res, occupano meno porzione di banda, questo porta a stalli, più banda allocata più gli shader possono trovare spazio in calcolo, altrimenti vanno in contro ad un fenomeno che su nvidia, si chiama warp stall.
Se noi prendiamo una 6700xt vs 6900xt, mediamente 2x in risorse, abbiamo:
1080p + 33% (prendendo TPU).
1440p + 42
4k + 57%
Ora tra 7800xt e 6900xt dovrebbe raddoppiare solo il reparto shader x clock, ed il bus più veloce, mediamente dovremmo essere li, però alle basse res. devi gestire ben 7680 shader, quindi lo scaling è tutto da vedere.
Da notare che i collegamenti sono impilati, questo potrebbe portare latenze più alte dei 220ns delle g6 su mono.
Per me:
4k 7950-7900-7800xt
1440p 7800xt-7700xt (che dovrebbe essere il cut di navi 32) -7600xt (navi33).
Discorso diverso da navi33, dove non dovrà proprio vederlo il 4k:
Es:
4k: 6600xt vs 6900xt: 120% tpu
1440p: 80%
1080p: 60%
In 1080p praticamente potrebbe pure andare quanto la 6900, con consumi molto bassi.
E' un po' un paradosso che ste schede danno il meglio in 4k, quando il 4k puro praticamente è morto e si va di upscaling, almeno è quello che vogliono far credere :stordita:
si in FHD N33 essendo pure monolitica dovrebbe fare il :ciapet: a N32, quasi pareggiarla e quindi anche N21, se lo vogliono, in 150watt, è quello che sto dicendo ad Alessandro che parla di 3080 in 150watt.
Ovviamente:
N33 FHD
N32 QHD
N31 UHD.
Ma comunque sia, N32, in 200watt pareggerà(3090/6900XT) e in 300watt batterà a occhi chiusi tutte le schede della passata gen.
Non è niente di eccezionale se stiamo a guardare, è quello che non capiscono, è normale con quanto dichiarato :p
Oltretutto AMD parla di ">"50% , Minimo.
Bastava anche un 5800x3d per i giochi
Più che bastava, dovrebbe essere usato proprio quello.
Ma almeno usando il 5800 liscio, è chiaro quanto tolto UHD, alle basse res ste schede siano inutili, non le sfrutti a causa della CPU, sempre che tu abbia bisogno realmente di 200fps...
Ale55andr0
14-10-2022, 08:39
https://wccftech.com/amd-rdna-3-gpus-might-support-displayport-2-1-output/
leak succosissimo :O
150~200, non cambia nulla, 7700XT in 200watt comunque supera 3080, non è che la pareggia, e 7600XT in 150watt andrà almeno come 3070ti/6800, in FHD pure di più,~3080/6800XT.
si MA anche in RT (dicevo..)? :read: :read: :read:
persino quel roito del motore di skyrim avrà il supporto all'RT in starfield incollato a sputo, forse non è chiaro come si stanno muovendo le cose...
...cmq se voleva scrivere 200w scriveva 200, non 150, 50w più non sono la stessa cosa, sono 50w in più
narniagreen
14-10-2022, 08:47
https://wccftech.com/amd-rdna-3-gpus-might-support-displayport-2-1-output/
leak succosissimo :O
si MA anche in RT (dicevo..)? :read: :read: :read:
persino quel roito del motore di skyrim avrà il supporto all'RT in starfield incollato a sputo, forse non è chiaro come si stanno muovendo le cose...
...cmq se voleva scrivere 200w scriveva 200, non 150, 50w più non sono la stessa cosa, sono 50w in più
ah ok giusto, come quando si facevano i drammi di 1060 vs 480 per 20watt, poi sono uscite schede da 450watt e tutti muti :asd:
50watt con i dissipatori moderni di oggi non sono nulla anche in fascia media, dai, non facciamo retorica.
sul RT non saprei, non hanno detto praticamente nulla, le cose sono 2, o fanno cagare, o spaccano e non vogliono spoilerare.
Ale55andr0
14-10-2022, 09:00
ah ok giusto, come quando si facevano i drammi di 1060 vs 480 per 20watt, poi sono uscite schede da 450watt e tutti muti :asd:
50watt con i dissipatori moderni di oggi non sono nulla anche in fascia media, dai, non facciamo retorica.
sul RT non saprei, non hanno detto praticamente nulla, le cose sono 2, o fanno cagare, o spaccano e non vogliono spoilerare.
io non sto facendo alcun dramma, mi hai sentito lagnarmi di qualcosa? a grid, aripijate :O
sto dicendo che ha dato una performance e una wattaggio, e imho a una "3080" (che non vuol dire 3080 in raster ma vuol dire 3080 in toto, se non specifica) a 150w, non 200w, non li vedo nelle prossime gpu AMD (ne nvidia). Se ti dico un wattaggio che caspita ci azzeca "è uguale", NON lo è, sennò ti dicevo 200. Ma del resto basta aspettare, mancano poco più di 2 settimane
Comunque seguo il ragazzo interessato a prestazioni da 3080 entro i 150 watt.
Se AMD non tira fuori una scheda che con un poco di downvolting non mi dia prestazioni da 3080 in raster a 150watt allora salto anche questa generazione di gpu.
Tanto gia' la 4090 e' una ciofeca, quindi immagino le altre gpu che produrra' Nvidia in questo lancio piu disastroso di Fermi (con DLSS 3 a mascherare) non saranno meglio.
narniagreen
14-10-2022, 10:44
io non sto facendo alcun dramma, mi hai sentito lagnarmi di qualcosa? a grid, aripijate :O
sto dicendo che ha dato una performance e una wattaggio, e imho a una "3080" (che non vuol dire 3080 in raster ma vuol dire 3080 in toto, se non specifica) a 150w, non 200w, non li vedo nelle prossime gpu AMD (ne nvidia). Se ti dico un wattaggio che caspita ci azzeca "è uguale", NON lo è, sennò ti dicevo 200. Ma del resto basta aspettare, mancano poco più di 2 settimane
Ma di che mi devo ripigliare, solo che fare le pulci su 50 watt e dire aspetta i 3nm, ma quando mai, le x80 della passata gen saranno prese nell'ordine del 10% di scarto in quei TDP li, te lo stiamo dicendo in 2.
Discorso diverso da navi33, dove non dovrà proprio vederlo il 4k:
Es:
4k: 6600xt vs 6900xt: 120% tpu
1440p: 80%
1080p: 60%
In 1080p praticamente potrebbe pure andare quanto la 6900, con consumi molto bassi.
Qua non so se hai capito che Mikael ti conferma che in FHD una 7600XT può pareggiare una 6900, in QHD la 6800, in 150watt.
No, non mancano 2 settimane, la 7700Xt non penso esca subito, mentre la 7600Xt esce tra 6-9 mesi almeno.
Adesso, fine novembre dicembre escono 7900 e 7800, poi fine Q1 la 7700 e poi Q2 la 7600.
Del resto pure Nvidia esce solo con la 4090 e la 4080.
narniagreen
14-10-2022, 10:49
Comunque seguo il ragazzo interessato a prestazioni da 3080 entro i 150 watt.
Se AMD non tira fuori una scheda che con un poco di downvolting non mi dia prestazioni da 3080 in raster a 150watt allora salto anche questa generazione di gpu.
Tanto gia' la 4090 e' una ciofeca, quindi immagino le altre gpu che produrra' Nvidia in questo lancio piu disastroso di Fermi (con DLSS 3 a mascherare) non saranno meglio.
RDNA3 +50% perf/watt su RDNA2 (">" minimo), aka 7600XT 150watt vs 6600XT 150watt +50% prestazioni
https://cdn.wccftech.com/wp-content/uploads/2022/09/AMD-Radeon-RX-7000-RDNA-3-Navi-3X-GPU-Official-Presentation-_2-1480x833.png
FHD, 3080 +44%
https://tpucdn.com/review/sapphire-radeon-rx-6600-xt-pulse-oc/images/relative-performance_1920-1080.png
QHD, 6800 +49%
https://tpucdn.com/review/sapphire-radeon-rx-6600-xt-pulse-oc/images/relative-performance_2560-1440.png
Suona anacronistico sentir parlare di 4k in questa epoca di regresso tecnologico.
Il futuro che ci propinano sembra sempre più low res, con upscale AI farlocco + frame blending ancora più farlocco, per un uso folle di algoritmi inefficienti utili alle vendite di costosissimi chipponi da 1.21 Gigawatt.
Il DLSS 3 è l'attuale stato dell' arte, paragonabile solo alla "Merda d'Artista" e alla "Banana sul Muro".
https://youtu.be/GkUAGMYg5Lw?t=668
Una volta compravi le top gamma per avere il massimo del dettaglio alla risoluzione più alta, in modo da avere la qualità visiva più alta. Ora una feature che di fatto peggiora la qualità visiva è diventata un must da avere, un motivo per cambiare scheda.:doh:
RDNA3 +50% perf/watt su RDNA2 (">" minimo)
Quindi da questo ragionamento non ci siamo sicuramente: la 6600xt consuma sui 190 watt di picco e non 150. Se l'aumento delle prestazioni/performance e' comunque relativo ad un 20% di incremento di consumi parliamo di 215+ watt e oltre per prestazioni quasi da 3080. Forse con il downvolting si riuscirebbe a stare sui 150, ma finche' non sappiamo i consumi e' tutta teoria.
mikael84
14-10-2022, 12:08
Bastava anche un 5800x3d per i giochi
Anche.
Io cmq, avrei optato per l'ultima serie classica, salvo non avere i 3d dell'ultima, in quanto in alcuni giochi non scala benissimo.
Poi sono scelte.
Ma di che mi devo ripigliare, solo che fare le pulci su 50 watt e dire aspetta i 3nm, ma quando mai, le x80 della passata gen saranno prese nell'ordine del 10% di scarto in quei TDP li, te lo stiamo dicendo in 2.
Qua non so se hai capito che Mikael ti conferma che in FHD una 7600XT può pareggiare una 6900, in QHD la 6800, in 150watt.
No, non mancano 2 settimane, la 7700Xt non penso esca subito, mentre la 7600Xt esce tra 6-9 mesi almeno.
Adesso, fine novembre dicembre escono 7900 e 7800, poi fine Q1 la 7700 e poi Q2 la 7600.
Del resto pure Nvidia esce solo con la 4090 e la 4080.
No aspè, sto ipotizzando le perf, ma non a certi wattaggi. :p Purtroppo non tutte le fasce sono scalate ad oltre +50%.
Es: la 6600xt fa il 30% in più la 5600xt consumando 30 watt in più.
La 6700xt fa 30% in più, consumando di più, in quanto è stata sparata con le tensioni.
La 6900 invece fa un salto degno in base alle res, e qua pare aver messo a frutto quanto dichiarato.
Quindi il rapporto è da prendere con le pinze.:)
Quel 200 watt potrebbe anche essere navi33, che ancora molti chiamano 7700xt, e visto il cambio di nvidia, tutto potrebbe essere.
Ad esempio il calcolatore riporta 4070/4080 a 285, quando la nuova 4070 dovrebbe stare sui 250.
Sulle perf, però, salvo i dati che abbiamo a sto giro, la situazione sembra migliore.
navi 33 si ritroverà con 4096 st con il WGP a 4, quindi tutti condividono tutto, e non devi sprecare cicli per avviare 2 dual CU, in più se fatto a 5nm (ancora questo non è chiarito), dovrebbe clockare sopra i 3ghz.
navi23 si è ritrovato le stesse ALU della 5600xt ma clock ben maggiore.
narniagreen
14-10-2022, 13:48
Quindi da questo ragionamento non ci siamo sicuramente: la 6600xt consuma sui 190 watt di picco e non 150. Se l'aumento delle prestazioni/performance e' comunque relativo ad un 20% di incremento di consumi parliamo di 215+ watt e oltre per prestazioni quasi da 3080. Forse con il downvolting si riuscirebbe a stare sui 150, ma finche' non sappiamo i consumi e' tutta teoria.
ah il picco, la nuova frontiera del confronto...
Se vuoi parlare di picco, la 3080 segna la bellezza di 380watt, la FE, il doppio della 6600Xt :sofico:
Boh, per portarla dalla tua ti stai attaccando a non si sa bene cosa, 6600xt medio e massimo in gaming segna 160watt, di picco 190, TBP dichiarato 170watt la Pulse, reference 150.
https://www.techpowerup.com/review/sapphire-radeon-rx-6600-xt-pulse-oc/34.html
No aspè, sto ipotizzando le perf, ma non a certi wattaggi. :p Purtroppo non tutte le fasce sono scalate ad oltre +50%.
Es: la 6600xt fa il 30% in più la 5600xt consumando 30 watt in più.
La 6700xt fa 30% in più, consumando di più, in quanto è stata sparata con le tensioni.
La 6900 invece fa un salto degno in base alle res, e qua pare aver messo a frutto quanto dichiarato.
Quindi il rapporto è da prendere con le pinze.:)
Quel 200 watt potrebbe anche essere navi33, che ancora molti chiamano 7700xt, e visto il cambio di nvidia, tutto potrebbe essere.
Ad esempio il calcolatore riporta 4070/4080 a 285, quando la nuova 4070 dovrebbe stare sui 250.
Sulle perf, però, salvo i dati che abbiamo a sto giro, la situazione sembra migliore.
navi 33 si ritroverà con 4096 st con il WGP a 4, quindi tutti condividono tutto, e non devi sprecare cicli per avviare 2 dual CU, in più se fatto a 5nm (ancora questo non è chiarito), dovrebbe clockare sopra i 3ghz.
navi23 si è ritrovato le stesse ALU della 5600xt ma clock ben maggiore.
Ma si è il concetto, male che vada avrà 200watt, sono bazzecole, 50watt non fanno un salto generazionale come potrà essere il 3nm (o 2nm), non è che siamo così lontani dai 150watt.
Poi non ho capito mò cos'è sta moda dei 150watt MAX, una nuova soglia mentale per? ci sono schede da 450watt e si batte il pugno per avere ragione su 50watt.
Appunto, 4000sp e senza doppio cluster, secondo me distrugge la 6800, in FHD avrà un efficienza incredibile, e parliamo a confronto della più efficiente delle schede stock a 7nm, la 6800.
Poi senza andare troppo lontano, la 6600xt, con 150watt, seppellisce la VII, 2x in efficienza, e la VII è come se fosse una ipotetica 5800 (con 5700xt rdna1).
Una 7600xt senza grosso sforzo farà la stessa cosa con il cut di N21, la seppellisce.
mikael84
14-10-2022, 15:37
ah il picco, la nuova frontiera del confronto...
Se vuoi parlare di picco, la 3080 segna la bellezza di 380watt, la FE, il doppio della 6600Xt :sofico:
Boh, per portarla dalla tua ti stai attaccando a non si sa bene cosa, 6600xt medio e massimo in gaming segna 160watt, di picco 190, TBP dichiarato 170watt la Pulse, reference 150.
https://www.techpowerup.com/review/sapphire-radeon-rx-6600-xt-pulse-oc/34.html
Ma si è il concetto, male che vada avrà 200watt, sono bazzecole, 50watt non fanno un salto generazionale come potrà essere il 3nm (o 2nm), non è che siamo così lontani dai 150watt.
Poi non ho capito mò cos'è sta moda dei 150watt MAX, una nuova soglia mentale per? ci sono schede da 450watt e si batte il pugno per avere ragione su 50watt.
Appunto, 4000sp e senza doppio cluster, secondo me distrugge la 6800, in FHD avrà un efficienza incredibile, e parliamo a confronto della più efficiente delle schede stock a 7nm, la 6800.
Poi senza andare troppo lontano, la 6600xt, con 150watt, seppellisce la VII, 2x in efficienza, e la VII è come se fosse una ipotetica 5800 (con 5700xt rdna1).
Una 7600xt senza grosso sforzo farà la stessa cosa con il cut di N21, la seppellisce.
Che poi le schede hanno valori di targa tot, in base alle tare che gli danno, basta toccarle un pochino per farle crollare di watt. La 4090 a 300watt non perde quasi niente, lo stesso ryzen.
Riguardo all'aumento di CU, beh a sto giro, sfrutti i veri benefici del 5nm (HP in versione AMD), ovvero l'aumento di densità mostruoso.
5600xt: 7,3tf circa
6600xt: 10,5tf circa (+43% in virgola mobile approssimativo)
7600xt: 24,5tf@3ghz (clock che dovrebbe essere pure superato) + 133% in VM, monolitico.
Su navi32, invece si può fare anche un altro ragionamento.
Ipotizzando che navi31 top, vada alla pari della 4090ti o 4090, potremmo levare il 60% di ALU (7680vs 12288= 60%)alle top nvidia.
7800xt vs 60% da ammiraglia, equivalente a 11520 cuda.
7800xt vs 60% da 4090, equivalente a 10240 cuda.
RTX 4080 16 = 9728
7800xt: 120 pipeline RT (ratio sconosciuto)
RTX 4080: 76 RT core. (quasi il 60% delle pipeline RT).
Scorsa gen.
6800xt: 72 pipeline rt
3080: 68 RT core (5% rt core).
Questo dato non è da sottovalutare, al netto delle probabili migliorie di Lisa.
A fasce più o meno simili (+-5/10%) una a sto giro, si ritroverebbe il 60% di pipeline RT.
narniagreen
14-10-2022, 17:13
Che poi le schede hanno valori di targa tot, in base alle tare che gli danno, basta toccarle un pochino per farle crollare di watt. La 4090 a 300watt non perde quasi niente, lo stesso ryzen.
Ah è la mia prima "battaglia", ma io sta moda del ce l'ho più lungo sfondando watt e soprattutto dimensioni proprio non la capisco, la 4090 con -10% di performance starebbe 350watt rock solid, -15% con 300watt, per me è assurdo spendere tutto quel TDP e consumo per delle % di prestazioni che NON cambiano l'esperienza.
Forse così hai la scusa per prezzarla più alta? ok, ma a me sta roba fa cadere le braccia onestamente, e purtroppo la 7950Xt sarà su quel livello li, 420watt, mentre pare che la 7900Xt sia umana, sui 330watt.
Cioè la 4090 AORUS Master non è un fake, è propria grossa così, per me è inaccettabile.
https://i.ibb.co/PG0FW1y/Cattura4.jpg
Riguardo all'aumento di CU, beh a sto giro, sfrutti i veri benefici del 5nm (HP in versione AMD), ovvero l'aumento di densità mostruoso.
5600xt: 7,3tf circa
6600xt: 10,5tf circa (+43% in virgola mobile approssimativo)
7600xt: 24,5tf@3ghz (clock che dovrebbe essere pure superato) + 133% in VM, monolitico.
Per quello dico che una 7600Xt a me basterebbe tranquillamente :p
Su navi32, invece si può fare anche un altro ragionamento.
Ipotizzando che navi31 top, vada alla pari della 4090ti o 4090, potremmo levare il 60% di ALU (7680vs 12288= 60%)alle top nvidia.
7800xt vs 60% da ammiraglia, equivalente a 11520 cuda.
7800xt vs 60% da 4090, equivalente a 10240 cuda.
RTX 4080 16 = 9728
7800xt: 120 pipeline RT (ratio sconosciuto)
RTX 4080: 76 RT core. (quasi il 60% delle pipeline RT).
Scorsa gen.
6800xt: 72 pipeline rt
3080: 68 RT core (5% rt core).
Questo dato non è da sottovalutare, al netto delle probabili migliorie di Lisa.
A fasce più o meno simili (+-5/10%) una a sto giro, si ritroverebbe il 60% di pipeline RT.
Quindi senza nemmeno lavorare in hardware come minimo fa +60% in RT, questo è chiaro, però secondo me non possono più tralasciare il discorso BVH e demandare tutto alle Alu.
Io dico che almeno un 2x secco lo devono fare da RDNA2, anche 2.5x, (anche perchè fare 2.5x quando fai poco non diventa poi molto in proporzione "100x di 0 fa sempre 0"), o perdono il carro.
Da un lato non sarebbe un male, costerebbero decisamente meno delle Nvidia.
1 mese e mezzo circa devo resistere...
Nuove feature annunciate? In particolare ad oggi stanno lavorando su qualcosa di simile al reflex? Ho provato radeon boost ma dire che è pessimo è riduttivo. Antilag fa poco
Andy1111
14-10-2022, 20:13
Due giorni fa era uscita questa su wccftech
https://wccftech.com/amd-radeon-rx-7000-rdna-3-launch-december-difficult-to-compete-with-nvidia-rtx-40-gpus-rumor/
AMD To Launch Two Radeon RX 7000 Graphics Cards In December, Overall Performance Falls Short In Ray Tracing & Rasterization Vs NVIDIA's RTX 40 GPUs, Alleges Rumor
Ora sempre a questo riguardo, che reputo più probabile come rumor , cosa che anche mikael ha già espresso nei suoi post :
https://www.hardwaretimes.com/amd-rx-7900-xt-launching-in-dec-likely-slower-than-nvidias-rtx-4090-in-ray-tracing-rumor/
Although RDNA 3 promises to offer 50% more performance per watt than its predecessor, there are concerns over its ray-tracing capabilities. The source believes that the Radeon RX 7900 XT may have difficulty keeping up with the GeForce RTX 4090 in ray-tracing games especially if you factor in DLSS 3. From our testing, we found that the new iteration of Deep Learning Super Sampling offers a 2-3x upgrade in frame rates over the RTX 3080 Ti.
Questo spiegherebbe anche Unlaunching The 12GB 4080 e mi aspetto che la 4080 riceverà un bel taglio sul suo prezzo per fine anno. (pensiero personale)
Ale55andr0
14-10-2022, 20:37
Dai Lisona, non diluderci che giacchetta te l'ha servita su un piatto d'argento:
https://www.hwupgrade.it/news/skvideo/la-geforce-rtx-4080-12-gb-non-arrivera-nvidia-ammette-che-il-nome-era-sbagliato_111016.html
non che non lo avessero capito anche i sassi che è una 70 e pure SOVRA prezzata. Smutandalo al giacchetto....NON fare cazzate pure te! :read: :)
AkiraFudo
14-10-2022, 20:56
Dai Lisona, non diluderci che giacchetta te l'ha servita su un piatto d'argento:
https://www.hwupgrade.it/news/skvideo/la-geforce-rtx-4080-12-gb-non-arrivera-nvidia-ammette-che-il-nome-era-sbagliato_111016.html
non che non lo avessero capito anche i sassi che è una 70 e pure SOVRA prezzata. Smutandalo al giacchetto....NON fare cazzate pure te! :read: :)
https://i.postimg.cc/xCBJxrrv/jj.jpg
Ale55andr0
14-10-2022, 21:26
https://i.postimg.cc/xCBJxrrv/jj.jpg
va bullizzato sui soscial :O
Psycho77
14-10-2022, 21:43
Una volta compravi le top gamma per avere il massimo del dettaglio alla risoluzione più alta, in modo da avere la qualità visiva più alta. Ora una feature che di fatto peggiora la qualità visiva è diventata un must da avere, un motivo per cambiare scheda.:doh:
Ormai viviamo in un mondo al contrario.
Nessuno che si lamenta dell'aumento truffaldino spropositato dei prezzi, nessuno che si lamenta per le dimensioni delle schede, che oramai son diventate praticamente degli scaldabagni da 150 litri.:sofico:
Nel topic nvidia mi sono permesso di criticare i prezzi delle 4090, assolutamente da rapina a mano armata, e non solo non mi hanno cacato, ma un paio mi sono saltati al collo praticamente.
La situazione è la medesima della grotta di Platone.
Windtears
14-10-2022, 21:49
Although RDNA 3 promises to offer 50% more performance per watt than its predecessor, there are concerns over its ray-tracing capabilities. The source believes that the Radeon RX 7900 XT may have difficulty keeping up with the GeForce RTX 4090 in ray-tracing games especially if you factor in DLSS 3. From our testing, we found that the new iteration of Deep Learning Super Sampling offers a 2-3x upgrade in frame rates over the RTX 3080 Ti.
commento troppo speculativo che non prende atto di quanto sia "acerbo" (e voglio essere buono) dlss 3 tanto che al momento non può e non deve essere utilizzato come feature che può far propendere per un acquisto e non perché lo dico io ma perché i frame creati fanno talmente ribrezzo che devi essere sopra gli 80fps (meglio oltre i 100) per non vederli e non compromettere l'effetto finale.
Vedere il video di hardware unboxed con l'analisi più approfondita al riguardo.
per cui confrontare una 4090 in rt con le prossime amd ma anche con le 3xxx e usare dlss 3 è quanto meno fuorviante circa la "reale" capacità di gestire i gigoraggi mattonazzi. ;)
StylezZz`
14-10-2022, 21:56
Ormai viviamo in un mondo al contrario.
Nessuno che si lamenta dell'aumento truffaldino spropositato dei prezzi, nessuno che si lamenta per le dimensioni delle schede, che oramai son diventate praticamente degli scaldabagni da 150 litri.:sofico:
Nel topic nvidia mi sono permesso di criticare i prezzi delle 4090, assolutamente da rapina a mano armata, e non solo non mi hanno cacato, ma un paio mi sono saltati al collo praticamente.
La situazione è la medesima della grotta di Platone.
Lasciali dentro la grotta e vai per la tua strada ;)
mikael84
15-10-2022, 00:46
Ah è la mia prima "battaglia", ma io sta moda del ce l'ho più lungo sfondando watt e soprattutto dimensioni proprio non la capisco, la 4090 con -10% di performance starebbe 350watt rock solid, -15% con 300watt, per me è assurdo spendere tutto quel TDP e consumo per delle % di prestazioni che NON cambiano l'esperienza.
Forse così hai la scusa per prezzarla più alta? ok, ma a me sta roba fa cadere le braccia onestamente, e purtroppo la 7950Xt sarà su quel livello li, 420watt, mentre pare che la 7900Xt sia umana, sui 330watt.
Cioè la 4090 AORUS Master non è un fake, è propria grossa così, per me è inaccettabile.
Anche meno, -3% a 350, niente, e -10% a 300 watt.
https://i.postimg.cc/NGZjDfL4/perf.png
Per quello dico che una 7600Xt a me basterebbe tranquillamente :p
Da una vega56, sarebbe un salto elevatissimo, per te è la soluzione ideale, ma occhio anche alla 7700xt probabile cut navi32.
Quindi senza nemmeno lavorare in hardware come minimo fa +60% in RT, questo è chiaro, però secondo me non possono più tralasciare il discorso BVH e demandare tutto alle Alu.
Io dico che almeno un 2x secco lo devono fare da RDNA2, anche 2.5x, (anche perchè fare 2.5x quando fai poco non diventa poi molto in proporzione "100x di 0 fa sempre 0"), o perdono il carro.
Da un lato non sarebbe un male, costerebbero decisamente meno delle Nvidia.
Lisa saprà il fatto suo, Koduri ha copiato nvidia, con Intel, nvidia ha un rapporto strettissimo.
Nonostante tutto, il fail di fury e vega lo sta ripetendo con ARC, emulazioni, scaling geometrici piombati, segno che uno dei problemi era proprio lui.
Il problema sta alla base, transistor e consumi per area. Mettere 128 RT core per un 7800xt sarebbe troppo gravoso. Sono quelli della 4090 praticamente. Probabilmente si continuerà ad affinare ciò che si ritrova, quindi momentaneamente è difficile capire la strategia AMD.
Tecnicamente AMD potrebbe mettere anche le matrici, con ovvio aumento dei transistor per CU.
Se punti al tutto snello, devi puntare ai prezzi però.
34mm2 di collegamenti cache x 4, costano praticamente niente a 6nm, + il die da 200mm2, quello della 4060 praticamente.:p
mikael84
15-10-2022, 00:56
Due giorni fa era uscita questa su wccftech
https://wccftech.com/amd-radeon-rx-7000-rdna-3-launch-december-difficult-to-compete-with-nvidia-rtx-40-gpus-rumor/
AMD To Launch Two Radeon RX 7000 Graphics Cards In December, Overall Performance Falls Short In Ray Tracing & Rasterization Vs NVIDIA's RTX 40 GPUs, Alleges Rumor
Ora sempre a questo riguardo, che reputo più probabile come rumor , cosa che anche mikael ha già espresso nei suoi post :
https://www.hardwaretimes.com/amd-rx-7900-xt-launching-in-dec-likely-slower-than-nvidias-rtx-4090-in-ray-tracing-rumor/
Although RDNA 3 promises to offer 50% more performance per watt than its predecessor, there are concerns over its ray-tracing capabilities. The source believes that the Radeon RX 7900 XT may have difficulty keeping up with the GeForce RTX 4090 in ray-tracing games especially if you factor in DLSS 3. From our testing, we found that the new iteration of Deep Learning Super Sampling offers a 2-3x upgrade in frame rates over the RTX 3080 Ti.
Questo spiegherebbe anche Unlaunching The 12GB 4080 e mi aspetto che la 4080 riceverà un bel taglio sul suo prezzo per fine anno. (pensiero personale)
Non è un problema, a Koduri gli RT core, con anche il SER, glieli ha scritti nvidia, è palese, Lisa dai core, pare aver preferito snellire il tutto il più possibile, con cache, che non costano quasi nulla.
Si è scelto di risparmiare pur restando competitivi, quindi se metti una 7900xt, con un die da x70 nvidia e cache che costano nulla a 6nm, puoi anche prezzare 999, meno della 4080 16. Ecco li sarebbe un scheda killer.
la 4090 copre anche la fascia pro, ed ha costi superiori, mettere le navi31 allo stesso prezzo, è uno strozzinaggio inverso, i margini li puoi fare uguale.:)
Ormai viviamo in un mondo al contrario.
Nessuno che si lamenta dell'aumento truffaldino spropositato dei prezzi, nessuno che si lamenta per le dimensioni delle schede, che oramai son diventate praticamente degli scaldabagni da 150 litri.:sofico:
Nel topic nvidia mi sono permesso di criticare i prezzi delle 4090, assolutamente da rapina a mano armata, e non solo non mi hanno cacato, ma un paio mi sono saltati al collo praticamente.
La situazione è la medesima della grotta di Platone.
Non tutti. :)
Gyammy85
15-10-2022, 07:24
Leak ripreso da un leak di dubbia autenticità, non aggiunge niente
Al solito, l'unica speranza di AMD è il prezzo regalo, come navi 21 che andava al massimo come una 3070
StylezZz`
15-10-2022, 08:45
Leak ripreso da un leak di dubbia autenticità, non aggiunge niente
Al solito, l'unica speranza di AMD è il prezzo regalo, come navi 21 che andava al massimo come una 3070
Non aspetto schede regalate, ma nemmeno i prezzi nvidia, diciamo che preferirei restassero vicini alle 6000 senza strafare con la scusa ''la legge di Moore è morta''.
Leak ripreso da un leak di dubbia autenticità, non aggiunge niente
Al solito, l'unica speranza di AMD è il prezzo regalo, come navi 21 che andava al massimo come una 3070Non si tratta di schede regalate, ma a parte la 4090, il resto della lineup (ora è rimasta solo la 4080 16gb :asd: ) è sovrapprezzata a schifo:
3080 699$
4080 1199$
+70% di prezzo per un 50% di prestazioni in più (da accertare dopo recensioni)
NB: per me sono folli anche i 2kapperoni per la 4090, ma il suo msrp è più sensato vedendo quello della 3090 al lancio
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Non si tratta di schede regalate, ma a parte la 4090, il resto della lineup (ora è rimasta solo la 4080 16gb :asd: ) è sovrapprezzata a schifo:
3080 699$
4080 1199$
+70% di prezzo per un 50% di prestazioni in più (da accertare dopo recensioni)
NB: per me sono folli anche i 2kapperoni per la 4090, ma il suo msrp è più sensato vedendo quello della 3090 al lancio
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Il problema è stato che due anni fa al lancio le 3080 erano introvabili, e di conseguenza le poche disponibili hanno avuto un incremento dei prezzi pari anche a più del doppio; ricordo di avere visto 3080 anche a 2000+ euro, una follia. Questo fatto sta facendo passare che sia normale spendere anche più di 2000€ per una GPU top di gamma ma non lo è affatto.
Nota a margine, io riuscii a far assemblare il PC in firma per meno di 2000€ ed al netto dei prezzi dell'epoca la 3080 la pagai 800/900€, insomma il prezzo corretto.
Ormai viviamo in un mondo al contrario.
Nessuno che si lamenta dell'aumento truffaldino spropositato dei prezzi, nessuno che si lamenta per le dimensioni delle schede, che oramai son diventate praticamente degli scaldabagni da 150 litri.:sofico:
Nel topic nvidia mi sono permesso di criticare i prezzi delle 4090, assolutamente da rapina a mano armata, e non solo non mi hanno cacato, ma un paio mi sono saltati al collo praticamente.
La situazione è la medesima della grotta di Platone.
I clienti della 4090 sono praticamente gli stessi della 3090 tranne qualche new-entry desiderosa di appartenere all'elite :D , quindi se 2 anni fa era giustificabile spendere 1500 quando la 3080 che andava uno sputo in meno costando meno della metà, lo è ancora più oggi con una 4080 16GB nettamente più distaccata dalla 4090, e prezzata anch'essa da rapina a mano armata, e sono probabilmente gli stessi che 4 anni fa presero la 2080ti che costava un +50% rispetto la 1080ti, quindi personalmente, non sono stupito più di tanto.
Ale55andr0
15-10-2022, 10:11
Al solito, l'unica speranza di AMD è il prezzo regalo, come navi 21 che andava al massimo come una 3070
https://www.youtube.com/watch?v=eFcGPpfMnak&ab_channel=GliSpezzoni
https://www.youtube.com/watch?v=COTjM1f9qgE&ab_channel=king
Non aspetto schede regalate, ma nemmeno i prezzi nvidia, diciamo che preferirei restassero vicini alle 6000 senza strafare con la scusa ''la legge di Moore è morta''.
perdi tempo a cercare di fare ragionamenti di senso compiuto con certi utenti
Io tengo d'occhio davvero la 7700xt, ce la farà a doppiare una 3070 in raster e rt ? :D
Gyammy85
15-10-2022, 12:39
Io tengo d'occhio davvero la 7700xt, ce la farà a doppiare una 3070 in raster e rt ? :D
Doppiare no, considera che una 4090 non arriva a doppiare una 6700xt ben sfruttata in diversi casi
mikael84
15-10-2022, 12:42
va bullizzato sui soscial :O
Seriamente JHH era vittima di bullismo, l'ha ammesso lui.
StylezZz`
15-10-2022, 12:57
Seriamente JHH era vittima di bullismo, l'ha ammesso lui.
E ora vuole vendicarsi bullizzando gli altri :stordita:
E ora vuole vendicarsi bullizzando gli altri :stordita:
Finché non influenza AMD va bene....la mia 1080 è stato un ripiego purtroppo, costoso, mancavano mi pare le Vega 64/56!
Cmq son problemi di chi compra di la se alzano i prezzi!
Nel caso Lisa Su e AMD dovessero seguire la concorrenza nella folle corsa ai prezzi in tutta la fascia di GPU si aspetta!
Io non ho particolari esigenze al momento anche una 6900 a buon prezzo andrebbe bene!
StylezZz`
15-10-2022, 14:27
Finché non influenza AMD va bene....
Dipende da Lisa, non so se pure lei è stata bullizzata.
Windtears
15-10-2022, 14:32
Dipende da Lisa, non so se pure lei è stata bullizzata.
no, dipende dagli investitori amd... se pretendono ancora "vacche grasse" a scapito del market share da recuperare ,avremo prezzi quasi allineati e "poche" schede in giro (oppure regolate artificialmente come fa nvidia per far sembrare che sia sempre tutto out of stock per inflazionare l'offerta).
rickiconte
15-10-2022, 14:38
Non ho seguito molto il thread ma per avere le prestazioni di una 3090 in RT a 1440p, quale scheda della serie 7000 potrebbe bastare?
Sempre che siano trapelate notizie che rendano possibile rispondere più o meno alla mia domanda.
Dipende da Lisa, non so se pure lei è stata bullizzata.
non credo, con le tette che si ritrova, da piccola sarà stata adorata
Predator_1982
15-10-2022, 20:15
Non ho seguito molto il thread ma per avere le prestazioni di una 3090 in RT a 1440p, quale scheda della serie 7000 potrebbe bastare?
Sempre che siano trapelate notizie che rendano possibile rispondere più o meno alla mia domanda.
E chi lo sa…lo scoprirai con la presentazione o, più probabile, con le prime review
Ale55andr0
15-10-2022, 20:40
Seriamente JHH era vittima di bullismo, l'ha ammesso lui.
e se la prende con noi visti i prezzi e le politiche da bullo? :asd:
cmq non ha imparato nulla pare :asd:
Ale55andr0
15-10-2022, 20:52
Io tengo d'occhio davvero la 7700xt, ce la farà a doppiare una 3070 in raster e rt ? :D
https://www.treccani.it/vocabolario/ottimismo/
Ale55andr0
15-10-2022, 21:08
Edit
mi ci avevi mandato? :asd:
Arrow0309
15-10-2022, 21:31
Ma ancora a pensare a complotti e cose truffaldine :D a pensare male si sta anche male. Tiratevi su di morale :) pensate positivo.
Vai a shoppare la tua 4090, noi umani qua non li spendiamo facilmente i sghei. :O
mi ci avevi mandato? :asd:
Ahah ma figurati :sofico:
Doppiare no, considera che una 4090 non arriva a doppiare una 6700xt ben sfruttata in diversi casi
Dai in 4k la tripla tengo qualche speranza almeno di avvicinarmi al giro di boa :D
http://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/relative-performance_3840-2160.png
Psycho77
16-10-2022, 00:32
I clienti della 4090 sono praticamente gli stessi della 3090 tranne qualche new-entry desiderosa di appartenere all'elite :D , quindi se 2 anni fa era giustificabile spendere 1500 quando la 3080 che andava uno sputo in meno costando meno della metà, lo è ancora più oggi con una 4080 16GB nettamente più distaccata dalla 4090, e prezzata anch'essa da rapina a mano armata, e sono probabilmente gli stessi che 4 anni fa presero la 2080ti che costava un +50% rispetto la 1080ti, quindi personalmente, non sono stupito più di tanto.
Con il piccolo particolare che non sono più 1500 euro ma 2600 euro o giù di li. :sofico:
La rtx 2080 ti la presi anche io a 1180 euro, qui si vola oltre la follia.
Acquistata esattamente alle 16:28 ;) Prezzo 2600 euro.
Fossi in Gengis Kahn le prossime le metterei a 5000 euro senza iva.:fagiano:
StylezZz`
16-10-2022, 09:39
Con il piccolo particolare che non sono più 1500 euro ma 2600 euro o giù di li. :sofico:
La rtx 2080 ti la presi anche io a 1180 euro, qui si vola oltre la follia
1180 per la 2080 Ti non era follia?
Psycho77
16-10-2022, 10:40
1180 per la 2080 Ti non era follia?
Forse hai qualche problema con i numeri, 2600 euro è più del doppio.
Veramente ti sembra un a cifra simile?:asd:
StylezZz`
16-10-2022, 11:28
Ovvio che lo erano.
Sono tutti discorsi senza senso, io mi sono fermato a 800 euro (tra l'altro strix, la più costosa delle custom) della 1080ti, con la 2080ti sopra i 1000 ho detto basta e ho saltato una gen.
La gen successiva sono sceso di tiro e mi sono preso una 6800xt a 660 euro (la 6900xt ce l'ho solo perché praticamente mi è uscita allo stesso prezzo della 6800xt).
Io oltre gli 800/900 euro non andrò mai, perché fatto una volta lo farei sempre e ogni volta si andrà sempre oltre (una volta 1200 erano uno scandalo ma si compra, poi 1500 euro uno scandalo e si compra, poi 2000 euro uno scandalo e anche a sto giro gente che non dorme la notte per cacciare fuori 2000 euro e dire di essere fortunata a riuscire a comprarla. Roba da neurodeliri :asd: ).
No ma il punto è che mi fa sorridere l'incoerenza di alcuni utenti, stanno qui a fare ragionamenti sui prezzi (che condivido eh), però poi i primi loro hanno contribuito a farli aumentare.
Forse hai qualche problema con i numeri, 2600 euro è più del doppio.
Veramente ti sembra un a cifra simile?:asd:
Non sono la stessa cifra però si potrebbe applicare lo stesso ragionamento, 1180 euro (ricordo custom da 1300 e oltre) rispetto i prezzi della 980 Ti o 1080 Ti non erano una follia? Se poi consideriamo anche il fatto che Turing non è stato un gran salto prestazionale rispetto Pascal, e che dopo due anni giacchetta ha fatto uscire la 3070 a 500 euro, allora sembra ancora più folle :asd:
Comunque non ho problemi con chi spende 2600 euro (ma anche 10.000), pur non condividendo queste cifre che reputo assurde per una scheda video (ma d'altronde ognuno dà un valore diverso alle cose), l'importante però è che gli stessi che oggi acquistano una 4090 non verranno qui a lamentarsi quando le prossime 5090 o 6090 staranno a 3000 euro e magari ci toccherà leggere altri post con lezioni sul buon senso e sui prezzi giudicati folli solo perchè il portafoglio non permette più determinati acquisti ogni due anni. Un minimo di coerenza per piacere.
sono un po' fuori dal loop ragazzi, qual'è la situazione delle nuove GPU ( AMD ma non solo)
Forse hai qualche problema con i numeri, 2600 euro è più del doppio.
Veramente ti sembra un a cifra simile?:asd:
era anche il 2018...oggi con 1000€ non ci fai nulla, 4 anni fa si
Mi sembrano inoltre molto meglio spesi 2000€ per una scheda che va il doppio di una 3080 piuttosto che 1200€ per una 2080ti.
Detto questo, follie entrambe secondo me, ma ognuno ci fa ciò che vuole con i propri soldi. io oltre i 700 non vado (toh, 750 proprio perchè è una scheda con chippone, 3080)
Psycho77
16-10-2022, 12:09
era anche il 2018...oggi con 1000€ non ci fai nulla, 4 anni fa si
Mi sembrano inoltre molto meglio spesi 2000€ per una scheda che va il doppio di una 3080 piuttosto che 1200€ per una 2080ti.
Detto questo, follie entrambe secondo me, ma ognuno ci fa ciò che vuole con i propri soldi. io oltre i 700 non vado (toh, 750 proprio perchè è una scheda con chippone, 3080)
Bello il fatto che si arrotonda sempre verso il basso la cifra, quando si cerca di giustificare qualcosa. 2000 euro la pagheranno pochi fortunati, il resto saranno carne da macello con le custom vendute a prezzi folli.
Sta barzelletta delle 1000 euro che non valgono più nulla è troppo divertente.
Tu quanto prendi di stipendio? 10.000 euro?
Il tuo stipendio si è adeguato all'inflazione e alle ladrate di Gengis Kahn?
Non avete ancora capito la direzione che vogliono prendere?
E' chiaro che vogliano tirare su i prezzi artificiosamente per spingere nella direzione del cloud gaming, ma io a sto punto preferisco cambiare hobby e mandarli al diavolo.
AMD si allineerà con i prezzi di NVIDIA, mi ci gioco un dollaro stampato dal nulla da zio Rockefeller.
Bello il fatto che si arrotonda sempre verso il basso la cifra, quando si cerca di giustificare qualcosa. 2000 euro la pagheranno pochi fortunati, il resto saranno carne da macello con le custom vendute a prezzi folli.
Sta barzelletta delle 1000 euro che non valgono più nulla è troppo divertente.
Tu quanto prendi di stipendio? 10.000 euro?
Il tuo stipendio si è adeguato all'inflazione e alle ladrate di Gengis Kahn?
Non avete ancora capito la direzione che vogliono prendere?
E' chiaro che vogliano tirare su i prezzi artificiosamente per spingere nella direzione del cloud gaming, ma io a sto punto preferisco cambiare hobby e mandarli al diavolo.
AMD si allineerà con i prezzi di NVIDIA, mi ci gioco un dollaro stampato dal nulla da zio Rockefeller.
Non si ripeterà la follia delle 3000 quindi 2500 la pagheranno pochi, si comprano facile a 2000 (ovvio, magari aspetti un mesetto, se la vuoi oggi il discorso cambia).
Io non guadagno 800€ come non ne guadagno 5000, e non ho nemmeno passioni costose, ma psicologicamente non spendo più di un tot per componente. motivo per cui non ho fatto il 5800x3d e rimango ben fedele al 5800.
E si, i prezzi sono aumentati quindi guardo il mondo di oggi, altrimenti se arriviamo al 2010 è follia spendere più fi 400euro per la fascia alta. Ti faccio una domanda. avresti mai pensato nel 2010 di spendere 1200€ (Fai pure 1000) per una scheda video? credo di no.
Bene, come te, c'è chi nel 2022 spende 2000 per una 4090.
e comunque rispetto una 3080 (super giustificata da tutti) sono 1200€ in più, magari non si fanno la vacanza estiva con la ragazza e hanno appianato la spesa in nemmeno un anno
2000€ sono per i polli...senza offesa..ma è così, io cercherò di stare nel budget da me previsto, spero intorno alle prestazioni della 6900 se non giusto qualcosa in più se si riesce!
Ale55andr0
16-10-2022, 12:33
sono un po' fuori dal loop ragazzi, qual'è la situazione delle nuove GPU ( AMD ma non solo)
le presentano il 3, non si sa null'altro di concreto
Ale55andr0
16-10-2022, 12:35
AMD si allineerà con i prezzi di NVIDIA, mi ci gioco un dollaro stampato dal nulla da zio Rockefeller.
speriamo di no, del resto non mi pare che le vendite dei 7000 stiano facendo sfaceli
Non si ripeterà la follia delle 3000 quindi 2500 la pagheranno pochi, si comprano facile a 2000 (ovvio, magari aspetti un mesetto, se la vuoi oggi il discorso cambia).
Io non guadagno 800€ come non ne guadagno 5000, e non ho nemmeno passioni costose, ma psicologicamente non spendo più di un tot per componente. motivo per cui non ho fatto il 5800x3d e rimango ben fedele al 5800.
E si, i prezzi sono aumentati quindi guardo il mondo di oggi, altrimenti se arriviamo al 2010 è follia spendere più fi 400euro per la fascia alta. Ti faccio una domanda. avresti mai pensato nel 2010 di spendere 1200€ (Fai pure 1000) per una scheda video? credo di no.
Bene, come te, c'è chi nel 2022 spende 2000 per una 4090.
e comunque rispetto una 3080 (super giustificata da tutti) sono 1200€ in più, magari non si fanno la vacanza estiva con la ragazza e hanno appianato la spesa in nemmeno un anno
ma fosse la scheda video, ma le mobo... le itx hanno preso una piega assurda... 500 euro per una x670 asus perchè fanno solo la rog, la variante b650 quantò verrà... 350-400?
stesso design ricilato da alder lake, e con gli altri brand non è che va meglio
oppure sotto i 300 euro, anche che non sia itx che roba c'è per raptor e ryzla 7000...
tornassi indietro l'unica cosa che avrei fatto sarebbe stata prendere il 5800x, ma le lamentele sulle temperature mi han fatto desistere
per il 5800x3d c'è tempo, prima vediamo se tirano fuori altri 3d
speriamo di no, del resto non mi pare che le vendite dei 7000 stiano facendo sfaceli
e come fanno con i prezzi delle mobo, rivendo una b550-i o la b560-i a quanto? anche riuscissi a 150 mettiamo, e dalla disperazione prendessi una atx o m-atx... son altri 100 da buttar sopra
le a620, se le sfornano, a quanto staranno a sto giro, 150-200? assurdo
Cmq Amazon ci sta mangiando su con le 6900, chissà con le 7000 sempre se si troveranno...
Ale55andr0
16-10-2022, 13:46
e come fanno con i prezzi delle mobo, rivendo una b550-i o la b560-i a quanto? anche riuscissi a 150 mettiamo, e dalla disperazione prendessi una atx o m-atx... son altri 100 da buttar sopra
le a620, se le sfornano, a quanto staranno a sto giro, 150-200? assurdo
appunto, la piattaforma nel complesso costa un botto. Se ci si mettono anche con le gpu che vendono in amd? Nessuno dice che devono svendere/regalare (lo dico a beneficio di certe "menti semplici", non parlo di te ma in generale...) ma devono prezzare in modo...sensato :fagiano:
AkiraFudo
16-10-2022, 14:17
La moglie di jensen
https://www.youtube.com/watch?v=GwQcp_z5GhI&t=98s
StylezZz`
16-10-2022, 14:35
La moglie di jensen
https://www.youtube.com/watch?v=GwQcp_z5GhI&t=98s
Oddio :asd:
La moglie di jensen
https://www.youtube.com/watch?v=GwQcp_z5GhI&t=98s
:sbonk:
Ale55andr0
16-10-2022, 15:19
La moglie di jensen
https://www.youtube.com/watch?v=GwQcp_z5GhI&t=98s
il padre di giacchetta, primi 10s :asd:
https://www.youtube.com/watch?v=P9RhdL5fzqE&ab_channel=Stimmpss
sniperspa
16-10-2022, 15:25
Cmq Amazon ci sta mangiando su con le 6900, chissà con le 7000 sempre se si troveranno...
A vedere gli "sconti" direi che non ci siamo ancora con i prezzi
https://www.hwupgrade.it/news/multimedia/sconti-della-domenica-amazon-cuffie-sennheiser-42-xiaomi-redmi-note-11s-31-google-pixel-schede-video-rtx-e-rx-38-e-molto-altro_111021.html
MetalAxe79
16-10-2022, 16:49
Bello il fatto che si arrotonda sempre verso il basso la cifra, quando si cerca di giustificare qualcosa. 2000 euro la pagheranno pochi fortunati, il resto saranno carne da macello con le custom vendute a prezzi folli.
Sta barzelletta delle 1000 euro che non valgono più nulla è troppo divertente.
Tu quanto prendi di stipendio? 10.000 euro?
Il tuo stipendio si è adeguato all'inflazione e alle ladrate di Gengis Kahn?
Non avete ancora capito la direzione che vogliono prendere?
E' chiaro che vogliano tirare su i prezzi artificiosamente per spingere nella direzione del cloud gaming, ma io a sto punto preferisco cambiare hobby e mandarli al diavolo.
AMD si allineerà con i prezzi di NVIDIA, mi ci gioco un dollaro stampato dal nulla da zio Rockefeller.Concordo, si sta arrivando alla follia. Io aspetto di vedere i prezzi amd, se saranno folli pure quelli andrò su una 6900/6950xt. Se poi si continuerà con questa follia tra qualche anno me ne tornerò sulle console, anche se preferirei di no. 2000 e passa euro per giocare comunque sono assurdi...
Bello il fatto che si arrotonda sempre verso il basso la cifra, quando si cerca di giustificare qualcosa. 2000 euro la pagheranno pochi fortunati, il resto saranno carne da macello con le custom vendute a prezzi folli.
Sta barzelletta delle 1000 euro che non valgono più nulla è troppo divertente.
Tu quanto prendi di stipendio? 10.000 euro?
Il tuo stipendio si è adeguato all'inflazione e alle ladrate di Gengis Kahn?
Non avete ancora capito la direzione che vogliono prendere?
E' chiaro che vogliano tirare su i prezzi artificiosamente per spingere nella direzione del cloud gaming, ma io a sto punto preferisco cambiare hobby e mandarli al diavolo.
AMD si allineerà con i prezzi di NVIDIA, mi ci gioco un dollaro stampato dal nulla da zio Rockefeller.
Posso chiedere che problemi ci sono col cloud gaming?
Guardate che basta non comprare eh.
Purtroppo pero' come questo forum dimostra il mondo e' pieno di persone pronte a spendere quasi 2000 euro per GPU, anche quando la GPU e' una ciofeca da 500+ watt che non riesce nemmeno a far girare i giochi piu esigenti a 1440p senza DLSS.
Io non capisco chi si lamenta ma poi compra.
Io ho una 1060 e finche' non trovo una gpu che consumi poco e vada molto di piu non cambio. Una 1060 basta e avanza ancora a 1440p se si e' disposti a sopravvivere nel giocare a dettagli medi (come se poi si vedesse chissa' che differenza...).
Guardate che basta non comprare eh.
Purtroppo pero' come questo forum dimostra il mondo e' pieno di persone pronte a spendere quasi 2000 euro per GPU, anche quando la GPU e' una ciofeca da 500+ watt che non riesce nemmeno a far girare i giochi piu esigenti a 1440p senza DLSS.
Io non capisco chi si lamenta ma poi compra.
Io ho una 1060 e finche' non trovo una gpu che consumi poco e vada molto di piu non cambio. Una 1060 basta e avanza ancora a 1440p se si e' disposti a sopravvivere nel giocare a dettagli medi (come se poi si vedesse chissa' che differenza...).
Va be', ma ognuno potrà usare i soldi come meglio vuole?
:D
Posso chiedere che problemi ci sono col cloud gaming?
Compro la mia console\pc, compro il mio giochillo, spesa massima finita e definita, ci gioco quanto voglio senza spendere 1€ in più. Cloud gaming mi mungono come una vacca ogni volta che accendo la console\pc, siccome lo stipendio è sempre lo stesso, non potrò giocare più.
scorpion73
17-10-2022, 08:03
Guardate che basta non comprare eh.
Purtroppo pero' come questo forum dimostra il mondo e' pieno di persone pronte a spendere quasi 2000 euro per GPU, anche quando la GPU e' una ciofeca da 500+ watt che non riesce nemmeno a far girare i giochi piu esigenti a 1440p senza DLSS.
Io non capisco chi si lamenta ma poi compra.
Io ho una 1060 e finche' non trovo una gpu che consumi poco e vada molto di piu non cambio. Una 1060 basta e avanza ancora a 1440p se si e' disposti a sopravvivere nel giocare a dettagli medi (come se poi si vedesse chissa' che differenza...).
Perdonami ma non mi pare che la 4090 non sia in grado di far girare giochi senza DLSS.
Anzi è CPU limited a 1440p, semmai sono le CPU che la limitano.
E' vero che a 1440p è nonsense ma per quello, a 4K non esiste attualmente (e presumo per parecchio) una GPU con una potenza maggiore.
Quindi come prestazioni direi che ci siamo abbondantemente, è il prezzo che fa ribrezzo e non si può vedere.
Ma una cosa è il prezzo e il nonsense di spendere 2k per la sola GPU, su cui mi trovi d'accordo, un conto è la pura potenza, che non manca proprio per niente.
Gyammy85
17-10-2022, 08:11
Perdonami ma non mi pare che la 4090 non sia in grado di far girare giochi senza DLSS.
Anzi è CPU limited a 1440p, semmai sono le CPU che la limitano.
E' vero che a 1440p è nonsense ma per quello, a 4K non esiste attualmente (e presumo per parecchio) una GPU con una potenza maggiore.
Quindi come prestazioni direi che ci siamo abbondantemente, è il prezzo che fa ribrezzo e non si può vedere.
Ma una cosa è il prezzo e il nonsense di spendere 2k per la sola GPU, su cui mi trovi d'accordo, un conto è la pura potenza, che non manca proprio per niente.
Se perde 50 o 100 fps da fullhd a 1440p non è sicuro la cpu, semplicemente è una gpu pachidermica ed inefficiente, che per qualche strano motivo di fine tuning non esplode di consumi sempre ma solo in determinati casi
Che vada bene o no non ha importanza, tutte vendute a 2600 euro o giu di lì (scommetto anche 3000 per la suprim x classified hero 5)
StylezZz`
17-10-2022, 09:16
Bisognerà vedere come si comporterà la 7900 XT a 1440p con le cpu attuali.
Va be', ma ognuno potrà usare i soldi come meglio vuole?
:D
Ci mancherebbe!
Perdonami ma non mi pare che la 4090 non sia in grado di far girare giochi senza DLSS.
Anzi è CPU limited a 1440p, semmai sono le CPU che la limitano.
E' vero che a 1440p è nonsense ma per quello, a 4K non esiste attualmente (e presumo per parecchio) una GPU con una potenza maggiore.
Quindi come prestazioni direi che ci siamo abbondantemente, è il prezzo che fa ribrezzo e non si può vedere.
Ma una cosa è il prezzo e il nonsense di spendere 2k per la sola GPU, su cui mi trovi d'accordo, un conto è la pura potenza, che non manca proprio per niente.
https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/halo-infinite-2560-1440.png
https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/watch-dogs-legion-2560-1440.png
https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/borderlands-3-2560-1440.png
Per 2000 euro mi aspetterei di maxare giochi del 2021 a 1440p e auguri con quelli nuovi.
fraussantin
17-10-2022, 09:35
https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/halo-infinite-2560-1440.png
https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/watch-dogs-legion-2560-1440.png
https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/borderlands-3-2560-1440.png
Per 2000 euro mi aspetterei di maxare giochi del 2021 a 1440p e auguri con quelli nuovi.
non è una scheda fatta per il 1440p mi pareva chiaro. poi li sarebbe da capire quanto cpu limited è ilo pc
prendendone uno fra quelli citati , in 1080p fa gli stessi fps
https://i.postimg.cc/59g7xNy5/screenshot-471.jpg (http://postimg.cc/Yj4fR71j)
evidentemente la cpu influisce parecchio
non è una scheda fatta per il 1440p mi pareva chiaro. poi li sarebbe da capire quanto cpu limited è ilo pc
prendendone uno fra quelli citati , in 4k fa gli stessi fps
https://i.postimg.cc/59g7xNy5/screenshot-471.jpg (http://postimg.cc/Yj4fR71j)
evidentemente la cpu influisce parecchio
Ma in base a cosa tutti fanno questa affermazione che c'e` un bottleneck cpu?
La scusa della CPU regge a 300/400 fps quando la cpu non riesce a stare dietro ai frame generati, non certo a 100.
Inoltre legions e' un gioco directx 12, nemmeno 11, quindi la scusa della cpu regge proprio poco.
alethebest90
17-10-2022, 09:49
non è una scheda fatta per il 1440p mi pareva chiaro. poi li sarebbe da capire quanto cpu limited è ilo pc
prendendone uno fra quelli citati , in 4k fa gli stessi fps
https://i.postimg.cc/59g7xNy5/screenshot-471.jpg (http://postimg.cc/Yj4fR71j)
evidentemente la cpu influisce parecchio
ma se fosse solo un problema di cpu, allora in full hd dovrebbe almeno fare gli stessi fps della 6950XT o sbaglio ??
qui si nota proprio che scala male, per gli amanti degli fps oltre i 200 a risoluzioni basse rimarranno delusi
Gyammy85
17-10-2022, 10:08
La cosa certa è che sta scheda era data 2x raster e chissà quanti ordini di grandezza sopra la 3090 in rt, va +60% in raster e +60% rt, ma è più che sufficiente a giustificare un prezzo doppio
Direi che ormai è uscita, "stupenda mostruosa inarrivabile vorrei ma non posso" ce lo siamo detto, pensiamo ad rdna3, e soprattutto a quanto se la stanno ridendo in amd con questo silenzio
scorpion73
17-10-2022, 10:20
Se perde 50 o 100 fps da fullhd a 1440p non è sicuro la cpu, semplicemente è una gpu pachidermica ed inefficiente, che per qualche strano motivo di fine tuning non esplode di consumi sempre ma solo in determinati casi
Che vada bene o no non ha importanza, tutte vendute a 2600 euro o giu di lì (scommetto anche 3000 per la suprim x classified hero 5)
Non perde niente, semplicemente non va oltre un certo framerate perché la CPU gli fa da tappo in quanto è troppo potente. Ma non è che va 50fps meno di quella prima, non diciamo inesattezze.
D'altra parte quella GPU è stata studiata probabilmente per il 4K, dove questo problema non ce l'hai.
Dobbiamo considerare che il 1440p è il nuovo fullhd, dove ormai sostanzialmente non guadagni più niente perché sei CPU limited. O ti pensi veramente che la futura AMD da 14k cuda (non la 7900 ma la 7950) sarà studiata per il 2K e non soffrirà dello stesso problema?
Le architetture AMD scalano meglio in 1440p delle nvidia, questo è verissimo, e quindi rendono meglio, ma quando arrivi ad un certo margine di potenza secondo me su tutte sei limitato dalla CPU ad alcune risoluzioni.
Gyammy85
17-10-2022, 10:24
Non perde niente, semplicemente non va oltre un certo framerate perché la CPU gli fa da tappo in quanto è troppo potente. Ma non è che va 50fps meno di quella prima, non diciamo inesattezze.
D'altra parte quella GPU è stata studiata probabilmente per il 4K, dove questo problema non ce l'hai.
Dobbiamo considerare che il 1440p è il nuovo fullhd, dove ormai sostanzialmente non guadagni più niente perché sei CPU limited. O ti pensi veramente che la futura AMD da 14k cuda (non la 7900 ma la 7950) sarà studiata per il 2K e non soffrirà dello stesso problema?
Le architetture AMD scalano meglio in 1440p delle nvidia, questo è verissimo, e quindi rendono meglio, ma quando arrivi ad un certo margine di potenza secondo me su tutte sei limitato dalla CPU ad alcune risoluzioni.
A parte qualche open world, normalmente avviene questo, è molto potente ma non così tanto da fare sempre tappo cpu, e poi sanno tutti da dieci anni che nvidia carica di più la cpu ed è priva di scheduler in hardware
mikael84
17-10-2022, 11:11
La cosa certa è che sta scheda era data 2x raster e chissà quanti ordini di grandezza sopra la 3090 in rt, va +60% in raster e +60% rt, ma è più che sufficiente a giustificare un prezzo doppio
Direi che ormai è uscita, "stupenda mostruosa inarrivabile vorrei ma non posso" ce lo siamo detto, pensiamo ad rdna3, e soprattutto a quanto se la stanno ridendo in amd con questo silenzio
Non può fare 2x raster, può arrivare a quei picchi solo in carichi pro, o avvicinarsi in alcuni sintetici intensivi.
Tra 3090 e 4090 stai un pelo sopra il 2x teorico.
2x teorico è lo stesso rapporto tra 6900/6700xt, ed infatti la differenza raster sta sul 40-57% (1440p e 4k).
Un 2x teorico lo farà anche una 7800xt vs 6900, ma di certo non andrà 2x.
AceGranger
17-10-2022, 11:13
ma se fosse solo un problema di cpu, allora in full hd dovrebbe almeno fare gli stessi fps della 6950XT o sbaglio ??
qui si nota proprio che scala male, per gli amanti degli fps oltre i 200 a risoluzioni basse rimarranno delusi
quella review è stata fatta con driver 521.90 Press Driver
qualche giorno fa sono usciti i driver 522.25
"Halo Infinite mostra anche un aumento delle prestazioni del 15 percento in WQHD, che diminuisce all’aumentare del limite della GPU."
https://www.gamingdeputy.com/it/gaming/benchmark-geforce-522-25-il-driver-accelera-geforce-rtx-3000-per-il-lancio-di-rtx-4090/
non so come vanno questi driver nuovi se cambia effettivamente qualche cosa ( anche sulle vecchie 30x0 visto che interessa anche loro ) ma guardando quelle tabelle a me sembra che il problema non sia la 4090 che scala male a livello assoluto, ma il game engine che intono ai 100 fps con le nVidia lavora male in generale, perchè anche la 3080Ti 3090 e 3090Ti sono praticamente attaccate e non scalano.
mikael84
17-10-2022, 11:29
quella review è stata fatta con driver 521.90 Press Driver
qualche giorno fa sono usciti i driver 522.25
"Halo Infinite mostra anche un aumento delle prestazioni del 15 percento in WQHD, che diminuisce all’aumentare del limite della GPU."
https://www.gamingdeputy.com/it/gaming/benchmark-geforce-522-25-il-driver-accelera-geforce-rtx-3000-per-il-lancio-di-rtx-4090/
non so come vanno questi driver nuovi se cambia effettivamente qualche cosa ( anche sulle vecchie 30x0 visto che interessa anche loro ) ma guardando quelle tabelle a me sembra che il problema non sia la 4090 che scala male a livello assoluto, ma il game engine che intono ai 100 fps con le nVidia lavora male in generale, perchè anche la 3080Ti 3090 e 3090Ti sono praticamente attaccate e non scalano.
Tpu poi ha benchato con un 5800x e non con una CPU top di gamma, già ora le 3090 vengono spesso limitate con quella CPU. Non si capisce la scelta di non aver utilizzato almeno un 7950x.
https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/halo-infinite-2560-1440.png
Qua hanno usato un 12900k
https://i.postimg.cc/jqZRc3Px/cpbase.png
Gyammy85
17-10-2022, 11:32
Non può fare 2x raster, può arrivare a quei picchi solo in carichi pro, o avvicinarsi in alcuni sintetici intensivi.
Tra 3090 e 4090 stai un pelo sopra il 2x teorico.
2x teorico è lo stesso rapporto tra 6900/6700xt, ed infatti la differenza raster sta sul 40-57% (1440p e 4k).
Un 2x teorico lo farà anche una 7800xt vs 6900, ma di certo non andrà 2x.
Pure Vega stava +60% la furyx e almeno il doppio in sintetico e pro con le stesse cu, ma era una ciofeca (anzi cioVega)
Fa quello che deve fare considerando pp e tutto, niente di più e niente di meno, finita l'ubriacatura resta questo
È il dlss3 il cardine e lo sanno bene
mikael84
17-10-2022, 11:45
Pure Vega stava +60% la furyx e almeno il doppio in sintetico e pro con le stesse cu, ma era una ciofeca (anzi cioVega)
Fa quello che deve fare considerando pp e tutto, niente di più e niente di meno, finita l'ubriacatura resta questo
È il dlss3 il cardine e lo sanno bene
L'ubriacatura c'è, una scheda che su un 4k va il 65-70% in raster ed 80% in RT, più il DLSS3 ancora da vedere bene. Per un inscimmiato non è certo poco. Ma anche fosse andata il 30-40% in più, non sarebbe cambiato molto, lo dimostra la 2080ti, che raddoppiava il prezzo classico, eppure gli inscimmiati l'hanno presa.:p
Bisogna vedere il post sbornia, tra qualche mese. Anche Lisa probabilmente punterà al margine inizialmente, temo che dovremmo rassegnarci al CES del 4 gennaio.
fraussantin
17-10-2022, 11:51
Ma in base a cosa tutti fanno questa affermazione che c'e` un bottleneck cpu?
La scusa della CPU regge a 300/400 fps quando la cpu non riesce a stare dietro ai frame generati, non certo a 100.
Inoltre legions e' un gioco directx 12, nemmeno 11, quindi la scusa della cpu regge proprio poco.Ho detto per prima cosa che queste gpu sono per il 4k , poi ho aggiunto probabilmente anche la cpu c'entra qualcosa.
Magari è anche sono una questione di driver come detto da altri , di fatto non ha senso comprare una 4090 per il 2k .
Ma proprio no.
Anche perche chi spende 2500 euro per una gpu che gioca con un monitor da 300?
Via su ...
devAngnew
17-10-2022, 14:18
ma se fosse solo un problema di cpu, allora in full hd dovrebbe almeno fare gli stessi fps della 6950XT o sbaglio ??
qui si nota proprio che scala male, per gli amanti degli fps oltre i 200 a risoluzioni basse rimarranno delusi
Io come altri ho dei dubbi che sia un problema di scaling vedo che non fà nemmeno gli stessi frame di un 'ampere di pari fascia su alcuni giochi.
Sono convinto che ci siano problemi di driver del resto ada è un ampere pompata :D
Ale55andr0
17-10-2022, 14:47
La cosa certa è che sta scheda era data 2x raster e chissà quanti ordini di grandezza sopra la 3090 in rt, va +60% in raster e +60% rt, ma è più che sufficiente a giustificare un prezzo doppio
Direi che ormai è uscita, "stupenda mostruosa inarrivabile vorrei ma non posso" ce lo siamo detto, pensiamo ad rdna3
solo un +60% sia in raster che RT su un cesso a pedali come la 3090, eh che fail, è proprio dura essere nvidia (semicit.)
non oso immaginare che accadrebbe se qualcuno partorisse un roito che va pure meno di sto epic fail in RT, w magari ce lo prezza pure vicino! :eek:
e soprattutto a quanto se la stanno ridendo in amd con questo silenzio
e anche questo ce lo segnamo, così poi rideremo prue noi (si spera, a giacco una sberla farebbe un gran bene)
Ale55andr0
17-10-2022, 14:49
Pure Vega stava +60% la furyx e almeno il doppio in sintetico e pro con le stesse cu, ma era una ciofeca (anzi cioVega)
Fa quello che deve fare considerando pp e tutto, niente di più e niente di meno, finita l'ubriacatura resta questo
È il dlss3 il cardine e lo sanno bene
stavano a più 60, il problema è rispetto a COSA. Ma è un dettaglio insignificante
Gyammy85
17-10-2022, 15:15
solo un +60% sia in raster che RT su un cesso a pedali come la 3090, eh che fail, è proprio dura essere nvidia (semicit.)
non oso immaginare che accadrebbe se qualcuno partorisse un roito che va pure meno di sto epic fail in RT, w magari ce lo prezza pure vicino! :eek:
e anche questo ce lo segnamo, così poi rideremo prue noi (si spera, a giacco una sberla farebbe un gran bene)
Segnati quello che vuoi, stai nei forum AMD da 6 anni a dire che va tutto male e compri sistematicamente nVidia, contento tu
Gyammy85
17-10-2022, 15:16
stavano a più 60, il problema è rispetto a COSA. Ma è un dettaglio insignificante
Era comunque una vga top che andava più o meno come una 980ti
carloUba
17-10-2022, 15:20
Segnati quello che vuoi, stai nei forum AMD da 6 anni a dire che va tutto male e compri sistematicamente nVidia, contento tu
Tu che riprendi un'altro utente è una cosa assurda però.
Eddai
Gyammy85
17-10-2022, 15:24
Tu che riprendi un'altro utente è una cosa assurda però.
Eddai
Chiama anche gli altri però se no ci si diverte poco
ray_hunter
17-10-2022, 15:36
Suvvia ma date ancora corda a Gyammy85?
Sapete benissimo che spara a zero senza una virgola di ragionamento e razionalità.
La 4090 è un bestia, questo è un dato oggettivo.
Quello che importa è che AMD tiri fuori una scheda competitiva come lo sono state le 6800/6900, con magari qualche miglioramento più sostanziale lato RT.
Ormai lo spauracchio DLSS è stato in parte ovviato grazie a FSR 2.0 e XeSS.
Che si preferisca adottare queste tecniche o meno ci sono da una parte e dall'altra. Semmai si può discutere sulla diffusione.
Per quanto riguarda il DLSS3 tutto da vedere quanto sarà diffuso. A me concettualmente piace molto, ma questo è personale.
Se AMD non avrà schede competitive con la 4090 ma almeno con la 4080 o la futura 4070 (ex 4080 12GB), sarà già un buon punto di partenza.
Quello che farà la differenza in tal caso sarà spt il prezzo.
Ale55andr0
17-10-2022, 15:47
Segnati quello che vuoi, stai nei forum AMD da 6 anni a dire che va tutto male e compri sistematicamente nVidia, contento tu
il fanboysmo rosso ti ha accecato la memoria, o l'hai sparata agratis as usual spinto dal fanboysmo di cui sopra.... le mie schede: 1650pro (o come razzo si chiamava)-HD4870-HD7970-R290-GTX1080-RTX3070. "Compro sistematicamente nvidia" :rotfl:
alethebest90
17-10-2022, 15:58
il fanboysmo rosso ti ha accecato la memoria, o l'hai sparata agratis as usual spinto dal fanboysmo ti cui sopra.... le mie schede: 1650pro (o come razzo si chiamava)-HD4870-HD7970-R290-GTX1080-RTX3070. "Compro sistematicamente nvidia" :rotfl:
x1650pro, fantastica quella scheda...a parte che la sepphire ne dovetti mandare indietro 2 perchè difettose e invece della 256mb mi spedirono la 512mb :D
Ale55andr0
17-10-2022, 16:06
x1650pro, fantastica quella scheda...a parte che la sepphire ne dovetti mandare indietro 2 perchè difettose e invece della 256mb mi spedirono la 512mb :D
in realtà faceva cagare, ma non per il brand e il modello in se' ma la fascia: in quel periodo sia ATi che nvidia depotenziavano esageratamente le medie rispetto le top, fu solo con le 4850/8800GT che il VERO rapporto prezzo/prestazioni arrivò finalmente disponibile anche per noi poveri stronzi. Le 9700 sbloccabili furono caso fortuito in mezzo a secoli di buio. Comunque andando più ancora indietro nel tempo, le mie schede dagli albori del mio ingreso al pc gaming: S3virge - Nvidia TNT - Nivdia TNT 2 - Vodoo 3 3500 (con sinto tv integrato :D) Matrox G400 e Ulteriore Matrox G400 (16mb la prima e 32 la seconda) Ati 9600 e poi la lista di cui prima :).
Ma io compro sistematicamente nvidia :doh:
No io compro quello che mi convince/posso permettermi al momento, non ho tare mentali che mi ossessionano per dei pezzi di silicio e dei relativi brand, eccezion fatta per i team inglesi di F1: li ODIO :asd:
alethebest90
17-10-2022, 16:11
in realtà faceva cagare, ma non per il brand e il modello in se' ma la fascia: in quel periodo sia ATi che nvidia depotenziavano esageratamente le medie rispetto le top, fu solo con le 4850/8800GT che il VERO rapporto prezzo/prestazioni arrivò finalmente disponibile anche per noi poveri stronzi. Le 9700 sbloccabili furono caso fortuito in mezzo a secoli di buio. Comunque andando più ancora indietro nel tempo, le mie schede dagli albori del mio ingreso al pc gaming: S3virge - Nvidia TNT - Nivdia TNT 2 - Vodoo 3 3500 (con sinto tv integrato :D) Matrox G400 e Ulteriore Matrox G400 (16mb la prima e 32 la seconda) Ati 9600 e poi la lista di cui prima :).
ah io all'epoca non ci capivo tanto, tieni presente che passai dalla 9800pro alla x1650, e per me gia poter giocare ad half life 2 alzando i dettagli era il top :asd:
Ale55andr0
17-10-2022, 16:15
Half ilfe 2 era un motore da sogno, girava maxato su quasi tutti i PC "medi" a 1024*768, e sui sistemi potenti a 1600*1200 :sofico: :asd: e poi era ottimizzato ben per Ati. Doom 3 invece era un titolo verde, scontro diretto di colossi degli FPS :D Che ricordi, quando il gaming e l'hardware facevano sognare...o sarà la vecchiaia :cry:
vabò sto divagando troppo :P /OT
La 4090 è un bestia, questo è un dato oggettivo.
Ho guardato diverse recensioni, tralasciando volutamente quelle che analizzavano solo le performance dei giochi, e posso dire che la 4090 NON è una scheda che da suo il meglio in ambito Gaming (personalmente non giustifico l'esborso) ma per uso professionale è allucinante: pazzesca per calcoli in ambito di reti neurali, calcoli in VKpeak (FP16,32 etc) dove esprime una potenza imbarazzante e fa impallidire la 3090
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.