PDA

View Full Version : GeForce RTX 4090, prestazioni più del doppio superiori alla RTX 3080 in Overwatch 2


Redazione di Hardware Upg
06-10-2022, 09:21
Link alla notizia: https://www.hwupgrade.it/news/skvideo/geforce-rtx-4090-prestazioni-piu-del-doppio-superiori-alla-rtx-3080-in-overwatch-2_110751.html

NVIDIA ha condiviso un interessante benchmark della nuova GeForce RTX 4090 con Overwatch 2. Dai dati emerge che la nuova top di gamma supera di oltre il doppio la RTX 3080. Un miglioramento che, però, è da mettere in relazione al prezzo.

Click sul link per visualizzare la notizia.

AtaruGolan
06-10-2022, 10:02
Da notare come non c'è in lista 3090 e 3090ti..

Luxor83
06-10-2022, 10:20
Si belle e potenti, MA, a parer mio anacronistiche, gigantesche e va pure a farsi benedire il discorso "hobby dei videogiochi". Sempre stato convinto Pcista, ma con questi costi e ci metto ovviamente anche i consumi, spropositati, sia per gpu che per cpu, per farsi un pc di fascia alta, vedo solo due strade:

1) Pc che soddisfi i req minimi per un abbonamento come Nvidia Geforce Now e giocare in streaming

2) Console

Ne aggiungo una terza, mandare tutto a malora e dedicarsi ad altro.

Così non mi diverto più, non mi piace e non ho sinceramente voglia di buttare i miei soldi regalandoli ad un settore che non fa NULLA per tutelare i propri clienti che li fanno andare avanti, anzi, quando possono speculano sui prezzi dando la colpa a fattori esterni. Poi vedi i loro fatturati e utili netti e fanno record su record.
E noi beeeeeeee beeeeeeee 102% in più in raster......beeeeeeeeeeeee

Gyammy85
06-10-2022, 10:30
Da notare come non c'è in lista 3090 e 3090ti..

1440p, reflex+boost, in discesa e con una bella spinta insomma
Ok tutto bello, ma quante schede pensano di vendere? quante ne hanno prodotte? a quel prezzo poi, che era il prezzo della "scheda che il gamer non deve assolutamente prendere in considerazione"
Mettiamoci poi la storia delle due 4080, top lancio di sempre, ma si sapeva già

StylezZz`
06-10-2022, 10:34
Si belle e potenti, MA, a parer mio anacronistiche, gigantesche e va pure a farsi benedire il discorso "hobby dei videogiochi". Sempre stato convinto Pcista, ma con questi costi e ci metto ovviamente anche i consumi, spropositati, sia per gpu che per cpu, per farsi un pc di fascia alta, vedo solo due strade:

1) Pc che soddisfi i req minimi per un abbonamento come Nvidia Geforce Now e giocare in streaming

2) Console

Ne aggiungo una terza, mandare tutto a malora e dedicarsi ad altro.

Così non mi diverto più, non mi piace e non ho sinceramente voglia di buttare i miei soldi regalandoli ad un settore che non fa NULLA per tutelare i propri clienti che li fanno andare avanti, anzi, quando possono speculano sui prezzi dando la colpa a fattori esterni. Poi vedi i loro fatturati e utili netti e fanno record su record.
E noi beeeeeeee beeeeeeee 102% in più in raster......beeeeeeeeeeeee

Sbagliato, la terza è non stare a rincorrere l'ultima uscita, si gioca benissimo anche con la gen precedente.

coschizza
06-10-2022, 10:34
Si belle e potenti, MA, a parer mio anacronistiche, gigantesche e va pure a farsi benedire il discorso "hobby dei videogiochi". Sempre stato convinto Pcista, ma con questi costi e ci metto ovviamente anche i consumi, spropositati, sia per gpu che per cpu, per farsi un pc di fascia alta, vedo solo due strade:

1) Pc che soddisfi i req minimi per un abbonamento come Nvidia Geforce Now e giocare in streaming

2) Console

Ne aggiungo una terza, mandare tutto a malora e dedicarsi ad altro.

Così non mi diverto più, non mi piace e non ho sinceramente voglia di buttare i miei soldi regalandoli ad un settore che non fa NULLA per tutelare i propri clienti che li fanno andare avanti, anzi, quando possono speculano sui prezzi dando la colpa a fattori esterni. Poi vedi i loro fatturati e utili netti e fanno record su record.
E noi beeeeeeee beeeeeeee 102% in più in raster......beeeeeeeeeeeee

1 queste gpu sono molto piu efficienti della serie precedenti
2 sono il super top di gamma non devi comprartele per giocare quindi le tue preoccupazioni sono ingiustificate
3 da quando esiste il gioco su pc non è mai servito e non serve tuttora un pc di fascia alta ma nemmeno lontanamente

Gyammy85
06-10-2022, 10:38
1 queste gpu sono molto piu efficienti della serie precedenti
2 sono il super top di gamma non devi comprartele per giocare quindi le tue preoccupazioni sono ingiustificate
3 da quando esiste il gioco su pc non è mai servito e non serve tuttora un pc di fascia alta ma nemmeno lontanamente

Sai com'è, anche a noi acquistatori compulsivi di roba peasant ogni tanto piacerebbe accedere alla roba buona davvero senza necessariamente metterci sopra un mutuo, e siccome amd non è scema, calerà il prezzo ma non tanto perché se no si rischia effetto "ma se costa poco un motivo c'è!!11!!!1", la classica filosofia apple, che ha portato a spendere 1200 euro per dei telefoni che prima dell'iphone ne costavano 400
PS ma non sono schede da minimo 4k? perché benchano a 1440p?

Ale55andr0
06-10-2022, 10:43
2 sono il super top di gamma non devi comprartele per giocare quindi le tue preoccupazioni sono ingiustificate


giusto, c'è l fascia media a soli 1100 euro :asd:

ah no spè è marchiata 80 quindi tuto si spiega, tutto si giustifica

Luxor83
06-10-2022, 10:47
Sbagliato, la terza è non stare a rincorrere l'ultima uscita, si gioca benissimo anche con la gen precedente.

Non rincorro nulla, ho una RTX2060 consuma all'incirca 160W. Personalmente ritengo che oltre la soglia dei 250W non dovrebbero esistere GPU.

coschizza
06-10-2022, 10:51
giusto, c'è l fascia media a soli 1100 euro :asd:

ah no spè è marchiata 80 quindi tuto si spiega, tutto si giustifica

esisete anche la serie 3000 non è che è scaduta nel frattempo

coschizza
06-10-2022, 10:52
Sbagliato, la terza è non stare a rincorrere l'ultima uscita, si gioca benissimo anche con la gen precedente.

e spesso anche con 2 , 3 generazioni precedenti in molti casi

ningen
06-10-2022, 10:52
A mio modo di vedere questi test su giochi come Overwatch 2 (che a meno che tu non sia un demente dovresti aver capito che è praticamente uguale al primo) lasciano il tempo che trovano, così come i test su Counter strike o Fortnite che spesso vedo nelle recensioni.
In cosa dovrebbe essere significativo un test del genere quando probabilmente anche una vecchia 1060 sta sui 60 fps?
La bontà di queste schede la si vedrà con titoli più avanzati tecnicamente che possano metterle in difficoltà.
Del fatto che faccia 500 fps in un gioco graficamente del cazzo come Overwatch 2, non dovrebbe interessare a nessuno a parte qualche fissato o gente che gioca super competitivo (ma anche li c'è un limite a tutto) e credo che questi risultati siano inseriti solo per drogare i risultati delle schede video nelle recensioni, in quanto nel computo finale delle prestazioni medie si tengono conto anche di questi risultati estremamente elevati che non raggiungeranno mai in altri giochi tecnicamente più avanzati e moderni.

Gringo [ITF]
06-10-2022, 10:53
Ne aggiungo una terza, mandare tutto a malora e dedicarsi ad altro.
Non serve, semplicemente noterai che i giochi ti funzionano bene anche sulla tua RTX 3080 se gli sviluppatori tirano il freno a mano e puntano al settore Console / PC Family, perchè investire milioni per il 3% dei videogiocatori, quando il 37% ha una 3080 e il 50% inferiore.
Per quei 4 titoli che puntano al 4K 120fps..... possono anche tenerseli li, visto che lo stesso gioco ci sarà anche per PS5 / X-BOX.

Mentre il confronto e fantastico:
- La Ferrari F40 va ben il doppio della tua Fiat 500 XL...... (Ma che caz. di raggionamento è.....
- Forse va anche 5 volte la 3050 TI ? ..... ma fate il piacere... Mr. Giacchetta, che alla fine tutti si fionderanno sulle schede intel a questo punto, costano il 20% in meno e coprono il mercato che avete lasciato in mutande... due anni in cui la 3060 costava 1000euro e la 3050 sui 450euro follia.

StylezZz`
06-10-2022, 11:06
Non rincorro nulla, ho una RTX2060 consuma all'incirca 160W. Personalmente ritengo che oltre la soglia dei 250W non dovrebbero esistere GPU.

E allora stai sereno, non devi mandare nulla a malora...con una RTX 2060 giochi tutto a 1080p maxato, e ti puoi permettere anche 1440p 60fps con il DLSS senza sacrificare troppo i settaggi.

lauda
06-10-2022, 11:07
Direi che possiamo ipotizzare che la 4070 andrà come la 3080 (in rasterizzazione), ma al prezzo della 3080 e non di quello della 3070.

Mi sembra uno scenario un po' triste..

Gyammy85
06-10-2022, 11:08
esisete anche la serie 3000 non è che è scaduta nel frattempo

L'acquirente elle 3000 non potrà concepire di giocare senza il favoloso dlss3

Ripper89
06-10-2022, 11:10
la RTX 4080 16 GB, il distacco è del 37,7%.

Dalla prova, però, emergono altri fattori persino più interessanti. Innanzitutto, la differenza tra la RTX 3080 e la RTX 4080 12 GB. Quest'ultima guadagna un modesto +18%
Il risultato penso sia a dir poco scandaloso.

Solo un 18% sulla 3080 per la 4080/12GB ?
E solo un 38% per la versione da 16GB ?

Cioè con il salto dall'8nm Samsung al 5nm TSMC questo è tutto quello che si riesce a fare ? :confused: :mbe:

Considerando che la 3080 e la 4080/16 hanno un TDP simile significa che l'efficienza è aumentata meno del 40%, più verso il 35 se consideriamo che la 4080 ha qualcosina in più come consumo.

Luxor83
06-10-2022, 11:11
1 queste gpu sono molto piu efficienti della serie precedenti
2 sono il super top di gamma non devi comprartele per giocare quindi le tue preoccupazioni sono ingiustificate
3 da quando esiste il gioco su pc non è mai servito e non serve tuttora un pc di fascia alta ma nemmeno lontanamente

1 si ma non vedo consumi da 200W e aspetteremo la fascia media per vedere se ci saranno, ma ho i miei dubbi

2 quindi se la serie 50 consumera 1KW è giustificato perchè sono il supertop quindi non sono problemi miei, come per dire tu vai in giro con l'hammer inquini tanto quanto un turbostar e non sono problemi miei. ok.

3 Ti do ragione, infatti io viaggio su vecchissimo i7 4790k e rtx 2060 e sto a circa 250/270W in full load di consumo, il problema è che non esiste regolamentazione sui consumi come per quasi la totalità degli apparecchi elettronici a casa e avere specialmente in questo periodo 500W di solo pc per giocare, non so, ce poco di cui vantarsi.

Il discorso in succo è che tutti i consumi sia dal top di gamma a scalare stanno aumentando, a parer mio sarebbe giusto darsi una calmata e definire delle fasce per consumo.

La Top 350W----> quella dopo 300W.....a scalare, tutto qua.

Luxor83
06-10-2022, 11:17
Direi che possiamo ipotizzare che la 4070 andrà come la 3080 (in rasterizzazione), ma al prezzo della 3080 e non di quello della 3070.

Mi sembra uno scenario un po' triste..

Considerando i commenti, potrebbero prezzarla anche a 5000€, tanto ce chi la compra lo stesso.

supertigrotto
06-10-2022, 11:25
Mi piace come funziona la comunicazione e il marketing,quando la serie 6000 era una bomba in fatto di rasterizzazione pura c'erano gli eeeeeh ma non hanno il super effetto avanzato RT che abbiamo noi,adesso si sbandiera che la loro rasterizzazione è un portento.
Sono veramente perplesso,senza nulla togliere il merito a un prodotto costosissimo ma molto potente.

Gyammy85
06-10-2022, 11:32
Il risultato penso sia a dir poco scandaloso.

Solo un 18% sulla 3080 per la 4080/12GB ?
E solo un 38% per la versione da 16GB ?

Cioè con il salto dall'8nm Samsung al 5nm TSMC questo è tutto quello che si riesce a fare ? :confused: :mbe:

Considerando che la 3080 e la 4080/16 hanno un TDP simile significa che l'efficienza è aumentata meno del 40%, più verso il 35 se consideriamo che la 4080 ha qualcosina in più come consumo.

Esattamente il motivo per cui le unità hardware dedicate sono uno svantaggio e vanno evitate il più possibile, hanno messo su un numero enorme di roba per fare il dlss3, che non funzionerà mai per tutto il resto, oltre quello lo shader core sarà sostanzialmente lo stesso di ampere che è sostanzialmente lo stesso di turing, a parte forse qualche istruzione in più, ma abbiamo visto come la doppia fp non serva praticamente a niente

cronos1990
06-10-2022, 11:54
Una scheda concettualmente ideale per il 4K tastata in 1440p... curioso...

joe4th
06-10-2022, 12:16
Se tornassero a sviluppare lo SLI, metterebbero 4 schede 4090 in parallelo quando non raggiungono dei frame rate sufficienti e cosi sarebbero tutti felici e contenti... :-)

Scherzi a parte, sarebbe interessante un confronto con Flight Simulator in 4K o 8K, che era uno di quei titoli, dove anche la 3090Ti arrancava...

Comunque perche' confrontano la 4090 con la 3080, invece che con la 3090Ti che sarebbe la sua naturale evoluzione?

Ripper89
06-10-2022, 14:01
Mi piace come funziona la comunicazione e il marketing,quando la serie 6000 era una bomba in fatto di rasterizzazione pura c'erano gli eeeeeh ma non hanno il super effetto avanzato RT che abbiamo noi,adesso si sbandiera che la loro rasterizzazione è un portento.
Sono veramente perplesso,senza nulla togliere il merito a un prodotto costosissimo ma molto potente.
Mi sono perso qualcosa forse ma non mi pare che le 6000 fossero davanti alle 3000 di Nvidia nemmeno in raster.

no_side_fx
06-10-2022, 14:46
Sempre stato convinto Pcista, ma con questi costi e ci metto ovviamente anche i consumi, spropositati, sia per gpu che per cpu, per farsi un pc di fascia alta, vedo solo due strade:

1) Pc che soddisfi i req minimi per un abbonamento come Nvidia Geforce Now e giocare in streaming

2) Console

Ne aggiungo una terza, mandare tutto a malora e dedicarsi ad altro

la migliore è l'opzione 2
- longevità di almeno tre volte rispetto a qualsiasi scheda video
- i giochi spesso escono prima
- i giochi sono meno buggati
- costa 1/4 (o meno) di un pc gheiming messo decentemente
- lato grafico è più che soddisfacente lasciando perdere le menate da super nerd che col pc hai gli "effettini grafici" più belli o il dlss (che tra l'altro in sostanza serve appunto per usufruire dello stesso concetto di upscaling della console)
- hai le esclusive che spesso sono i gioconi migliori che su pc non arrivano del tutto o dopo secoli...
- non serve una presa elettrica industriale tri-fase con consumi e costi assurdi :asd:
- anche loro hanno VRR e 120hz
- la console è di fatto la priorità dell'industria videoludica non il pc

supertigrotto
06-10-2022, 16:00
Mi sono perso qualcosa forse ma non mi pare che le 6000 fossero davanti alle 3000 di Nvidia nemmeno in raster.
Vado a memoria degli articoli di hwupgrade.
Nei benchmark dei giochi,in alcuni giochi si erano davanti le 3000 ma sennò se la giocavano alla pari in raster,solo che con AMD si spendeva meno per avere le stesse prestazioni in raster e in alcuni casi,anche qualcosina di più in prestazione.
Attivando gli effetti RT allora le prestazioni delle AMD calavano molto mentre le Nvidia reggevano bene,ma fondamentalmente,nei giochi dove si usava puramente io raster,AMD aveva fatto un lavoro eccellente per quanto riguarda consumi/prestazioni.

Ripper89
07-10-2022, 08:11
Vado a memoria degli articoli di hwupgrade.
Nei benchmark dei giochi,in alcuni giochi si erano davanti le 3000 ma sennò se la giocavano alla pari in raster,solo che con AMD si spendeva meno per avere le stesse prestazioni in raster e in alcuni casi,anche qualcosina di più in prestazione.
Attivando gli effetti RT allora le prestazioni delle AMD calavano molto mentre le Nvidia reggevano bene,ma fondamentalmente,nei giochi dove si usava puramente io raster,AMD aveva fatto un lavoro eccellente per quanto riguarda consumi/prestazioni.Da quanto vedo la 3080 ancora oggi preserva qualcosina in più in raster della 6800XT e stesso discorso si applica pure sulla 3090 rispetto alla 6900XT. Idem per le relative versioni Ti rispetto alle 6x50.

Quindi Nvidia in raster è uguale o tendenzialmente davanti, questa tua affermazione su una netta superiorità in raster delle 6000 non la vedo sinceramente. In pratica andavano uguali alle Nvidia ma all'epoca senza un upscaling all'altezza e con performance in RT scarse.

Alekx
07-10-2022, 11:00
Sinceramente penso che il mercato non aveva bisogno di questa scheda al momento visti i consumi e comq la serie 3000 molto valida ancora per molto tempo.

Parlare di una scheda che e' ottima per 4k o 8k quando la maggior parte dei gamer gioca ancora in FHD o 2k fa ridere sinceramente.

Per ultimo si continuano a pompare le GPU ma lato game le ottimizzazioni rimangono fatte con i piedi o fatte a cazzum.

Molte 1080/1070 o serie di quelle generazioni sono ottime per giocare senza avere rinunce, certo che se vuoi l' RT allora o ti metti in testa di investire oppure meglio che lasci perdere.

Con i consumi di oggi poi un pc di fascia alta deve avere almeno un alimentatore da 1000W con le palle come minimo cosa sinceramente assurda almeno per me.

Per ultimo penso che si stia esagerando, tra scuse accampate a destra e a manca stanno facendo il porco del comodo loro lato prezzi.

Speravo in una svendita della serie 3000 :D :D cosi' come successe, troppo in anticipo, per la serie 1000/2000 ma evidentemente gli utenti hanno imparato e forse questa volta le vendite non saranno cosi' folgoranti come la precedente serie.......... hai visto mai che prendano una bastonata.

StrixyRoG
07-10-2022, 12:11
1440p, reflex+boost, in discesa e con una bella spinta insomma
Ok tutto bello, ma quante schede pensano di vendere? quante ne hanno prodotte? a quel prezzo poi, che era il prezzo della "scheda che il gamer non deve assolutamente prendere in considerazione"
Mettiamoci poi la storia delle due 4080, top lancio di sempre, ma si sapeva già

Ne venderanno parecchie e andranno a ruba appena saranno disponibili. Hanno abituato le persone a spendere determinate cifre durante la pandemia, quindi ti faccio uscire una scheda che sulla carta ha delle prestazioni nettamente superiori alla generazione precedente, con un DLSS 3.0 proprietario delle 4000, et voilà, facendo un confronto sono anche un'affare :D

Oltretutto le 4080 sono state messe lì a quel prezzo proprio per far vendere la 4090, perché a quelle cifre sono davvero un furto.

Personalmente sono un gamer enthusiast, quindi non mi sono mai fatto problemi per quanto riguarda il budget, ma qui abbiamo superato ogni limite, contando anche le dimensioni davvero esagerate. Invece di andare avanti torniamo indietro.

E poi il solito discorso che tanto i giochi non ci sono, si spendono più di 2000 euro per giocare alle stesse cose ancora e ancora, e tutto il 2023 sarà molto buio.

Da appassionato per me possono restare sullo scaffale.

Alekx
07-10-2022, 14:42
Ne venderanno parecchie e andranno a ruba appena saranno disponibili. Hanno abituato le persone a spendere determinate cifre durante la pandemia, quindi ti faccio uscire una scheda che sulla carta ha delle prestazioni nettamente superiori alla generazione precedente, con un DLSS 3.0 proprietario delle 4000, et voilà, facendo un confronto sono anche un'affare :D

Oltretutto le 4080 sono state messe lì a quel prezzo proprio per far vendere la 4090, perché a quelle cifre sono davvero un furto.

Personalmente sono un gamer enthusiast, quindi non mi sono mai fatto problemi per quanto riguarda il budget, ma qui abbiamo superato ogni limite, contando anche le dimensioni davvero esagerate. Invece di andare avanti torniamo indietro.

E poi il solito discorso che tanto i giochi non ci sono, si spendono più di 2000 euro per giocare alle stesse cose ancora e ancora, e tutto il 2023 sarà molto buio.

Da appassionato per me possono restare sullo scaffale.

Non sono un enthusiast, ma leggere quanto hai scritto mi da ragione sul fatto che anche voi siete stanchi di essere presi per il :ciapet:

nickname88
07-10-2022, 16:12
Mamma mi che scandalo ! Ben diverso da quanto mostrato con la slide nell'articolo precedente.
Se fosse confermata una roba del genere sarebbe un epic fail !
La 4090 vola ( letteralmente ) ma tutte le altre sono diverse spanne più in basso ! Che cavolo è sto divario ? Questa è una truffa.


Appena un misero +18% rispetto ad una 3080 liscia e 38% con la 4080 maggiore ( ancora meno se confrontata con la mia che ha +20W di assorbimento esattamente come la 4080 ) nonostante il salto di nodo e nuova architettura e nuove GDDR6X potenziate ?

Bastava togliere 200Mhz alla 4090 e avresti avuto TDP analoghi alla 3080 ma con +70% di performance, anzichè quella m3rda di 18/38%.
Non bastano per far girare i titoli UE5 a 60fps costanti 4k maxati ( anche senza RT ), come hanno fatto a farle uscire ?


Possibile non esista alcun tipo di azione legale di non conformità ?
I salti di nodo così evidenti avrebbero dovuto portare almeno un +50% di performance come minimo sindacale per la commercializzazione.
Questi sono i salti che abbiamo fatto da Pascal a Turing ! Dove però non c'è stato il salto di nodo !

k0nt3
07-10-2022, 17:20
Mamma mi che scandalo ! Ben diverso da quanto mostrato con la slide nell'articolo precedente.
Se fosse confermata una roba del genere sarebbe un epic fail !
La 4090 vola ( letteralmente ) ma tutte le altre sono diverse spanne più in basso ! Che cavolo è sto divario ? Questa è una truffa.


Appena un misero +18% rispetto ad una 3080 liscia e 38% con la 4080 maggiore ( ancora meno se confrontata con la mia che ha +20W di assorbimento esattamente come la 4080 ) nonostante il salto di nodo e nuova architettura e nuove GDDR6X potenziate ?

Bastava togliere 200Mhz alla 4090 e avresti avuto TDP analoghi alla 3080 ma con +70% di performance, anzichè quella m3rda di 18/38%.
Non bastano per far girare i titoli UE5 a 60fps costanti 4k maxati ( anche senza RT ), come hanno fatto a farle uscire ?


Possibile non esista alcun tipo di azione legale di non conformità ?
I salti di nodo così evidenti avrebbero dovuto portare almeno un +50% di performance come minimo sindacale per la commercializzazione.
Questi sono i salti che abbiamo fatto da Pascal a Turing ! Dove però non c'è stato il salto di nodo !
Ti ricordi quando ne parlavamo nell'altra discussione?

Beh allora ti dò un consiglio: non chiedere all'oste se il vino è buono.
Se vuoi avere un'idea delle reali performance della 4080 12Gb devi guardare i primi 3 test sulla famosa slide "up to 4x performance".
Infatti tutti gli altri test usano DLSS in modalità performance oppure la nuova tecnologia che aumenta artificialmente il framerate peggiorando potenzialmente la latenza (ma poi funziona solo se il veicolo si muove in avanti in maniera lineare? :stordita: ).
Da quei test si evince che la 4080 12Gb è circa al livello della 3090ti e alcune volte addirittura peggiore. Poi per carità, fatti due calcoli a seconda dei prezzi che trovi, ma di sicuro non è un gran passo in avanti.
Quanto ci ho preso? :asd:

nickname88
07-10-2022, 18:56
Ti ricordi quando ne parlavamo nell'altra discussione?

Quanto ci ho preso? :asd:Il punto è che non dovrebbero poter uscire cose del genere nel mercato.

Dove la 4090 sembra l'unica che sfrutta realmente i vantaggi del nuovo PP mentre le altre sono castrate appositamente in modo eccessivo a tal punto da mandare alle ortiche i vantaggi di un salto di nodo sostanzioso. :read:

Una 4080 non può avere metà dei cores della 4090 !
E una GPU col doppio dei transistors di un GA102 e maggiore frequenza non può dare solo il 18/38% in più.

sand0k
08-10-2022, 22:06
"Il punto è che non dovrebbero poter uscire cose del genere nel mercato."

Ma poi come fanno a fare uscire la 5080 con un netto vantaggio su questa gen e soprattutto già avere le 5000 pronte fra 2 anni per succhiare soldi?
Semplice: abbasso i cuda core nelle 4080 16gb e sopratutto 12gb che poi è una 4070 a tutti gli effetti (una cosa vergognosa) e alzano le frequenze (qui sfruttano il nodo nuovo) cosi' da garantire che una 4070...ops pardon una 4080 12gb sia un po' piu' potente di una 3080 10gb (sarà simile alla 12gb) con il dobbio del prezzo(colpa nostra anche che compriamo) e non devono faticare fra 2 anni per produrre 5080 perchè le hanno gia' pronte .Aumentanto i cuda core a 12000 13000 circa con i 400w di consumo di cui ora ci abituano con la serie 4080 16 4090 (cosi' si vanteranno di avere le 5080 che consumano meno delle 4090) e ci inkiapp......no bene bene.
Minimo sforzo...massimo profitto....ciaooo

A dimenticavo ora cè il dlss 3.0 che è potentissimoooooo ahahahhahaha
Io che aspetto di comprare una scheda da 3 anni anzi da 9...vado di 3080 12gb e risolvo a meno che la LISA esca qualcosa dal cilindro (AMD ha tutte le carte in regola a novembre per far vedere ai verdi i sorci "verdi") ahaah...ma dubito che lo fara' tanto loro hanno il mercato consolle in mano...
Vedremo
Un saludos a todos

sand0k
08-10-2022, 22:09
Ovviamente con le 5000 sfrutteranno meglio il nodo nuovo....qui lo stanno sfruttando per metà per le solite e ovvie ragioni. Se campiamo vedremo....mi salvo il messaggio ahhaha
ciaoo

nickname88
09-10-2022, 08:20
meno che la LISA esca qualcosa dal cilindro (AMD ha tutte le carte in regola a novembre per far vedere ai verdi i sorci "verdi") ahaah...ma dubito che lo fara' tanto loro hanno il mercato consolle in mano...
Vedremo
Un saludos a todosAMD e Nvidia è da un decennio oramai che sono d'accordo. Se AMD avrà qualcosa di più valido adeguerà il prezzo alla proposta Nvidia e non viceversa.

sand0k
09-10-2022, 13:51
Completamente concorde con te nick...ma prevedo una 7900xt a 1299 1399 dollari e si vanteranno del minor prezzo. Purtroppo con il cambio attuale del dollaro non li spenderò e amen...di 3080 12gb.ciaooo

nickname88
09-10-2022, 19:38
Completamente concorde con te nick...ma prevedo una 7900xt a 1299 1399 dollari e si vanteranno del minor prezzo. Purtroppo con il cambio attuale del dollaro non li spenderò e amen...di 3080 12gb.ciaoooDobbiamo adeguare i nostri riferimento al cambio dell'euro causato dalla nostra guerra economica che abbiamo lanciato contro la Russia su ordini USA.

Tutti i riferimenti che conosci devi prevedere che dovrai spendere il 15% e passa in più.
Se un determinato oggetti pensavi di fare un affare pagandolo 100€, oggi lo stesso affare lo farai se lo paghi 115.

sand0k
09-10-2022, 23:45
Nick ho detto la stessa cosa tua so benissimo cambio e tasse ahahah.ciaooo bello