View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
mikael84
01-06-2022, 14:52
a me sembra che non hanno annunciato niente e si parla solo sempre di leak. sbaglio?
Leak.
L'unica cosa ufficiale è il siggraph di agosto, dove anche li parlerà di AI.
Per ampere il sito nvidia aveva annunciato un countdown a partire dai primi di agosto.
devAngnew
01-06-2022, 16:51
Per me il lancio della 4090 ad agosto è un pò meh...Gia mi vedo la gente in spiaggia a refreshare sui vari siti. Curioso di sapere come agirà il tizio che prese la 3080 fe sulla tazza:asd:
Piuttosto pensassero ad una soluzione simile a Valve in modo da minimizzare gli approfittatori, le tecnologie ci sono, e loro che tanto decantano l' AI non ci farebbero una bella figura anzi pessima. :)
Piuttosto pensassero ad una soluzione simile a Valve in modo da minimizzare gli approfittatori, le tecnologie ci sono, e loro che tanto decantano l' AI non ci farebbero una bella figura anzi pessima. :)
Ma sai quanto gliene importa.
Mica e' beneficienza, se se la prende Marco o Giovanni la scheda e per farci cosa a loro che importa? I soldi sono soldi e viviamo in una societa' capitalista. E, alla fine delle fine, il cliente che compra 10 RTX, che sia per mining o scalping, e' piu' importante di chi ne compra una per giocarci, in quanto il primo magari ne verra' a comprare altre 10 :)
Anzi, lo scalper ti da anche informazioni utili sul come rivedere i tuoi prezzi.
Il problema alla fine e' lato ordini e lato fonderie, non nel negoziante o portale che non mette limiti alle vendite.
Ale55andr0
02-06-2022, 07:34
Non è che se ne hai 50k, ne puoi levare 10 ed è ok, tanto su 50...:p
2k su 18k è un 11%, 10k su 50k, il 20%, è una proporzione ben diversa...
devAngnew
02-06-2022, 09:57
Ma sai quanto gliene importa.
Mica e' beneficienza, se se la prende Marco o Giovanni la scheda e per farci cosa a loro che importa? I soldi sono soldi e viviamo in una societa' capitalista. E, alla fine delle fine, il cliente che compra 10 RTX, che sia per mining o scalping, e' piu' importante di chi ne compra una per giocarci, in quanto il primo magari ne verra' a comprare altre 10 :)
Anzi, lo scalper ti da anche informazioni utili sul come rivedere i tuoi prezzi.
Il problema alla fine e' lato ordini e lato fonderie, non nel negoziante o portale che non mette limiti alle vendite.
La beneficenza nel discorso conta nulla, il loro atteggiamento stà distruggendo non solo i 4 appossionati del forum, ben poca cosa, ma anche gli altri settori industriali. ;)
mikael84
02-06-2022, 10:54
2k su 18k è un 11%, 10k su 50k, il 20%, è una proporzione ben diversa...
Era un modo di dire;)
terranux
02-06-2022, 11:24
si sà il clock di queste schede?
Tanto meglio, meno richiesta, meno cresta, lasciamole nello scaffale e vediamo che fanno dopo due anni di prese in giro e schede date ai miners....:rolleyes: .
tanto non succederà mai, come ad ogni lancio è inutile continuare a prendersi in giro ciclicamente quando si è vicini al debutto della nuova gen si fan sempre gli stessi discorsi e poi avviene l'esatto contrario :sofico:
Ale55andr0
02-06-2022, 12:40
tanto non succederà mai, come ad ogni lancio è inutile continuare a prendersi in giro ciclicamente quando si è vicini al debutto della nuova gen si fan sempre gli stessi discorsi e poi avviene l'esatto contrario :sofico:
a questo giro invece credo che il contesto che stiamo vivendo a livello mondiale influirà non poco. Inoltre i miners paiono essersi calmati. Restano gli scalper. Si vedrà
mikael84
02-06-2022, 12:43
a questo giro invece credo che il contesto che stiamo vivendo a livello mondiale influirà non poco. Inoltre i miners paiono essersi calmati. Restano gli scalper. Si vedrà
Se c'è un minimo di disponibilità, si attaccano pure loro.
Se c'è un minimo di disponibilità, si attaccano pure loro.
L'unica cosa che conta :sofico:
Le altre cose hanno la validita' della letterina a babbo natale
mikael84
02-06-2022, 13:03
si sà il clock di queste schede?
I rumors per ora le danno a 2,5 di base boost.
L'unica cosa che conta :sofico:
Le altre cose hanno la validita' della letterina a babbo natale
:asd:
amon.akira
02-06-2022, 14:19
Era un modo di dire;)
forse il paragone con ampere è piu efficace :p
10752/10492
2.5%
ce possibilità che la 4090 sia 17400 anziche 16100?
mikael84
02-06-2022, 14:53
forse il paragone con ampere è piu efficace :p
10752/10492
2.5%
ce possibilità che la 4090 sia 17400 anziche 16100?
Non penso, se non con rese future.
In proporzione è circa il 15% delle ALU.
Faccio una bozza grezza, paintizzata.:sofico:
Si vanno a perdere oltre le ALU, quasi gran parte del GPC monco, 24 (48 in caso di 2x) rop's, quasi 2 motori geometrici ed RT vari.
In percentuale non perde molto, è come se la 3080 avesse 9216cc vs la 3090TI, ma con meno rop's e geometria, ma rientra sempre in un chip devastato.:)
https://i.postimg.cc/4yC5rPbg/rtx-4090.png
mikael84
02-06-2022, 15:00
Come tempistiche siamo a livello di Ampere, o poco meno.
Si prevede l'EVT per fine giugno, ovvero l'inizio della fase finale.
https://i.postimg.cc/qqh8M3wG/biosr.png
Ma ricordo tempi addietro uscire i leak dai vari partners anche se solo per heatsink, bios etc. Qua ancora tutto tace non e' che siamo piu' indietro del previsto (dai leak piu' che altro) ? Tutto normale perche' la 4090 sara' solo founder inizialmente ?
Thunder-74
02-06-2022, 20:00
Si mormora che, cambiando il keycap F5 con questo:
https://i.imgur.com/t3dMyuVl.jpg
al lancio della 4090 si riesca a prenderla :sofico:
mikael84
02-06-2022, 20:22
Ma ricordo tempi addietro uscire i leak dai vari partners anche se solo per heatsink, bios etc. Qua ancora tutto tace non e' che siamo piu' indietro del previsto (dai leak piu' che altro) ? Tutto normale perche' la 4090 sara' solo founder inizialmente ?
Si è tutto normale, il design finale avverrà dopo la fase DVT. Durante questa fase, possono già proporre vari render, in quanto anche loro dovranno ultimare le ultime cosette, soprattutto con GPU di questo calibro.:)
I partner registreranno le schede ad ultimo, ora al massimo possono pubblicare qualche render.
Cmq a breve inizieranno gli ultimi 2 mesi e ci siamo.:)
Si mormora che, cambiando il keycap F5 con questo:
https://i.imgur.com/t3dMyuVl.jpg
Bello, ma io lo metterei al tasto ESC :D
Thunder-74
02-06-2022, 21:22
Bello, ma io lo metterei al tasto ESC :D
hahahaha allora per te ce ne vorrebbe uno con la scritta "scaffale" :D
EDIT
Sembra che nVidia, oltre alla 4090ti, farà la Titan A
LA differenza tra le due sembra risiedere nel doppio della memoria (24 vs 48 gb) e un connettore da 16 pin in più per avere 900w
https://i.imgur.com/XuZXh44.png
FONTE (https://wccftech.com/nvidia-ultimate-titan-graphics-card-full-ada-lovelace-ad102-gpu-48-gb-memory-900w-tdp-rumor/)
Andy1111
03-06-2022, 19:32
Ultime news da Kopite
https://twitter.com/kopite7kimi/status/1532207096116064256?cxt=HHwWgMCl5YyPv8MqAAAA
In fact, we got some information about:
The TGP of RTX 4090 is still a mystery. PG139-SKU330 still has the opportunity to achieve 600W.
Possible RTX 4080, PG139-SKU360 has the opportunity of 450W TGP.
If RTX 4070 uses GDDR6X instead, it has opportunity to reach 400W TGP.
e anche questa
In fact, there is another full-fat AD102 SKU with 900W TGP, 48G 24Gbps GDDR6X, 2*16pin and higher frequency.
But no one knows whether it will become an actual product. Because the test board of AD102 has more than two 16pin connectors, so everything is possible.
Sembra che sono in ritardo
https://www.igorslab.de/en/ad102-and-ad104-why-there-is-no-real-information-yet-about-nvidias-new-geforce-cards/
Fine settembre o ottobre per la 4090 le altre a seguire
mikael84
03-06-2022, 20:06
hahahaha allora per te ce ne vorrebbe uno con la scritta "scaffale" :D
EDIT
Sembra che nVidia, oltre alla 4090ti, farà la Titan A
LA differenza tra le due sembra risiedere nel doppio della memoria (24 vs 48 gb) e un connettore da 16 pin in più per avere 900w
FONTE (https://wccftech.com/nvidia-ultimate-titan-graphics-card-full-ada-lovelace-ad102-gpu-48-gb-memory-900w-tdp-rumor/)
Il nome Titan, come Tesla, quadro è stato accantonato.
E' solo una sua speculazione.
Questo va ancora a dire che gli interi sono scorporati, prendendo Hopper come design.
I 300 watt che sono di memoria? 24gb aggiunti sono 42watt.
Questo con la KP 3090ti già ha consumato un botto. :)
https://wccftech.com/evga-geforce-rtx-3090-ti-kingpin-overclocked-to-almost-3-ghz-24-gbps-memory-ln2-cooling-breaks-various-world-records/
Sembra che sono in ritardo
https://www.igorslab.de/en/ad102-and-ad104-why-there-is-no-real-information-yet-about-nvidias-new-geforce-cards/
Fine settembre o ottobre per la 4090 le altre a seguire
Tutto a norma ed in linea con ampere, ne parlavamo proprio sopra. :)
albero77
03-06-2022, 20:25
Ultime news da Kopite
Sembra che sono in ritardo
https://www.igorslab.de/en/ad102-and-ad104-why-there-is-no-real-information-yet-about-nvidias-new-geforce-cards/
Fine settembre o ottobre per la 4090 le altre a seguire
Beh direi che possiamo mandare anche le scimmie in vacanza.
davide155
04-06-2022, 01:15
Ma infatti mi sembrava strano che riuscissero non solo ad annunciarle ma anche a farle trovare in volumi già a luglio.
Con tutto il casino che c'è in oriente mi sembrava utopia. Ed infatti. Uscita ufficiale a settembre.
Tanto costeranno come due reni lo stesso.
Uscita ufficiale a settembre.
Quello che mi preoccupa è che le Ti slittano alla primavera del 23 di questo passo.
DarkNiko
04-06-2022, 11:47
Tanto costeranno come due reni lo stesso.
Aggiungici pure un fegato. :D
Per mia fortuna salto allegramente, mi godo ancora per qualche altro paio d'anni minimo la scheda che ho in firma,
tanto in 4K gioco benissimo a tutto.
davide155
05-06-2022, 01:18
Quello che mi preoccupa è che le Ti slittano alla primavera del 23 di questo passo.Per quanto mi riguarda sto a posto.
Ed ogni notizia che esce sulle 4000 mi convinco sempre più che probabilmente le salterò a pié pari. Pagare una 4070 per una 4080 anche no.
Per chi cerca una vga adesso è il momento migliore per prendere una 3000 a prezzo msrp e mettersi l'anima in pace. Sui vari amazon ne droppano giornalmente a bizzeffe.
StylezZz`
05-06-2022, 09:04
Per chi cerca una vga adesso è il momento migliore per prendere una 3000 a prezzo msrp e mettersi l'anima in pace. Sui vari amazon ne droppano giornalmente a bizzeffe.
Ancora non ho visto nessuna 3000 a prezzo msrp (solo qualcuna nell'usato, o qualche raro drop su telegram), siamo mediamente a 150+ euro, senza contare il fatto che sono schede ormai ''vecchie''.
Situazione migliore invece fuori dall'europa dove la situazione prezzi è migliore, qua da noi invece sono duri a scendere.
Per quanto mi riguarda sto a posto.
Ed ogni notizia che esce sulle 4000 mi convinco sempre più che probabilmente le salterò a pié pari. Pagare una 4070 per una 4080 anche no.
Per chi cerca una vga adesso è il momento migliore per prendere una 3000 a prezzo msrp e mettersi l'anima in pace. Sui vari amazon ne droppano giornalmente a bizzeffe.
Anche no.
Prenderle a prezzo msrp ora non ha senso e te lo dice uno che ha preso per grazia divina una 3070 a 520euro
La 3080 sicuramente no, al massimo ci potrebbe stare una 3060ti. Sono 400euro e va beh, chi punta a quella non cerca il massimo (scheda fantastica), ma spendere quasi 1000euro di gpu quando ti escono le nuove non ha proprio senso.
Se spendo 1000eurp voglio "il top" e non dopo due anni dall'uscita
Msrp chi poteva/doveva acquistare l'ha fatto.
Gli altri hanno atteso due anni, attendere qualche mese in più non cambierà.
Sicuramente all'uscita delle 4000 le 3000 caleranno, nuovo o mercatino
Ancora non ho visto nessuna 3000 a prezzo msrp (solo qualcuna nell'usato, o qualche raro drop su telegram), siamo mediamente a 150+ euro, senza contare il fatto che sono schede ormai ''vecchie''.
Situazione migliore invece fuori dall'europa dove la situazione prezzi è migliore, qua da noi invece sono duri a scendere.
Gli shop avranno sul groppone un bel po' di schede pagate a prezzi più alti e/o, consci del fatto che anche l'anno scorso i prezzi in estate si sono abbassati per poi rialzarsi, non vogliono capitolare subito.
OrazioOC
05-06-2022, 10:10
https://videocardz.com/newz/nvidia-geforce-rtx-4060-reportedly-consumes-more-power-than-rtx-3070-220w
Follia, non ho altro da aggiungere...
29Leonardo
05-06-2022, 10:20
https://videocardz.com/newz/nvidia-geforce-rtx-4060-reportedly-consumes-more-power-than-rtx-3070-220w
Follia, non ho altro da aggiungere...
Di sto passo le venderanno direttamente con un AIO..
fraussantin
05-06-2022, 10:30
Basterebbe poco per ridurre i consumi.
Basterebbe rinunciare ad un poco di prestazioni.
Ma ormai tutto è overclokkato di fabbrica
Basterebbe poco per ridurre i consumi.
Basterebbe rinunciare ad un poco di prestazioni.
Ma ormai tutto è overclokkato di fabbrica
250W 107fps
https://i.postimg.cc/DJK3yBLZ/Days-Gone-2022-06-05-12-23-50-307.jpg (https://postimg.cc/DJK3yBLZ)
370W 119fps
https://i.postimg.cc/gXvdvfm8/Days-Gone-2022-06-05-12-24-29-454.jpg (https://postimg.cc/gXvdvfm8)
Un incremento del consumo del 48% a fronte di dell'11% di fps in più e di cui ti accorgi solo usando un fps counter, assurdo, ma evidentemente se si stanno muovendo in questa direzione avranno le loro ragioni, ma comunque non lo vedo un grosso problema, o non si compra, oppure si compra e si vira verso sinistra lo slider del PL ;)
devAngnew
05-06-2022, 12:08
https://videocardz.com/newz/nvidia-geforce-rtx-4060-reportedly-consumes-more-power-than-rtx-3070-220w
Follia, non ho altro da aggiungere...
Di sto passo le venderanno direttamente con un AIO..
No, di stò passo la venderanno in bundle con un contratto di energia elettrica a parte :rolleyes: :sofico: :asd:
250W 107fps
https://i.postimg.cc/DJK3yBLZ/Days-Gone-2022-06-05-12-23-50-307.jpg (https://postimg.cc/DJK3yBLZ)
370W 119fps
https://i.postimg.cc/gXvdvfm8/Days-Gone-2022-06-05-12-24-29-454.jpg (https://postimg.cc/gXvdvfm8)
Un incremento del consumo del 48% a fronte di dell'11% di fps in più e di cui ti accorgi solo usando un fps counter, assurdo, ma evidentemente se si stanno muovendo in questa direzione avranno le loro ragioni, ma comunque non lo vedo un grosso problema, o non si compra, oppure si compra e si vira verso sinistra lo slider del PL ;)
Le ragioni sono le review e chi ha la barretta più lunga XD
Anche per le CPU sta succedendo lo stesso, già di fabbrica sono tirate per il collo.
Ora come ora, più che overclock si va di undervolt XD
https://videocardz.com/newz/nvidia-geforce-rtx-4060-reportedly-consumes-more-power-than-rtx-3070-220w
Follia, non ho altro da aggiungere...
Bisognerebbe capire anche su che chip è basata, se fosse un cut di AD104 sarebbe più giusto paragonarla alla 3060ti come tdp che 3060.
Le ragioni sono le review e chi ha la barretta più lunga XD
Anche per le CPU sta succedendo lo stesso, già di fabbrica sono tirate per il collo.
Ora come ora, più che overclock si va di undervolt XD
Infatti, con la CPU dopo aver visto che anche con OC irrisori consumi e temp iniziavano a schizzare, messa a default con un -0.125 di undevolt, e buonanotte :D
Thunder-74
05-06-2022, 15:17
Bisogna essere più green tutti quanti. Basta OC e via di UV su cpu e gpu.
Inviato dal mio iPhone X utilizzando Tapatalk
mikael84
05-06-2022, 15:44
https://videocardz.com/newz/nvidia-geforce-rtx-4060-reportedly-consumes-more-power-than-rtx-3070-220w
Follia, non ho altro da aggiungere...
Premesso che le fasi finali neppure sono iniziate, cmq si ci saranno sicuramente aumenti, soprattutto se si andrà ben oltre lo sweet spot dei transistor.
Vedi anche refresh della 6700xt.
Ciò non cambia, basta calibrarsele.:)
Bisogna essere più green tutti quanti. Basta OC e via di UV su cpu e gpu.
clap clap clap
devAngnew
05-06-2022, 19:13
Bisogna essere più green tutti quanti. Basta OC e via di UV su cpu e gpu.
Inviato dal mio iPhone X utilizzando Tapatalk
Tutti chi ? Basta con l'ipocrisia ... :rolleyes:
Thunder-74
06-06-2022, 06:59
Tutti chi ? Basta con l'ipocrisia ... :rolleyes:
Ero volutamente provocatorio. Certo è che si fa un gran dire a livello mondiale di come dovremmo ridurre i consumi e nel mondo dell'informatica si va nel verso opposto. Ricordo tempo fa una notizia che doveva venire imposto un limite di 250w alle GPU, notizia persa nella notte dei tempi.
Comunque non mi stupirei se venisse regolamentato seriamente questo aspetto, perchè leggere di VGA da 600-900W diventa veramente anacronistico oggi giorno.
Ero volutamente provocatorio. Certo è che si fa un gran dire a livello mondiale di come dovremmo ridurre i consumi e nel mondo dell'informatica si va nel verso opposto. Ricordo tempo fa una notizia che doveva venire imposto un limite di 250w alle GPU, notizia persa nella notte dei tempi.
Comunque non mi stupirei se venisse regolamentato seriamente questo aspetto, perchè leggere di VGA da 600-900W diventa veramente anacronistico oggi giorno.In passato il chippone veniva tarato sui 250-280w massimo, anche la mia 980ti sta sui 250-260w con impostazioni di fabbrica: 1.18v e 1443/7200, ma basta portarla sui 1535/8000 con 1.235v e la vedi schizzare a 340w per guadagnare 2-5 fps 🤣
Già con la 1080ti, tenendo in considerazione che é un chip da 471mmq, non lontano dalle dimensioni di 970-980, hanno iniziato a tirare il collo con i clock a scapito del consumo, se ai tempi di Pascal avessero previsto un chippone da 600mmq già avremmo sforato i 350w.
Comunque parliamo sempre di un range di consumi tollerabile per una piattaforma High End considerando che lo sli/cross é morto.
Anche per le CPU, si é alzata molto l'asticella però é anche vero che per un utente privato non ha più senso valutare gli HEDT, le piattaforme desktop hanno già tutta la potenza che serve e per giocare non ti serve certo un 12-16 core.
Oramai l'hw é decisamente scalabile per ogni esigenza consumo/prestazioni, anche i notebook oramai hanno decisamente tanta potenza per un utilizzo a 360° e purtroppo la moda delle barrette nei bench fa si che i produttori vogliano accontentare anche quella fetta di pubblico che insegue la PC master race, dove si guarda solo ed esclusivamente le prestazioni.
Inviato dal mio M2012K11AG utilizzando Tapatalk
fraussantin
06-06-2022, 08:27
Ero volutamente provocatorio. Certo è che si fa un gran dire a livello mondiale di come dovremmo ridurre i consumi e nel mondo dell'informatica si va nel verso opposto. Ricordo tempo fa una notizia che doveva venire imposto un limite di 250w alle GPU, notizia persa nella notte dei tempi.
Comunque non mi stupirei se venisse regolamentato seriamente questo aspetto, perchè leggere di VGA da 600-900W diventa veramente anacronistico oggi giorno.Un tempo poi c'erano i loghi tipo energy star , e robe che cmq davano importanza al risparmio energetico.
Mi stupisco che almeno sulle cpu , e l'hw base non ci sia niente che freni i consumi , cioe sono strumenti da lavoro che riempiono gli uffici di tutto il mondo , credo che sia importante contenere anche i consumi, con una classe energetica tipo i frigo e altre cose.
Poi per chi vuole andare oltre c'è l'overclock.
Ps che poi il paradosso è che cagano il c...con 80 plus sulle psu , e poi sprecano sul resto.
ninja750
06-06-2022, 09:35
Per chi cerca una vga adesso è il momento migliore per prendere una 3000 a prezzo msrp e mettersi l'anima in pace. Sui vari amazon ne droppano giornalmente a bizzeffe.
a MSRP di JHH o MSRP del produttore partner? perchè di 3070 o 3060ti al prezzo annunciato anni fa non ne vedo?
https://videocardz.com/newz/nvidia-geforce-rtx-4060-reportedly-consumes-more-power-than-rtx-3070-220w
Follia, non ho altro da aggiungere...
concordo che su una serie ""6"" i consumi devono essere contenuti, se pensiamo che ad oggi una 3060ti consuma meno di 200w e la 2060s ancora meno
devAngnew
06-06-2022, 10:29
a MSRP di JHH o MSRP del produttore partner? perchè di 3070 o 3060ti al prezzo annunciato anni fa non ne vedo?
concordo che su una serie ""6"" i consumi devono essere contenuti, se pensiamo che ad oggi una 3060ti consuma meno di 200w e la 2060s ancora meno
Ho ancora una speranza grande come un lumicino, che accada già adesso con la nuova serie.
Cmq. dopo aver speculato per 2 anni sui componenti, arriva PS5 e Xbox Series X introvabili? Amazon USA introduce l'acquisto su invito (https://www.hdblog.it/amazon/articoli/n556909/ps5-xbox-series-x-amazon-vendita-invito/)
mikael84
06-06-2022, 11:36
Ero volutamente provocatorio. Certo è che si fa un gran dire a livello mondiale di come dovremmo ridurre i consumi e nel mondo dell'informatica si va nel verso opposto. Ricordo tempo fa una notizia che doveva venire imposto un limite di 250w alle GPU, notizia persa nella notte dei tempi.
Comunque non mi stupirei se venisse regolamentato seriamente questo aspetto, perchè leggere di VGA da 600-900W diventa veramente anacronistico oggi giorno.
Con 250 watt in fascia top, non ci fai nulla purtroppo, densità con efficienza ormai sono ben lontani.
In passato il chippone veniva tarato sui 250-280w massimo, anche la mia 980ti sta sui 250-260w con impostazioni di fabbrica: 1.18v e 1443/7200, ma basta portarla sui 1535/8000 con 1.235v e la vedi schizzare a 340w per guadagnare 2-5 fps ��
Già con la 1080ti, tenendo in considerazione che é un chip da 471mmq, non lontano dalle dimensioni di 970-980, hanno iniziato a tirare il collo con i clock a scapito del consumo, se ai tempi di Pascal avessero previsto un chippone da 600mmq già avremmo sforato i 350w.
Comunque parliamo sempre di un range di consumi tollerabile per una piattaforma High End considerando che lo sli/cross é morto.
Anche per le CPU, si é alzata molto l'asticella però é anche vero che per un utente privato non ha più senso valutare gli HEDT, le piattaforme desktop hanno già tutta la potenza che serve e per giocare non ti serve certo un 12-16 core.
Con questo PP a 85mmt una Titan Pascal diverrebbe un chip equivalente ad AD107 a livello di transistor.
Questo fa pure capire quanto siano complessi questi 5nm.:)
concordo che su una serie ""6"" i consumi devono essere contenuti, se pensiamo che ad oggi una 3060ti consuma meno di 200w e la 2060s ancora meno
Nella serie x60 del competitor si erano già sforati i 200 watt con la 590.
Thunder-74
06-06-2022, 12:13
ultime indiscrezioni sulle uscite delle 4000:
GeForce RTX 4090: ottobre 2022
GeForce RTX 4080: novembre 2022
GeForce RTX 4070: dicembre 2022
GeForce RTX 4060: gennaio 2023
LINK (https://www.guru3d.com/news-story/rumor-nvidia-likely-launches-geforce-rtx-4090-first-then-later-rtx-408070.html)
OrazioOC
06-06-2022, 14:58
https://videocardz.com/newz/nvidia-geforce-rtx-4080-might-have-100w-higher-tdp-than-rtx-3080
Nonsense che si aggiunge ad altro nonsense, anche se a sto giro più prevedibile che non i 220w e rotti watt della presunta 4060.:rolleyes:
davide155
06-06-2022, 15:51
ultime indiscrezioni sulle uscite delle 4000:
GeForce RTX 4090: ottobre 2022
GeForce RTX 4080: novembre 2022
GeForce RTX 4070: dicembre 2022
GeForce RTX 4060: gennaio 2023
LINK (https://www.guru3d.com/news-story/rumor-nvidia-likely-launches-geforce-rtx-4090-first-then-later-rtx-408070.html)
Prevedibilissimo.
Una fantomatica uscita a luglio era appunto fantascienza.
Mi sembra strana però l'uscita scaglionata così. A orecchio non rimembro alcuna uscita così alla pene di segugio. O sbaglio?
Mi sembra strana però l'uscita scOglionata così.
Fixed.
mikael84
06-06-2022, 16:16
https://videocardz.com/newz/nvidia-geforce-rtx-4080-might-have-100w-higher-tdp-than-rtx-3080
Nonsense che si aggiunge ad altro nonsense, anche se a sto giro più prevedibile che non i 220w e rotti watt della presunta 4060.:rolleyes:
E' una 3090ti più densa e più complessa (senza cut), con un clock molto più elevato. Purtroppo con questi nm stanno cercando di tirare il collo il più possibile.
Bisogna vedere anche il lavoro all'interno del warp, come int slegati o rop's.:)
La 3090 liscia a 350watt da review, ha un boost average di 1750, la 3090ti da 450 uno da 1950.
Considera che i 5nm sono un piccolo step dai 7nm, ma con una densità decisamente più elevata.
Ci vuole poco a prendere watt, basta vedere la 6750xt.
Prevedibilissimo.
Una fantomatica uscita a luglio era appunto fantascienza.
Mi sembra strana però l'uscita scaglionata così. A orecchio non rimembro alcuna uscita così alla pene di segugio. O sbaglio?
Che uscisse a Luglio era fantascienza, sempre detto. I tempi sono quelli di Ampere mediamente. Per l'uscita, vorranno cercare di pulire un pò i magazzini ampere. Una 4070 a settembre potrebbe essere devastante. Si saranno fatti due calcoli.:)
ninja750
06-06-2022, 16:30
Nella serie x60 del competitor si erano già sforati i 200 watt con la 590.
poi "lievemente" abbassati con 5600XT 6600 e 6600XT sotto i 160w
Thunder-74
06-06-2022, 18:03
E' una 3090ti più densa e più complessa (senza cut), con un clock molto più elevato. Purtroppo con questi nm stanno cercando di tirare il collo il più possibile.
Bisogna vedere anche il lavoro all'interno del warp, come int slegati o rop's.:)
La 3090 liscia a 350watt da review, ha un boost average di 1750, la 3090ti da 450 uno da 1950.
Considera che i 5nm sono un piccolo step dai 7nm, ma con una densità decisamente più elevata.
Ci vuole poco a prendere watt, basta vedere la 6750xt.
Che uscisse a Luglio era fantascienza, sempre detto. I tempi sono quelli di Ampere mediamente. Per l'uscita, vorranno cercare di pulire un pò i magazzini ampere. Una 4070 a settembre potrebbe essere devastante. Si saranno fatti due calcoli.:)
ma sicuro, se le facevano uscire in estate, le ampere se le sarebbero date sui denti.
mikael84
06-06-2022, 18:35
ma sicuro, se le facevano uscire in estate, le ampere se le sarebbero date sui denti.
Oltre a questo, che era inevitabile, lo dissi sempre, per farle uscire a luglio significava aver passato parecchie fasi ed avere già i dissipatori pronti, insieme ai chip, a cui mancava praticamente la fase bios.
Praticamente questo mese, dovevamo aspettarci già dei bench.
Invece come intuibile sono gli stessi tempi di Ampere (almeno di finalizzazione).:)
poi "lievemente" abbassati con 5600XT 6600 e 6600XT sotto i 160w
Insomma, considera che la 5700xt è stata chiamata così per la competizione a turing sotto di un nodo, ma il chip di tale scheda è da x60
Tra i consumi, oltre al nodo, rientra anche il progetto elettrico, tra cui la dispersione delle aree, ben trattata su navi 21.
Ora, da vedere anche la situazione di Lovelace, soprattutto ad alte tensione. Dopo i 0,9v i consumi su certe architetture cominciano ad impazzare. Non a caso nvidia posiziona il base boost a 0,85/0,87v.
Vabbè AMD con Polaris e le 5000 é andata avanti a singhiozzi, non aveva chip che concretamente facessero competizione nella fascia alta.
La 5700xt non prende neanche la 1080ti, alla fine come die e prestazioni é comparabile alla 6600 liscia o poco più, però consumando il doppio.
Solo con le 6000 l'offerta di AMD si é fatta più appetibile, l'unico inghippo é solo relativo al Ray tracing dove le performance crollano e il DLSS, ma già con il nuovo FSR 2.0 sembra che le differenze si sono molto ridotte.
Inviato dal mio M2012K11AG utilizzando Tapatalk
fraussantin
07-06-2022, 06:31
Oddio è vero la 5700xt copriva solamente la fascia media , non aveva rt e scaldava come una fornace e ha avuto grossi problemi di stabilita per mesi ( black screen)
Pero aveva un prezzo aggressivo su quella fascia con 400 euro prendevi una bella scheda come la nitro . Che tuttora va bene per giocare a dettagli medio alti in 2k.
Con le rdna2 ha fatto un bel salto , ma anche di prezzo e sopratutto non erano disponibili in quantità accettabili.
Questo va a confermare , quanto visto con le cpu, che per noi è meglio se amd rimane un passo indietro qlla concorrenza cosi da dover fare prezzi aggressivi .
nessuno29
07-06-2022, 07:14
La 5700xt è stata una scheda eccezionale, consumava poco e non scaldava (fornace in quale mondo?) ed aveva prestazioni in linea con la 2070 costando un centello e mezzo meno.
fraussantin
07-06-2022, 07:27
La 5700xt è stata una scheda eccezionale, consumava poco e non scaldava (fornace in quale mondo?) ed aveva prestazioni in linea con la 2070 costando un centello e mezzo meno.I 90 gradi erano dietro l'angolo con le reference.
( Sulla nitro cmq oltre 80)
Certo oggi sembra la normalita ... Ma con la 2070 da 499 io dacevo 62 gradi , 70 in overclock.
Ma ripeto era cmq una grande scheda e molto competitiva e credo anche piu veloce della 2070. Vicina alla 2070s
devAngnew
07-06-2022, 10:57
I 90 gradi erano dietro l'angolo con le reference.
( Sulla nitro cmq oltre 80)
Certo oggi sembra la normalita ... Ma con la 2070 da 499 io dacevo 62 gradi , 70 in overclock.
Ma ripeto era cmq una grande scheda e molto competitiva e credo anche piu veloce della 2070. Vicina alla 2070s
In verità una volta 80 gradi in esercizio era la norma :D
mikael84
07-06-2022, 11:16
Vabbè AMD con Polaris e le 5000 é andata avanti a singhiozzi, non aveva chip che concretamente facessero competizione nella fascia alta.
La 5700xt non prende neanche la 1080ti, alla fine come die e prestazioni é comparabile alla 6600 liscia o poco più, però consumando il doppio.
Solo con le 6000 l'offerta di AMD si é fatta più appetibile, l'unico inghippo é solo relativo al Ray tracing dove le performance crollano e il DLSS, ma già con il nuovo FSR 2.0 sembra che le differenze si sono molto ridotte.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Stessi transistor mediamente. :)
Oddio è vero la 5700xt copriva solamente la fascia media , non aveva rt e scaldava come una fornace e ha avuto grossi problemi di stabilita per mesi ( black screen)
Pero aveva un prezzo aggressivo su quella fascia con 400 euro prendevi una bella scheda come la nitro . Che tuttora va bene per giocare a dettagli medio alti in 2k.
Con le rdna2 ha fatto un bel salto , ma anche di prezzo e sopratutto non erano disponibili in quantità accettabili.
Questo va a confermare , quanto visto con le cpu, che per noi è meglio se amd rimane un passo indietro qlla concorrenza cosi da dover fare prezzi aggressivi .
AMD aveva il vantaggio del nodo, e con un chip da x60 ha coperto turing x70. A conti fatti si è pagato 400 euro una x60. Infatti lo stesso core ora lo ha la 6600xt.
Ora come ora, se AD106 (4060) consumerà più di 200 watt non sarà il primo caso.:) , ed i costi sono più alti a pari die di 2x
fraussantin
07-06-2022, 11:46
In verità una volta 80 gradi in esercizio era la norma :DPuoi togliere "una volta" ci stiamo tornando .
Con la differenza che gli atomi di silicio fra un contatto e l'altro ora sono pochissimi
mikael84
07-06-2022, 18:36
Sarebbe ben sopra lo sweet spot dei transistor.
Ora è complesso poter calcolare veramente i clock, considerando che la precedente microarchitettura era su un nodo osceno (un 16nm in clock), ma qualora, si stesse tirando davvero troppo con i clock, significa che i DIE sono troppo costosi, e si preferisce optare per questa via.
"With Pascal on the TSMC 16nm node, NVIDIA delivered a huge frequency leap and we can expect a similar jump this time around too."
https://wccftech.com/nvidia-geforce-rtx-4090-twice-as-fast-as-rtx-3090-rtx-4080-420w-tbp-rumor/
Il die della 4080 liscia sarà più costoso di quello della 3090 (3x il wafer), solo che quello lo potevi vendere a 1499.
devAngnew
07-06-2022, 18:58
Puoi togliere "una volta" ci stiamo tornando .
Con la differenza che gli atomi di silicio fra un contatto e l'altro ora sono pochissimi
Avevo inteso che per te era una novità (sorry) :D La novità sono i consumi anche per una fascia medio/bassa.
Cmq. resto perplesso che esca prima la x90.
fraussantin
07-06-2022, 18:59
Stessi transistor mediamente. :)
AMD aveva il vantaggio del nodo, e con un chip da x60 ha coperto turing x70. A conti fatti si è pagato 400 euro una x60. Infatti lo stesso core ora lo ha la 6600xt.
Ora come ora, se AD106 (4060) consumerà più di 200 watt non sarà il primo caso.:) , ed i costi sono più alti a pari die di 2xOvviamente si , ma a conti fatti si pagano le prestazioni , anche se immagino che il 7nm anche se piccolo sia costicchiato un po
Avevo inteso che per te era una novità (sorry) :D La novità sono i consumi anche per una fascia medio/bassa.
Cmq. resto perplesso che esca prima la x90.
Figurati avevo un portatile con la 8600M che da come scaldava si fondeva lo stagno ( con miscelazione difettosa ovviamente) .
Si il problema dei consumi in fascia media porteranno problemi , soprattutto per i sistemi mini itx.
29Leonardo
07-06-2022, 20:30
beh se ti moddi il mini frigo xbox non ci dovrebbero essere problemi :D
mikael84
07-06-2022, 20:49
Ovviamente si , ma a conti fatti si pagano le prestazioni , anche se immagino che il 7nm anche se piccolo sia costicchiato un po
Si chiaro che ha fatto bene a farsi pagare le prestazioni, però alla fine rientra nella categoria x60, con vrm sparato ad 1,2v per perf.:)
Nvidia dai rumors pare andare nella stessa direzione, chip piccoli ma molto tirati, sacrificando i consumi.
Di certo lo può fare in questa gen, ma dalla prossima bisogna rivedere completamente la microarchitettura, altrimenti servirebbe una gen, solo di shrink
fraussantin
07-06-2022, 20:56
Si chiaro che ha fatto bene a farsi pagare le prestazioni, però alla fine rientra nella categoria x60, con vrm sparato ad 1,2v per perf.:)
Nvidia dai rumors pare andare nella stessa direzione, chip piccoli ma molto tirati, sacrificando i consumi.
Di certo lo può fare in questa gen, ma dalla prossima bisogna rivedere completamente la microarchitettura, altrimenti servirebbe una gen, solo di shrinkAnche secondo me stanno rivedendo completamente l'architettura anche in vista del modulare.
Questa lovelance è piu una gen di passaggio per non rimanere fermi ... Anche se succede un po troppo spesso :asd:
mikael84
08-06-2022, 00:04
Anche secondo me stanno rivedendo completamente l'architettura anche in vista del modulare.
Questa lovelance è piu una gen di passaggio per non rimanere fermi ... Anche se succede un po troppo spesso :asd:
Beh, questa è la vera gen, per quattro anni abbiamo avuto lo stesso nodo per turing, ed un nodo disastroso di samsung.:p
I costruttori di Alimentatori avranno finanziato Lovelace.:D
Andy1111
08-06-2022, 15:42
kopite7kimi
@kopite7kimi
Possible RTX 4080, PG139-SKU360, has a 420W TGP, still uses AD103.
di questo è sicuro al 99%
nessuno29
08-06-2022, 16:48
kopite7kimi
@kopite7kimi
Possible RTX 4080, PG139-SKU360, has a 420W TGP, still uses AD103.
di questo è sicuro al 99%
Speriamo abbia gli 84 sm full allora
mikael84
08-06-2022, 16:51
kopite7kimi
@kopite7kimi
Possible RTX 4080, PG139-SKU360, has a 420W TGP, still uses AD103.
di questo è sicuro al 99%
C'è da chiarire anche questo.
"The NVIDIA GeForce RTX 4080 is going to be a cut-down configuration with either than same cores as the existing GA102 part but tuned with much higher frequency or between 9000-1000 cores that allow some room for a 'Ti' variant in the future with the full-fat configuration. The GPU will come packed with 64 MB of L2 cache and up to 224 ROPs which is simply insane."
Cmq sugli ipotetici consumi, andranno tolti ben 135 watt tra circuiteria e ram. I PCB saranno simil 4090 ma con qualche induttore/mosfet levato.
135w tra circuiteria e ram?
Ok che le 6x consumano un'assurdità, ma mi sembra tantino
Boh, ste 4000 mi piacciono sempre meno (le 200 rops davvero tantissima roba)
mikael84
08-06-2022, 18:02
135w tra circuiteria e ram?
Ok che le 6x consumano un'assurdità, ma mi sembra tantino
Boh, ste 4000 mi piacciono sempre meno (le 200 rops davvero tantissima roba)
No, parliamo di PCB da 28 fasi e 5 VRM (sulla 4080 qualcosa sarà decurtato).
Tra NVVDD e FBVDDQ (GPU e ram) ci sono quasi 70 watt, 30 watt di perdite, e siamo a 100, aggiungi il dissi e le ram.
Se prendiamo, ad esempio, una 1080ti, questa aveva un 7+2 gestita da un solo UPI VRM.:)
scorpion73
08-06-2022, 18:45
Siamo sicuri che la 4090 consumi solo 30W in più di questa visto che la davano a 450W ma ha un divario di cuda abbastanza mostruoso rispetto ad AD103 oltre a maggiore bus?
mikael84
08-06-2022, 20:02
Siamo sicuri che la 4090 consumi solo 30W in più di questa visto che la davano a 450W ma ha un divario di cuda abbastanza mostruoso rispetto ad AD103 oltre a maggiore bus?
Dipende da come saranno calibrate. Guarda la 3070ti vs 3080.
I consumi sono da prendere con le pinze.
I consumi sono da prendere con le pinze.
ma neanche le schede le toccherei a mani nude :D
Thunder-74
09-06-2022, 15:29
Si vocifera terza ventola sulla FE 4090ti
https://uploads.tapatalk-cdn.com/20220609/f13483cf077ebe695f3ed95a2749e2e6.jpg
Per me non basterà
https://videocardz.com/newz/nvidia-allegedly-designed-a-triple-fan-reference-cooler-for-geforce-rtx-40-graphics-with-ad102-gpu
Inviato dal mio iPad utilizzando Tapatalk
scorpion73
09-06-2022, 15:34
Si vocifera terza ventola sulla FE 4090ti
https://uploads.tapatalk-cdn.com/20220609/f13483cf077ebe695f3ed95a2749e2e6.jpg
Per me non basterà
https://videocardz.com/newz/nvidia-allegedly-designed-a-triple-fan-reference-cooler-for-geforce-rtx-40-graphics-with-ad102-gpu
Inviato dal mio iPad utilizzando Tapatalk
Quella va bene per la 4080...
mikael84
09-06-2022, 18:50
ma neanche le schede le toccherei a mani nude :D
Certo ti bruci.:D
Si vocifera terza ventola sulla FE 4090ti
Per me non basterà
https://videocardz.com/newz/nvidia-allegedly-designed-a-triple-fan-reference-cooler-for-geforce-rtx-40-graphics-with-ad102-gpu
Inviato dal mio iPad utilizzando Tapatalk
Più che altro, sono curioso di vedere che tireranno fuori con l'ipotetica da 600watt (4090ti).
l'EVGA per dire è ben 4 slot.
https://tpucdn.com/review/evga-geforce-rtx-3090-ti-ftw3-ultra/images/noise-normalized-temperature.png
Magistercris
10-06-2022, 07:04
Comunque, la scimmia sale, ma se si optasse per la full, la 4090, penso che si dovrebbe cambiare quasi tutto l'hardware per supportarla, in primis case, ali, e sistema di raffreddamento generale, e per chi non ha una ultima cpu, anche quella è suoi derivati....
Penso che 5000 euro siano indispensabili....
Me tocca accende un mutuo :)
nessuno29
10-06-2022, 11:49
Comunque, la scimmia sale, ma se si optasse per la full, la 4090, penso che si dovrebbe cambiare quasi tutto l'hardware per supportarla, in primis case, ali, e sistema di raffreddamento generale, e per chi non ha una ultima cpu, anche quella è suoi derivati....
Penso che 5000 euro siano indispensabili....
Me tocca accende un mutuo :)
Che poi per farci cosa, secondo me siamo quasi al limite del ridicolo manca poco, e non c'è passione che tenga per giustificare tali prezzi.
Kostanz77
10-06-2022, 11:58
non c'è passione che tenga per giustificare tali prezzi.
Quoto.
Inviato dal mio iPhone utilizzando Tapatalk Pro
Thunder-74
10-06-2022, 12:02
Con la penuria di titoli si potrebbe andare ad oltranza con vecchia gen .
Comunque oggi ho visto il video del gameplay del futuro COD. Devo dire che finalmente hanno aggiornato la veste grafica e le animazioni . Veramente bello
https://youtu.be/ISc1orDBziY
Inviato dal mio iPhone X utilizzando Tapatalk
fraussantin
10-06-2022, 13:15
Comunque, la scimmia sale, ma se si optasse per la full, la 4090, penso che si dovrebbe cambiare quasi tutto l'hardware per supportarla, in primis case, ali, e sistema di raffreddamento generale, e per chi non ha una ultima cpu, anche quella è suoi derivati....
Penso che 5000 euro siano indispensabili....
Me tocca accende un mutuo :)
Che poi per farci cosa, secondo me siamo quasi al limite del ridicolo manca poco, e non c'è passione che tenga per giustificare tali prezzi.
Si pero dovete fare 2 considerazioni:
ci sono appassionati con le tasche piene che comprano comprano comprano senza badare a niente ..
Per gli altri avanza una 4070 , al massimo 4080 una cpu da 300 400 , una psu da 150 200 euro un dissipatore da 100 e il resto che serve economico.
5000 euro onestamente non vedo come si possano spendere.
( Ma sono usciti i prezzi delle lovelace e me li sono persi?)
Se la gente compra a 2500, perche' non vendere a 3000?
Se la gente accetta che la fascia media e' ora 6/800 euro, perche' non spostarla a 1200?
Tanto non e' che ci sia competizione, ormai anche AMD ha deciso che chi se ne frega di combattere sui prezzi, si rivede tutto in rialzo tanto si svuotano i scaffali comunque.
Se poi consideriamo anche che il pc andra' messo in una casa, salle mie parti si parla almeno di un paio se non trecentomila, si potrebbe risparmiare vivendo in camper magari.
fraussantin
10-06-2022, 13:39
Se poi consideriamo anche che il pc andra' messo in una casa, salle mie parti si parla almeno di un paio se non trecentomila, si potrebbe risparmiare vivendo in camper magari.O cambiando citta\nazione.
O pagando l'affitto.
Anche se fra pagare 500 al mese di affitto o 600 al mese di mutuo preferirei la seconda ...
mikael84
10-06-2022, 15:39
Si pero dovete fare 2 considerazioni:
ci sono appassionati con le tasche piene che comprano comprano comprano senza badare a niente ..
Per gli altri avanza una 4070 , al massimo 4080 una cpu da 300 400 , una psu da 150 200 euro un dissipatore da 100 e il resto che serve economico.
5000 euro onestamente non vedo come si possano spendere.
Esatto, una 4070 con un 12/3600k o relativo AMD saranno più che sufficienti per questi giochi.
Per la 4090 uno dei compromessi per uno scaling decente, è pure una TV/monitor 4k ad alto refresh.
Tutto deve avere una logica sul PC.
( Ma sono usciti i prezzi delle lovelace e me li sono persi?)
Questi si sapranno a conferenza dopo la conferenza di JHH, per ora solo supposti.
Se poi consideriamo anche che il pc andra' messo in una casa.
Tra poco i pc li metteremo in una cassaforte dato il prezzo dei componenti :stordita:
StrixyRoG
10-06-2022, 17:26
Si pero dovete fare 2 considerazioni:
ci sono appassionati con le tasche piene che comprano comprano comprano senza badare a niente ..
Per gli altri avanza una 4070 , al massimo 4080 una cpu da 300 400 , una psu da 150 200 euro un dissipatore da 100 e il resto che serve economico.
5000 euro onestamente non vedo come si possano spendere.
( Ma sono usciti i prezzi delle lovelace e me li sono persi?)
Si può tranquillo :D Il discorso che faccio sempre per me è che alcuni componenti li prendo da tenere parecchi anni, vedi il case per esempio che ho pagato quasi 300 euro, ma mi permette di montare qualsiasi cosa senza dovermi preoccupare di cosa uscirà, e non l'avessi fatto magari adesso avrei dovuto cambiarlo o fare una scelta diversa sulla scheda video. Poi adesso con questi prezzi delle schede video si sballa un po' tutto, tipo presi una 3080 all'uscita a 800 euro, ma l'anno scorso a Luglio pagai quella che aspettavo da sempre 2200 euro, quindi così si arriva in fretta a quelle cifre :D
fraussantin
11-06-2022, 13:10
Si può tranquillo :D Il discorso che faccio sempre per me è che alcuni componenti li prendo da tenere parecchi anni, vedi il case per esempio che ho pagato quasi 300 euro, ma mi permette di montare qualsiasi cosa senza dovermi preoccupare di cosa uscirà, e non l'avessi fatto magari adesso avrei dovuto cambiarlo o fare una scelta diversa sulla scheda video. Poi adesso con questi prezzi delle schede video si sballa un po' tutto, tipo presi una 3080 all'uscita a 800 euro, ma l'anno scorso a Luglio pagai quella che aspettavo da sempre 2200 euro, quindi così si arriva in fretta a quelle cifre :DVabbè rientri nel primo caso xD
Hai i soldi e non ti frega quanto costa .
Pero non vuol dire che servano 5k ..
Certo e purtroppo non è neanche come 5 anni fa che con 1000 euro ti facevi un bel pc.
Vabbè rientri nel primo caso xD
Hai i soldi e non ti frega quanto costa .
Pero non vuol dire che servano 5k ..
Certo e purtroppo non è neanche come 5 anni fa che con 1000 euro ti facevi un bel pc.Beh insomma, alla fine lato cpu i costi si sono abbastanza ridotti per il segmento di fascia media, 5 anni fa prendevi un 4c/8t come il 7700k.
Ora te li buttano dietro, ottimi 6c/12t si trovano anche sotto i 200€ sia per AMD che Intel, anche le ddr4 sono decisamente abbordabili, 12600k é forse la più bilanciata CPU in commercio, sui 250-260€ assicura ottime performance in game e anche lato produttivitá va più del 5800x e tallona il 3900x.
Addirittura per i PC da ufficio ho visto le apu come il 5600g sui 170€ su Amazon o anche il 5700g a un centone in più, entrambe con anche un reparto grafico discreto in fhd e con supporto all'fsr.
Ciò che mantiene ancora alto il prezzo rimangono le GPU, però comunque si stanno abbassando, con 1000€ qualcosa di riesce a tirare su, anche sui notebook si vedono spesso soluzioni con 5600h e 3060 sui 900€.
Poi é ovvio che se punti solo a componenti top di gamma 300€ ti partono solo per la mobo 🤣
Senza contare le DDR5 che ora rimangono ancora fin troppo costose, quasi il doppio a pari capacità delle ddr4.
Inviato dal mio M2012K11AG utilizzando Tapatalk
fraussantin
11-06-2022, 13:51
Beh insomma, alla fine lato cpu i costi si sono abbastanza ridotti per il segmento di fascia media, 5 anni fa prendevi un 4c/8t come il 7700k.
Ora te li buttano dietro, ottimi 6c/12t si trovano anche sotto i 200€ sia per AMD che Intel, anche le ddr4 sono decisamente abbordabili, 12600k é forse la più bilanciata CPU in commercio, sui 250-260€ assicura ottime performance in game e anche lato produttivitá va più del 5800x e tallona il 3900x.
Addirittura per i PC da ufficio ho visto le apu come il 5600g sui 170€ su Amazon o anche il 5700g a un centone in più, entrambe con anche un reparto grafico discreto in fhd e con supporto all'fsr.
Ciò che mantiene ancora alto il prezzo rimangono le GPU, però comunque si stanno abbassando, con 1000€ qualcosa di riesce a tirare su, anche sui notebook si vedono spesso soluzioni con 5600h e 3060 sui 900€.
Poi é ovvio che se punti solo a componenti top di gamma 300€ ti partono solo per la mobo 🤣
Senza contare le DDR5 che ora rimangono ancora fin troppo costose, quasi il doppio a pari capacità delle ddr4.
Inviato dal mio M2012K11AG utilizzando TapatalkBeh si oggi non andrei meno di un 8 core per un "bel" pc.
Cmq il 5800 te lo tirano dietro.
Ram buone 150
Mobo decente 200
Ssd
Case
Noctua ( MARRONE MI RACCOMANDO xD) o liquido ...
Alimentatore 800w minimo , ma meglio 1000
Se gia intorno ai 1000 senza la gpu.
Ci devi mettere un 600\1000 euro per quella a seconda della dimensione della scimmia e ti sei fatto un bel pc bomba
Pero non vuol dire che servano 5k ..
Certo e purtroppo non è neanche come 5 anni fa che con 1000 euro ti facevi un bel pc.
Seeh, io che l'ho fatto 5 anni fa ho speso 4k.
Seeh, io che l'ho fatto 5 anni fa ho speso 4k.
E te ne vanti? :mbe:
4k ce li spendo per un server, non per hardware di tipo consumer che, se tutto va bene, non ti si rompe nei primi 2 anni di vita.
Contento te che spendi 4k per un pc. :stordita:
E te ne vanti? :mbe:
In realtà quello era il valore complessivo del sistema, non li ho spesi di fatto. Avevo giù una parte dei componenti.
Il punto è che 5k oggi non sono un'assurdità, visto che quasi 2k se ne vanno per una scheda grafica di fascia "alta".
nessuno29
11-06-2022, 16:49
Si pero dovete fare 2 considerazioni:
ci sono appassionati con le tasche piene che comprano comprano comprano senza badare a niente ..
Per gli altri avanza una 4070 , al massimo 4080 una cpu da 300 400 , una psu da 150 200 euro un dissipatore da 100 e il resto che serve economico.
5000 euro onestamente non vedo come si possano spendere.
( Ma sono usciti i prezzi delle lovelace e me li sono persi?)
Il punto del discorso però non è rivolto agli enthusiast ossia quei 4 gatti che spendono e spandono, il problema è la fascia media dove c'è il 90% dell'utenza, perché se le fasce si alzano si alzano tutte, 800 euro per una 4070 che è una 4060 da me personalmente possono sognarseli, semmai abbandono questo hobby.
fraussantin
11-06-2022, 17:23
Il punto del discorso però non è rivolto agli enthusiast ossia quei 4 gatti che spendono e spandono, il problema è la fascia media dove c'è il 90% dell'utenza, perché se le fasce si alzano si alzano tutte, 800 euro per una 4070 che è una 4060 da me personalmente possono sognarseli, semmai abbandono questo hobby.Pensiero condivisibile , come del resto per tutto.
Auto cibo mutui ecc.
Il gaming è superfluo quindi sicuramente una delle prime cose cui possiamo farne a meno.
Ma non sono 5k di pc la regola.
2k invece sono purtroppo normali per un bel pc.
Un po meno volendo , ma siamo li
mikael84
12-06-2022, 00:46
Leggo ora questo rumors, e ci potrebbe stare, ma solo scorporando gli interi, quei 10752 cc x 36 op int, sarebbero come 14,5k cc Ampere + clock
https://i.postimg.cc/T3YYrsDQ/3090.png
Cmq a sto giro, oltre i watt c'è da aspettarsi realmente molto, io ho fatto un semplice rapporto tra microarchitetture uguali, però se si dovesse fare FP +INT, ci sarebbe un salto marcatissimo.
AMD come linea, è per il 50% perf watt (come RDNA2 che ha rispettato), ciò significa che la 7700xt andrà come la 6900xt a 200 watt, in questi giorni hanno precisato 230 watt.
La 7800xt sarà 2x il chip, ma a 5nm, quindi oltre il 2x flops, che significa + 50% a 3/360 la 6900xt.
Bene il chip equivalente sarà la AD103 scorporando gli INT, e pare pure tagliate bene.
AMD dovrà lanciare
n31 12288
n32 8196 (50% ALU)
Nvidia lancerà
AD102
4090: 16128cc
4080/ti: 10752cc (che casualmente è il 50%).
zanflank
13-06-2022, 07:59
RTX 4050
https://wccftech.com/roundup/nvidia-geforce-rtx-4050/
RTX 4050
https://wccftech.com/roundup/nvidia-geforce-rtx-4050/
Non male, dovrebbe andare bene o male come 2070 Super.
In FHD può fare la gioia di molti.
OrazioOC
13-06-2022, 11:00
RTX 4050
https://wccftech.com/roundup/nvidia-geforce-rtx-4050/
Solo quel sito riuscirebbe a fantasticare su una scheda che con tutta probabilità potrebbe non arrivare prima di 18 mesi.:rolleyes:
Ma bene o male. già si sa come si piazza.
Poi dipende dalla concorrenza, possono sia tirarla e quindi farle avere performance migliori della 3060, che castrarla.
Da vedere se AD107 arriverà su desktop, se come per la 3050 potrebbero riciclare tutti i die fallati di AD106 e lasciare AD107 esclusivamente al mobile.
Comunque, per la maggior parte delle persone interessa principalmente 4060 e 4070 e relativi prezzi, ma se ne parla a fine 2022 per qualcosa di concreto.
Per ora credo che nvidia voglia massimizzare le vendite, quindi svuotando i magazzini dalle 3000, e per chi vuole di più ha 4090 e 4080 vicine al lancio :fagiano:
mikael84
13-06-2022, 11:09
Ma bene o male. già si sa come si piazza.
Per le perf, bisogna vedere quanto c'è di vero in questo, sarebbe un turing 2.0, non ampere.:)
https://i.postimg.cc/Hs6BkrZY/smx.png
Solo quel sito riuscirebbe a fantasticare su una scheda che con tutta probabilità potrebbe non arrivare prima di 18 mesi.:rolleyes:
Senza considerare che AD107 potrebbe essere destinato tutto ai note, ed il sito stesso dice che la 4050 potrebbe essere pensata come Ampere, ovvero sul AD106.:p
Vedremo, mi pare che AMD preveda dei refresh di RDNA2 a 6nm per i chip sotto Navi 33, quindi può starci.
Ma è decisamente presto per i dettagli, i chippetti sono gli ultimissimi ad uscire.
OrazioOC
13-06-2022, 15:00
Diciamo che potrebbe non essere inusuale per un determinato periodo veder coesistere Ampere e Ada almeno nelle fasce mediobasse.
Già oggi vedo ancora a zonzo parecche 1650/1660 super/2060, e queste ultime due coesistono con la 3050, figuriamoci post mining con tutti questi chipponi ampere da piazzare in qualche modo.
Beh hanno riproposto la 2060 12GB, quindi nulla è impossibile :sofico:
A breve uscirà anche la fiammante GTX 1630.
davide155
13-06-2022, 19:04
https://videocardz.com/newz/nvidia-geforce-gtx-1630-delayed-rtx-40-series-launch-slips-by-a-month
Ma già si sapeva che la 4090 usciva a settembre. Perché parlano di slittamento da agosto a settembre?!?
mikael84
13-06-2022, 20:21
https://videocardz.com/newz/nvidia-geforce-gtx-1630-delayed-rtx-40-series-launch-slips-by-a-month
Ma già si sapeva che la 4090 usciva a settembre. Perché parlano di slittamento da agosto a settembre?!?
Se la cantano e se la suonano da soli. A partire da questo mese incominciano i test finali.
Anche i partner devono rispettare tutta la lunga procedura, ed effettuare i vari passi, tra cui invio del progetto ad nvidia, poi verrà esaminato ed approvato, ora dovrà far partire l'EVT, DVT (dissipazione), subito dopo testare, rinviare i dati ad nvidia che a sua volta gli darà l'ok.
Anche per questo ancora non si sa nulla di concreto, se non i chip finali, ma tutto quello che ne consegue ancora non si sa.:)
Vedremo, mi pare che AMD preveda dei refresh di RDNA2 a 6nm per i chip sotto Navi 33, quindi può starci.
Ma è decisamente presto per i dettagli, i chippetti sono gli ultimissimi ad uscire.
Si per i chippetti se ne parlerà nel 2023. AD107 dipenderà anche da Intel.
https://videocardz.com/newz/nvidia-geforce-gtx-1630-delayed-rtx-40-series-launch-slips-by-a-month
Ma già si sapeva che la 4090 usciva a settembre. Perché parlano di slittamento da agosto a settembre?!?
Dovranno pur scrivere qualcosa per tirare acqua al mulino XD
Siamo in un periodo di attesa, vere notizie non ci sono, se non piccoli rumors smistati qua e là...
Thunder-74
19-06-2022, 13:57
Questa mi mancava...
GALAX lancia l'edizione speciale "Cabbage Dog" di GeForce RTX 3060 Vegetables Fairy
LINK (https://videocardz.com/newz/galax-launches-geforce-rtx-3060-vegetables-fairy-cabbage-dog-special-edition)
https://cdn.videocardz.com/1/2022/06/RTX-3060-DOG-DESIGN.jpg
tratta dal "Cane Verza"
https://cdn.videocardz.com/1/2022/06/Cabbage-Dog.jpg
Questa mi mancava...
GALAX lancia l'edizione speciale "Cabbage Dog" di GeForce RTX 3060 Vegetables Fairy
LINK (https://videocardz.com/newz/galax-launches-geforce-rtx-3060-vegetables-fairy-cabbage-dog-special-edition)
Cavoli, che bella! :Puke: :Puke:
mikael84
19-06-2022, 18:12
@thunder, caduta di stile dal brand più potente a livello di custom OC.:rolleyes:
Cmq, leggevo quest'altro rumor di Kopite.
https://videocardz.com/newz/nvidia-rtx-40-ada-gpu-power-limits-rumored-to-reach-800w-on-desktop-and-175w-on-laptops
https://i.postimg.cc/3JzvdVX9/TPL.png
Si parla di limiti di potenza, ma questo può essere vero solo in relative custom pensate per l'azoto.
Nel link parla anche di una possibile gpu nvidia da 900 watt, ma nulla di più falso.
Il chip, visto anche da Igor è naturalmente pensato per i 450/600watt più eventuale PL.
Questo significa che nvidia oltre i 670 di PL (che poi sarebbero 650) non può andare.
I limiti di potenza saranno violati solo da chip con 2 16 pin, come l'attuale KP 3090ti, dove ha effettivamente superato i 1000 watt ad azoto, toccando i 3ghz.
https://i.postimg.cc/fTbc31V0/pcb.png
Anche i limiti delle schede sotto vogliono dire tanto e nulla, in quanto i TDP saranno ben più bassi.
Probabilmente ci sarà il cavo della 3090ti.
Da notare che, una cosa sarà praticamente sicura, i limiti dei notebook.
Se le soluzioni da 175w permettevano circa 1600-1700mhz, AD103 mobile sopra i 1900 ( a pari microarchitettura) sarà più potente di una 3090 deskt sotto i 200w.
Le schede desktop saranno spintissime in clock.
Le schede desktop saranno spintissime in clock.
Ma fa così pena il pp Samsung utilizzato nella serie 3000?
Ma fa così pena il pp Samsung utilizzato nella serie 3000?Fa pena ovunque viene usato, anche sui chip mobile di Qualcomm ha dato disagi 🤣
Inviato dal mio M2012K11AG utilizzando Tapatalk
mikael84
19-06-2022, 19:04
Ma fa così pena il pp Samsung utilizzato nella serie 3000?
Abbastanza, è un 10nm 3° gen. Viene classificato 10nm per alcune caratteristiche del gate, ma complessivamente fa pena.
i vantaggi apportati sono minimi, tanto che lato clock, se la gioca con i 16nm di TSMC.
Questo PP viene aggiornato alla 3° gen, chiamata 8LPP, in quanto non era pronto l'EUV, che verrà integrato con i 7nm, e di concreto porta ad una densità superiore.
Di buono ha dato ad nvidia la possibilità di utilizzare a circuito 44mtransistor x mm2 su 61, mentre i 16nm si fermavano a 25 per circuito, questo ha permesso un gigante come GA102 in 628mm2.
Ora passiamo a dei 5nm (4mod) di TSMC, i 5 di samsung sono dei 7 TSMC leggermente più densi.
Il PP di ampere sarebbe stato ottimo per turing, in quanto avrebbe permesso per via della densità un chip sopra la 2080ti.
Ma fa così pena il pp Samsung utilizzato nella serie 3000?
Ma se non erro era un "refinement" del 14nm (poi divntato 10), il verso shrink lo hanno fato col 7nm insieme ad altre migliorie.
Poi vabbe' si fa sempre fatica a comparare PP di diversi produttori/fab, basta vedere Intel cos'ha combinato coi suoi 14++++.
mikael84
19-06-2022, 21:32
Ma se non erro era un "refinement" del 14nm (poi divntato 10), il verso shrink lo hanno fato col 7nm insieme ad altre migliorie.
Poi vabbe' si fa sempre fatica a comparare PP di diversi produttori/fab, basta vedere Intel cos'ha combinato coi suoi 14++++.
Si i veri salti sono stati sui 7nm.
I nomi dei transistor sono per lo più commerciali, ci sono altri aspetti che li distinguono come il gate lenght. Samsung ha addirittura un metal pitch, pari a quello di Intel 14nm.
Ciò che cambia però, e che li contraddistingue è la densità da applicare a circuito (logica-sram), ed efficienza.
Ci faccio poco se Intel è allineato con samsung 10nm, poi questo mi offre una densità per circuito di appena 20mt x mm2:p
Al contrario passare ai 10nm di TSMC mi avrebbe permesso di utilizzare meno densità (51 vs 61 di samsung) ma allo stesso tempo aumentare i clock del 15%, però GA102 dovevo sminuzzarlo per via della densità. Quindi torniamo li.
Questi 10nm sono per lo più dei passetti per dare un minimo di densità, i veri salti sono i 7nm (come AMD):)
amon.akira
19-06-2022, 23:41
AD103 mobile sopra i 1900 ( a pari microarchitettura) sarà più potente di una 3090 deskt sotto i 200w.
Le schede desktop saranno spintissime in clock.
giustamente per questo ci daranno le fasce scalate, altrimenti ci avrebbero "regalato" troppo...è anche vero che compenseranno con i costi maggiori di produzione sperando che come da rumor rimarrano all incirca in quella zona msrp
il chippone fa sempre piu gola :p
mikael84
20-06-2022, 00:15
giustamente per questo ci daranno le fasce scalate, altrimenti ci avrebbero "regalato" troppo...è anche vero che compenseranno con i costi maggiori di produzione sperando che come da rumor rimarrano all incirca in quella zona msrp
il chippone fa sempre piu gola :p
Si raga, i costi purtroppo aumenteranno, 2x il wafer, mercato impazzito, lo vediamo nel quotidiano. Con le fasce scalate, spero che si riesca a mantenere almeno un prezzo semi-decente.
Da considerare anche il 2x nelle ram g6x che sono piuttosto care.
Pensa che molti hanno gridato al miracolo per la 5700xt da 250mm2 a 399$ con wafer alla metà dei costi(valori che possono cambiare nel tempo, ma sempre in negativo).:p
Tu cmq, con la 3090, non è che sei proprio a piedi:D Certo da appassionato la 4090 in 4k mini led, è tanta tanta roba.:)
amon.akira
20-06-2022, 05:49
Si raga, i costi purtroppo aumenteranno, 2x il wafer, mercato impazzito, lo vediamo nel quotidiano. Con le fasce scalate, spero che si riesca a mantenere almeno un prezzo semi-decente.
Da considerare anche il 2x nelle ram g6x che sono piuttosto care.
Pensa che molti hanno gridato al miracolo per la 5700xt da 250mm2 a 399$ con wafer alla metà dei costi(valori che possono cambiare nel tempo, ma sempre in negativo).:p
Tu cmq, con la 3090, non è che sei proprio a piedi:D Certo da appassionato la 4090 in 4k mini led, è tanta tanta roba.:)
vedremo dai a sto giro mi sento da 4080, ma solo se con 10752cc :P
fraussantin
20-06-2022, 06:50
Si raga, i costi purtroppo aumenteranno, 2x il wafer, mercato impazzito, lo vediamo nel quotidiano. Con le fasce scalate, spero che si riesca a mantenere almeno un prezzo semi-decente.
Da considerare anche il 2x nelle ram g6x che sono piuttosto care.
Pensa che molti hanno gridato al miracolo per la 5700xt da 250mm2 a 399$ con wafer alla metà dei costi(valori che possono cambiare nel tempo, ma sempre in negativo).:p
Tu cmq, con la 3090, non è che sei proprio a piedi:D Certo da appassionato la 4090 in 4k mini led, è tanta tanta roba.:)L'msrp sara sicuramente piu alto
Hanno capito poi che i gamer non si fanno problemi a spendere cifre assurde per un pc.
Pero se il mining frena potrebbe tornare l'era degli sconti a cui non siamo piu abituati.
ninja750
20-06-2022, 09:12
Pensa che molti hanno gridato al miracolo per la 5700xt da 250mm2 a 399$ con wafer alla metà dei costi
vai ripetendo questa cosa in molti messaggi, secondo te a quanto avrebbe dovuto prezzare quella SKU amd se andava come una 2070/2070s?
vai ripetendo questa cosa in molti messaggi, secondo te a quanto avrebbe dovuto prezzare quella SKU amd se andava come una 2070/2070s?
Dipende dagli engine, in media è più vicina alla 2070, al tempo anche la 1080ti gli stava sopra, e comunque non offriva ne DLSS e ne RT rispetto le RTX.
Sicuramente un ottimo chip, ma nulla di esaltante, il passo grosso AMD lo ha fatto con le 6000, peccato che la pandemia e l'esplosione del mercato hanno un pò stravolto tutto.
Comunque al prossimo giro c'è decisamente tanta carne sul fuoco, e credo che anche l'usato sarà pieno di RX e RTX :fagiano:
mikael84
20-06-2022, 11:56
vedremo dai a sto giro mi sento da 4080, ma solo se con 10752cc :P
Potrebbe rivelarsi interessante, soprattutto a scorporo interi.:)
Certo, se mi levi un GPC, me la devi prezzare almeno a 6/799$:)
L'msrp sara sicuramente piu alto
Hanno capito poi che i gamer non si fanno problemi a spendere cifre assurde per un pc.
Pero se il mining frena potrebbe tornare l'era degli sconti a cui non siamo piu abituati.
Bisogna vedere anche la posizione di AMD, JHH le prezzerà anche in base all'avversario, e questo non fa proprio ben sperare, perchè anche lei sparerà la x70 (che è 1/3 delle ALU, quindi x60) sui o sopra i 500$, ed il chip navi32, sarà 2x le specifiche.
vai ripetendo questa cosa in molti messaggi, secondo te a quanto avrebbe dovuto prezzare quella SKU amd se andava come una 2070/2070s?
E lo continuerò a ripetere, ma non perchè abbia fatto male, visto la concorrenza, anzi... ma per il fatto che è stata libera di venderti un die da x60/polaris a 399$.
Se nvidia debuttasse a fine 2023, e tu ora mi lanciassi una 7700 (che chiameresti 7900) e la metessi a prezzi vicini alla 3090, faresti bene a livello commerciale, ma entrando nel tecnico ci sarebbe da discutere. :)
ultimate trip
20-06-2022, 18:37
Potrebbe rivelarsi interessante, soprattutto a scorporo interi.:)
Certo, se mi levi un GPC, me la devi prezzare almeno a 6/799$:)
Bisogna vedere anche la posizione di AMD, JHH le prezzerà anche in base all'avversario, e questo non fa proprio ben sperare, perchè anche lei sparerà la x70 (che è 1/3 delle ALU, quindi x60) sui o sopra i 500$, ed il chip navi32, sarà 2x le specifiche.
secondo te anche per chi ha una 3080? forse converrebbe saltare e usare i benefici del dlss per i prox 2 anni...vediamo
TigerTank
20-06-2022, 18:56
secondo te anche per chi ha una 3080? forse converrebbe saltare e usare i benefici del dlss per i prox 2 anni...vediamo
Più che altro con una 3080 è probabile che con dei nuovi titoli si possa porre il problema dei 10GB di vram in certi contesti (4K, textures ultra, ecc...)
Più che altro con una 3080 è probabile che con dei nuovi titoli si possa porre il problema dei 10GB di vram in certi contesti (4K, textures ultra, ecc...)
Diciamocelo, su una scheda da 750€ (venduta a oltre 1000€) hanno fatto un po' una cavolata
ultimate trip
20-06-2022, 19:27
Più che altro con una 3080 è probabile che con dei nuovi titoli si possa porre il problema dei 10GB di vram in certi contesti (4K, textures ultra, ecc...)
sai cosa, lo noto con l'upgrade grafico di resident evil 2, mi segna un valore di memoria molto sopra i 10 gb ma magari lì è la solita storia di allocata effettiva. i frame sono generalmente alti in 4k tranne rare situazioni
mikael84
20-06-2022, 20:23
secondo te anche per chi ha una 3080? forse converrebbe saltare e usare i benefici del dlss per i prox 2 anni...vediamo
Della 4080 attualmente bisogna vedere se versione cut o full, e la microarchitettura finale (int slegate o meno). In ogni caso, rispetto alla 3080 il salto ci sarà. Inoltre hai 16gb di vram. Ecco perchè le ampere le ho sempre definite crossgen.
Cmq a pari microarchitettura, ed anche a Cuda quasi simili, bisogna considerare il clock molto più elevato.:)
Più che altro con una 3080 è probabile che con dei nuovi titoli si possa porre il problema dei 10GB di vram in certi contesti (4K, textures ultra, ecc...)
Proprio per questo motivo ci ho riflettuto ed alla fine ho desistito. Considerando che ho saltato una gen, preferirei una scheda con più ram di base. Considerando che la 3080 verrà battuta dalla 4070 che avrà già 12gb di ram, non tanti, ma spendere per spendere, meglio un prodotto più aggiornato.
Certo, oggi come oggi una 3080 a MSRP ti da quella scossa di adrenalina, considerando che vengo da una 2070 super. (per carità ancora valida, spesso rottamiamo subito l'hardware, che delle volte neppure lo apprezzi al massimo) :p
Diciamocelo, su una scheda da 750€ (venduta a oltre 1000€) hanno fatto un po' una cavolata
Per via dell'accordo con Micron non si poteva fare, in quanto non aveva la doppia densità. Hanno utilizzato il clamshell (ram avanti e dietro) solo sulla 3090 per venderla ai pro con nvlink.
Pensa che per questo motivo hanno dovuto mettere le g6 lisce nelle quadro, e le ram più costose nelle gaming.
Inoltre sono scelte anche progettuali, ora ti saresti trovato la 4080 da 16 e la 3080 da 20gb.:)
Forse la 3070 potrebbe proprio aver senso visto il price point, per affrontare il lancio delle nuove con piu' relax ed eventualmente aspettare direttamente la 4080ti...
Davvero un hard sell la 3080 a quel prezzo se penso a doverci mettere pure un wubbo e ritrovarmi con meno ram della Titan.
Soltanto per l'IVA anche a rivenderla ci si perderebbe meno.
Diciamocelo, su una scheda da 750€ (venduta a oltre 1000€) hanno fatto un po' una cavolata
Considera che i quantitativi di vram anche con Lovelace rimarranno gli stessi nello stesso target di performance:
AD106 128bit 8GB -> 3060ti/3070ti
AD104 192bit 12GB -> 3080/3080ti
AD103 256bit 16GB
AD102 384bit 24GB
12gb significa bus a 192bit...mi son perso qualcosa o stiamo dicendo che la controparte della 3080 avrà bus a 192bit?
Credevo fosse ad103
fraussantin
20-06-2022, 21:24
12gb significa bus a 192bit...mi son perso qualcosa o stiamo dicendo che la controparte della 3080 avrà bus a 192bit?
Credevo fosse ad103
Quella a 12 giga sara la 4070 che avra prestazioni fra la 3080 e la 3080 ti .
mikael84
20-06-2022, 21:24
Forse la 3070 potrebbe proprio aver senso visto il price point, per affrontare il lancio delle nuove con piu' relax ed eventualmente aspettare direttamente la 4080ti...
Davvero un hard sell la 3080 a quel prezzo se penso a doverci mettere pure un wubbo e ritrovarmi con meno ram della Titan.
Soltanto per l'IVA anche a rivenderla ci si perderebbe meno.
la scheda killer delle "oldgen", sarà la 4070, questa potrebbe letteralmente cambiare il mercato in base a prezzo e reperibilità. Tra avere buone forniture però ci passerà del tempo. Bisogna anche vedere la disponibilità dei 5nm, non a caso vende prima ad alto margine.
Sulla 3070 a MSRP si, non subirà grosse svalutazioni, considera che la 4060 partirà minimo da 399$ di MSRP e debutterà nel q1 2023.
Il problema ora come ora, è per chi compra GPU come le 3090/TI o la 3080ti, magari custom sovraprezzate. :)
12gb significa bus a 192bit...mi son perso qualcosa o stiamo dicendo che la controparte della 3080 avrà bus a 192bit?
Credevo fosse ad103
AD104 sarà da 192bit, ovvero il chip delle x70. Il killer GA102.
AD103 quello della 4080 avrà 16gb e 256 bit.:)
Le uniche incognite su questi chip è su come verranno tagliati, ancora non si sa nulla dei chip intermedi, ne tanto meno se ci saranno full chip alla prima sfornata.
Alcuni rumors ipotizzavano persino l'assenza di una 4060ti, e quindi la 4060 potrebbe essere ottenuta direttamente da AD104 mantenendo i 12GB e ponendosi poco sotto l'attuale 3080, se fosse cosi a 399$ è quasi oro che cola :fagiano:
mikael84
21-06-2022, 00:19
Alcuni rumors ipotizzavano persino l'assenza di una 4060ti
L'aveva ipotizzata Kopite come AD104 ultra devastazione.:)
e quindi la 4060 potrebbe essere ottenuta direttamente da AD104 mantenendo i 12GB e ponendosi poco sotto l'attuale 3080, se fosse cosi a 399$ è quasi oro che cola :fagiano:
Occhio però, si sta sempre facendo il paragone 1:1 tra Ampere e Lovelace, non tenendo presente la scorporazione degli interi come turing.
Turing può fare 4608 fp + 4608 INT
Ampere fa 5376 fp32 + 5376 FP o INT, in gaming ti verrebbe questo.
Paintizzo velocemente:sofico:
https://i.postimg.cc/52LKBcyn/int.png
Se gli interi vengono scorporati, es Hopper a 32cc, la situazione cambia non poco:
https://i.postimg.cc/1RbLwrMR/hopper.png
Il warp (senza dispatch è un mezzo schifo) può fare entrambe le cose, con relative latenze.
Se prendiamo AMD ha:
4096 st: navi 33- like navi 21 6900
8192 st: navi 32
12288 st: navi 31
Ora se AMD con soli 4096 st è in grado di prendere l'ammiraglia 7nm con 1/3 delle ALU a 230watt, significa che altrettanto farà nvidia.
7900xt/12288st =4090= 16128cc
7800xt/8196st = 4080/ti 10752
In entrambi i chip c'è il 50% esatto di ALU/BW.
La 7700xt è da 4096st, ovvero la metà della 7800xt, con bus a 128bit e 6nm, quindi probabile meno clock.
La metà di 10752 è 5376cc in ambito nvidia.
Quindi, o sono sbagliati i rapporti, o nvidia potrebbe prendere GA102 top, già da chip di fascia molto bassa.
.....
I rumors danno la 4070 pari alla 7700xt, ma partendo da 7680cc, verrebbe fuori che per pareggiare AMD servirebbero 23 k cc.:p
Ale55andr0
21-06-2022, 07:54
Più che altro con una 3080 è probabile che con dei nuovi titoli si possa porre il problema dei 10GB di vram in certi contesti (4K, textures ultra, ecc...)
Figurati...io avrei firmato per avere 10gb anzichè 8 in questo ROITO che ho in firma
Ale55andr0
21-06-2022, 08:00
Le uniche incognite su questi chip è su come verranno tagliati, ancora non si sa nulla dei chip intermedi, ne tanto meno se ci saranno full chip alla prima sfornata.
Alcuni rumors ipotizzavano persino l'assenza di una 4060ti, e quindi la 4060 potrebbe essere ottenuta direttamente da AD104 mantenendo i 12GB e ponendosi poco sotto l'attuale 3080, se fosse cosi a 399$ è quasi oro che cola :fagiano:
no ma... tu credi davvero al numero che hai scritto?
Serio?
OrazioOC
21-06-2022, 08:22
Figrati...io avrei firmato per avere 10gb anzichè 8 in questo ROITO che ho in firma
Puoi anche accroccare uno scambio con una 6700 xt rimettendoci 0 euro. :D
TigerTank
21-06-2022, 08:25
Diciamocelo, su una scheda da 750€ (venduta a oltre 1000€) hanno fatto un po' una cavolata
Proprio per questo motivo ci ho riflettuto ed alla fine ho desistito. Considerando che ho saltato una gen, preferirei una scheda con più ram di base. Considerando che la 3080 verrà battuta dalla 4070 che avrà già 12gb di ram, non tanti, ma spendere per spendere, meglio un prodotto più aggiornato.
Certo, oggi come oggi una 3080 a MSRP ti da quella scossa di adrenalina, considerando che vengo da una 2070 super. (per carità ancora valida, spesso rottamiamo subito l'hardware, che delle volte neppure lo apprezzi al massimo) :p
Figrati...io avrei firmato per avere 10gb anzichè 8 in questo ROITO che ho in firma
Alla fine dipende tutto anche da cosa uno gioca e su che risoluzione. Se viaggi su 4K sparato e attendi via via i nuovi titoli fin dal day one come se fossero boccate di ossigeno, la vram incide molto di più che in situazioni meno esose tipo player under-4K e con montagne di arretrati presi via via in blocco nelle tornate di saldi(come me) :asd:
E che magari ormai gioca un pò meno tempo di prima perchè spesso preferisce solo un pò di streaming.
no ma... tu credi davvero al numero che hai scritto?
Serio?Non è impossibile e un cut di AD104 ci sarà comunque, che vogliano chiamarla 4060 o 4060ti si vedrà....
Sui prezzi lo decide il mercato, ieri la 3080 founders sul sito Nvidia era nuovamente disponibile a 759€ e anche in altri store non è così impossibile trovarla oramai sui 800-850€, in passato anche nel passaggio da 980 - > 1060 si palesó una situazione simile, la 980 costava sui 450-500€ e la 1060 passó a meno di 300€, ma anche da 1080->2060...
Un eventuale cut di AD104 non lo ritengo impossibile che possa finire nell'intorno dei 450€.
Inviato dal mio DBY-W09 utilizzando Tapatalk
FrancoBit
21-06-2022, 08:33
Io temo che anche "potendo" non venderanno a prezzi razionali. Oltretutto col crollo delle crypto sono previste vendite decisamente inferiori rispetto all'anno scorso. Anno in cui hanno venduto un fottio e pure a prezzi fuori di testa, con marginalità parecchio elevate. Insomma tutti questi elementi, al di là della tecnica della scheda, mi fanno pensare in maniera poco positiva in merito ai prezzi che applicheranno.
fraussantin
21-06-2022, 08:37
Io temo che anche "potendo" non venderanno a prezzi razionali. Oltretutto col crollo delle crypto sono previste vendite decisamente inferiori rispetto all'anno scorso. Anno in cui hanno venduto un fottio e pure a prezzi fuori di testa, con marginalità parecchio elevate. Insomma tutti questi elementi, al di là della tecnica della scheda, mi fanno pensare in maniera poco positiva in merito ai prezzi che applicheranno.Vabbe il fatto che le crypto stiano crollando è positivo per noi
Anche se prezzano alto superata la fase iniziale se gli prendono polvere dovranno fare sconti.
A meno che non abbiano gia pianificato di produrne poche.
Ma nvidia deve rendere conto agli azionisti. E deve fatturare.
Io temo che anche "potendo" non venderanno a prezzi razionali. Oltretutto col crollo delle crypto sono previste vendite decisamente inferiori rispetto all'anno scorso. Anno in cui hanno venduto un fottio e pure a prezzi fuori di testa, con marginalità parecchio elevate. Insomma tutti questi elementi, al di là della tecnica della scheda, mi fanno pensare in maniera poco positiva in merito ai prezzi che applicheranno.Questione di disponibilità, se questa c'è e la domanda si mantiene come in questi mesi, non possono di certo prezzarle a 2x MSRP come nella pandemia.
Inoltre proprio per via del crollo delle cripto e dei rincari dell'energia, non sarebbe strano ritrovarsi immersi di GPU anche nell'usato.
Diciamo che bisogna solo aspettare e vedere come si impone il mercato.
Lato MSRP non credo ci saranno grosse differenze, se non i soliti cut strategici e qualche chip degradato.
Inviato dal mio DBY-W09 utilizzando Tapatalk
fraussantin
21-06-2022, 08:43
Secondo me la 4080 sara quella con un rincaro maggiore .
La vedo a 899 dollari. ( Msrp)
Le atre non penso che vadano troppo oltre quello attuale un +50dollari max 100
ninja750
21-06-2022, 08:46
no ma... tu credi davvero al numero che hai scritto?
Serio?
sì, come le 3060ti pieni vagoni a 399$
FrancoBit
21-06-2022, 08:55
Vabbe il fatto che le crypto stiano crollando è positivo per noi
Anche se prezzano alto superata la fase iniziale se gli prendono polvere dovranno fare sconti.
A meno che non abbiano gia pianificato di produrne poche.
Ma nvidia deve rendere conto agli azionisti. E deve fatturare.
Spero sinceramente di essere pessimista e che abbiate ragione voi.
E' proprio per quello che ho evidenziato nella tua risposta, che a fronte di un deciso calo di volumi di vendita previsti, mi preoccupo per i prezzi.
TigerTank
21-06-2022, 09:43
Spero sinceramente di essere pessimista e che abbiate ragione voi.
E' proprio per quello che ho evidenziato nella tua risposta, che a fronte di un deciso calo di volumi di vendita previsti, mi preoccupo per i prezzi.
Alla fine mi sa che il prezzo lo farà già la sola richiesta indipendentemente dallo scopo.
Se lanceranno per prime le più costose e ad esempio dovessero avere già code di prenotazione per delle 4090 a tipo $1,899 di base(o peggio RTX 4090 a $2,999 ed RTX 4080 Ti a $1,999)...stai tranquillo che anche le sorelle minori seguiranno lo stesso andazzo.
mikael84
21-06-2022, 11:30
Io temo che anche "potendo" non venderanno a prezzi razionali. Oltretutto col crollo delle crypto sono previste vendite decisamente inferiori rispetto all'anno scorso. Anno in cui hanno venduto un fottio e pure a prezzi fuori di testa, con marginalità parecchio elevate. Insomma tutti questi elementi, al di là della tecnica della scheda, mi fanno pensare in maniera poco positiva in merito ai prezzi che applicheranno.
Secondo me la 4080 sara quella con un rincaro maggiore .
La vedo a 899 dollari. ( Msrp)
Le atre non penso che vadano troppo oltre quello attuale un +50dollari max 100
A livello MSRP probabilmente non ci saranno grossi stravolgimenti, considerando anche che JHH e Lisa hanno declassato le fasce, il problema sarà la disponibilità finale.
Siamo tutti sui 5nm a sto giro, ed inizialmente la situazione potrebbe non essere così rosea, tanto che nvidia vende i padelloni inizialmente per fare margine.
Figrati...io avrei firmato per avere 10gb anzichè 8 in questo ROITO che ho in firma
Non per farmi i C tuoi, ma con quella CPU che hai in firma (onestamente venusiana gia' all'uscita visto che in single se la batteva con un 3570k) io penserei a un cambio CPU, anche giocando a 8k a campo minato avresti grossi miglioramenti.
Usti che consumi, improponbili in sto periodo, ma anche in generale! 😱😱
Usti che consumi, improponbili in sto periodo, ma anche in generale! 😱😱
si, una vera schifezza.
TigerTank
21-06-2022, 13:15
Ma sì, mal che vada via di 4070 e bon. Se va più della 3080, ha più vram e a consumi dovesse essere pure meglio applicando il solito undervolt intelligente....ben venga :sofico:
Tanto non mi pare che al momento il 2023 sia un esempio di "era dorata" per dei nuovi giochi rivoluzionari.
scorpion73
21-06-2022, 13:40
Ma sì, mal che vada via di 4070 e bon. Se va più della 3080, ha più vram e a consumi dovesse essere pure meglio applicando il solito undervolt intelligente....ben venga :sofico:
Tanto non mi pare che al momento il 2023 sia un esempio di "era dorata" per dei nuovi giochi rivoluzionari.
Mah, io per prendere una 4070 resterei con la 3080 e aspetterei la 4080ti, per poi prendere, se la 4080ti fosse proibitiva, una 4080 liscia che dovrebbe a quel punto calare di prezzo. La 4070 non credo andrà molto di più di una 3080.
E poi non andrei su una scheda a 192 bit sinceramente... stiamo parlando del bus di una 3060 liscia e anche se mettono la cache come fa AMD restano sempre belli strozzati.
Già una 4080 liscia a 256 non è che mi inscimmi più di tanto però magari quella si può valutare se avrà almeno 10752cc.
Sopra la vedo dura a prezzi e consumi sinceramente, soprattutto i consumi andiamo oltre la decenza. C'è il rischio che una futura 4080ti stia sui 500W di TDP se non oltre e sinceramente mi sembra una follia, al di la del prezzo... come cavolo la raffreddi? Già raffreddare i 420W di una 4080 sarà una bella impresa, avremo dissipatori come la 3090ti per una scheda middle...
Boh, è da pensarci bene, la serie 4000 mi puzza tanto di Fermi bis...
fraussantin
21-06-2022, 13:44
Ma sì, mal che vada via di 4070 e bon. Se va più della 3080, ha più vram e a consumi dovesse essere pure meglio applicando il solito undervolt intelligente....ben venga :sofico:
Tanto non mi pare che al momento il 2023 sia un esempio di "era dorata" per dei nuovi giochi rivoluzionari.La 4070 mi sa proprio di 3080ti ... anche come ram .
Non credo valga neppure lo sbatti compra rivendi ecc...
Se mi capita a tiro una 4080 fe a msrp posso anche azzardare , tanto son quasi certo che alla peggio calando di 100 o 200 mhz la frequenza si riesce a farla stare bassa di consumi e voltaggi.
Diversamente mi posso tenere la 3080.
TigerTank
21-06-2022, 13:46
Mah, io per prendere una 4070 resterei con la 3080 e aspetterei la 4080ti, per poi prendere, se la 4080ti fosse proibitiva, una 4080 liscia che dovrebbe a quel punto calare di prezzo. La 4070 non credo andrà molto di più di una 3080.
E poi non andrei su una scheda a 192 bit sinceramente... stiamo parlando del bus di una 3060 liscia e anche se mettono la cache come fa AMD restano sempre belli strozzati.
Già una 4080 liscia a 256 non è che mi inscimmi più di tanto però magari quella si può valutare se avrà almeno 10752cc.
Sopra la vedo dura a prezzi e consumi sinceramente, soprattutto i consumi andiamo oltre la decenza. C'è il rischio che una futura 4080ti stia sui 500W di TDP se non oltre e sinceramente mi sembra una follia, al di la del prezzo... come cavolo la raffreddi? Già raffreddare i 420W di una 4080 sarà una bella impresa, avremo dissipatori come la 3090ti per una scheda middle...
Boh, è da pensarci bene, la serie 4000 mi puzza tanto di Fermi bis...
Scusa mi riferivo a chi è indeciso tra il prendere la 3080 founder adesso o l'aspettare le nuove ma per poi ritrovarsi con una situazione 4080 un pò troppo fuori budget ed esageratamente esosa :D
Vabbè che comunque io mi auguro che anche con le 4000 si possano applicare degli undervolt senza sacrificare in frequenza come fatto con le nostre attuali. Già uno 0,1V in meno fa la differenza e molti le hanno tenute tipo a 0,950V invece che a 1,050V o anche più di default.
Ale55andr0
21-06-2022, 14:12
Puoi anche accroccare uno scambio con una 6700 xt rimettendoci 0 euro. :D
non credo interessi a nessuno, e cmq sono talmente vile e pigro che mi scoccia pure da un mero punto di vista logistico, e in ogni caso lo considererei (pour parler) solo con una 6750 visto che cmq va meno sia in raster che rt
Ale55andr0
21-06-2022, 14:14
Non per farmi i C tuoi, ma con quella CPU che hai in firma (onestamente venusiana gia' all'uscita visto che in single se la batteva con un 3570k) io penserei a un cambio CPU, anche giocando a 8k a campo minato avresti grossi miglioramenti.
quello è altro discorso ancora, parlo della gpu e da come la ha accroccata JJcosolà. E cmq c'è Raven che sta con un 3770 e 6800xt vai a stuzzicare lui non me che ho il doppio dei core :asd:
quello è altro discorso ancora, parlo della gpu e da come la ha accroccata JJcosolà. E cmq c'è Raven che sta con un 3770 e 6800xt vai a stuzzicare lui non me che ho il doppio dei core :asd:
:D Era un pensiero a voce alta piu' che altro vedendo la tua firma, ci mancherebbe, oltre che non farmi i C miei sono pure OT, e' che le ho avute un po' tutte le ultime CPU e davvero i primi Ryzen erano chiodi a quelle frequenze, quella VGA si merita ben altro :sofico:
raga vorrei comprare una 3080 ( su amazon) mi aiutate a scegliere quale? ho un 34" wqhd samsung come monitor :) vale la pena una 3080ti nel caso? grazie
FrancoBit
21-06-2022, 15:23
raga vorrei comprare una 3080 ( su amazon) mi aiutate a scegliere quale? ho un 34" wqhd samsung come monitor :) vale la pena una 3080ti nel caso? grazie
Azzo se passavi ieri c'erano le FE 3080 a msrp (760€) su ldlc (droppone Nvidia).
Non controllo più grazie al cielo lo status dei prezzi di ampere, considera comunque nel caso che le FE 3080ti sono a msrp su ldlc, certo non regalate ma almeno non rincarate dai vendor.
Azzo se passavi ieri c'erano le FE 3080 a msrp (760€) su ldlc (droppone Nvidia).
Non controllo più grazie al cielo lo status dei prezzi di ampere, considera comunque nel caso che le FE 3080ti sono a msrp su ldlc, certo non regalate ma almeno non rincarate dai vendor.
ma saranno andate a ruba no? non credo che avrei avuto la fortuna di beccarne una XD
mikael84
21-06-2022, 15:30
Ma sì, mal che vada via di 4070 e bon. Se va più della 3080, ha più vram e a consumi dovesse essere pure meglio applicando il solito undervolt intelligente....ben venga :sofico:
Tanto non mi pare che al momento il 2023 sia un esempio di "era dorata" per dei nuovi giochi rivoluzionari.
Ci mancherebbe:p
Per l'undervolt, se uno vuole scendere tanto, basta adeguarsi alla tensione e clock del boost base.:)
Mah, io per prendere una 4070 resterei con la 3080 e aspetterei la 4080ti, per poi prendere, se la 4080ti fosse proibitiva, una 4080 liscia che dovrebbe a quel punto calare di prezzo. La 4070 non credo andrà molto di più di una 3080.
E poi non andrei su una scheda a 192 bit sinceramente... stiamo parlando del bus di una 3060 liscia e anche se mettono la cache come fa AMD restano sempre belli strozzati.
Già una 4080 liscia a 256 non è che mi inscimmi più di tanto però magari quella si può valutare se avrà almeno 10752cc.
Ieri ho speso mezz'ora per uno sguardo alla microarchitettura come viene riportata dai rumors, e la differenza in quel caso sarebbe abbastanza elevata.
A pari microarchitettura AD104 full prenderebbe la 3080 con soli 1950mhz di boost base.
A interi scorporati AD104 avrebbe 7680 cuda core + INT (un turing 2.0), mentre la 3080 5500 cuda (medi) + INT... 20,5/21TF, infatti va come la 6800xt che ne ha 20,5/21.
E' ancora tutto da vedere a livello di performance, ricordo che AMD lancerà navi 31 con 12288 shader, e già quello a 4096 andrà come la 6900xt a 230watt.:)
ninja750
21-06-2022, 15:31
non credo interessi a nessuno, e cmq sono talmente vile e pigro che mi scoccia pure da un mero punto di vista logistico, e in ogni caso lo considererei (pour parler) solo con una 6750 visto che cmq va meno sia in raster che rt
quanti giochi RT maxed out hai platinato con la 3070? :O
FrancoBit
21-06-2022, 15:32
ma saranno andate a ruba no? non credo che avrei avuto la fortuna di beccarne una XD
Son durate un buon quarto d'ora, alcuni utenti l'hanno segnalato e son riusciti a prenderle. Da chiedersi se ci sarà qualche altro droppone. PEr il resto su amazon mi sembra che siamo sempre sui 1.000 e passa per le 10Gb o sbaglio? Io purtroppo le ho strapagate entrambe, quindi ad oggi personalente mi prenderei una FE, chiaro però che son 100-150 euro in più, ma non trascurerei la vram da 12 rispetto ai 10
Son durate un buon quarto d'ora, alcuni utenti l'hanno segnalato e son riusciti a prenderle. Da chiedersi se ci sarà qualche altro droppone. PEr il resto su amazon mi sembra che siamo sempre sui 1.000 e passa per le 10Gb o sbaglio? Io purtroppo le ho strapagate entrambe, quindi ad oggi personalente mi prenderei una FE, chiaro però che son 100-150 euro in più, ma non trascurerei la vram da 12 rispetto ai 10
perdonami non sono pratico le FE sarebbero le founder edition? e van di più o meno? grazie :=)
FrancoBit
21-06-2022, 15:40
perdonami non sono pratico le FE sarebbero le founder edition? e van di più o meno? grazie :=)
Si sono le founders Edition, vanno benissimo, ti metto il link di Nvidia, in cui sono riportate le disponibilità, purtroppo ora solo per 3080ti e 3090ti:
https://store.nvidia.com/it-it/geforce/store/gpu/?page=1&limit=9&locale=it-it&category=GPU
mikael84
21-06-2022, 15:40
Azzo se passavi ieri c'erano le FE 3080 a msrp (760€) su ldlc (droppone Nvidia).
Non controllo più grazie al cielo lo status dei prezzi di ampere, considera comunque nel caso che le FE 3080ti sono a msrp su ldlc, certo non regalate ma almeno non rincarate dai vendor.
Ho controllato lo storico, e le 3080 sono abbastanza rare.
Piuttosto mi sono ricordato il perchè non avevo voglia di sbattermi quando mi ha avvisato del drop di 3060ti alle 22.28, ho provato a clickare in una frazione di secondo, ed erano esaurite.:asd:
FrancoBit
21-06-2022, 15:42
Ho controllato lo storico, e le 3080 sono abbastanza rare.
Piuttosto mi sono ricordato il perchè non avevo voglia di sbattermi quando mi ha avvisato del drop di 3060ti alle 22.28, ho provato a clickare in una frazione di secondo, ed erano esaurite.:asd:
Ah certo assolutamente Mike, prima di ieri non ho mai visto le 3080 disponibili. Giusto le 3080ti a ottobre (mi sembra) quando uscirono e un mio collega la prese al volo.
Si sono le founders Edition, vanno benissimo, ti metto il link di Nvidia, in cui sono riportate le disponibilità, purtroppo ora solo per 3080ti e 3090ti:
https://store.nvidia.com/it-it/geforce/store/gpu/?page=1&limit=9&locale=it-it&category=GPU
allora compro la ti a 1269 che ne dici? ho budget di 1500 sto risparmiando :D
mikael84
21-06-2022, 15:53
Ah certo assolutamente Mike, prima di ieri non ho mai visto le 3080 disponibili. Giusto le 3080ti a ottobre (mi sembra) quando uscirono e un mio collega la prese al volo.
Idem.
In compenso la 3070ti è durata addirittura sino a sera. Un paio d'ore.
Sopra, le 3080ti/3090 e 3090ti sono sempre disponibili, anche ora.
Questo è un segnale che con un minimo di disponibilità, non si potrà tirare troppo la corda.:)
FrancoBit
21-06-2022, 15:58
allora compro la ti a 1269 che ne dici? ho budget di 1500 sto risparmiando :D
Io nei tuoi panni lo farei ma non voglio inscimmiare per carità, magari senti il parere anche di altri. Il mio ragionamento è che tra 1000-1100 per una 3080 con 10gb, vs 1300 per una 3080ti 12gb vale la pena fare lo scalino. Magari aspetta se qualcun'altro che ha una FE ha qualcosa da segnalarti, che io sappia vanno bene.
ALtro PS, non so quanto tu sia x Nvidia, ma va consiedrata anche una 6900xt a 1000 euro Sapphire Nitro SE, offtopic (sorry) ma da considerare.
mikael84
21-06-2022, 16:40
Intanto Kopite
Certo che anche in OC sarebbe davvero tanta roba.
https://i.postimg.cc/9MfWfvHQ/kop.png
Ale55andr0
21-06-2022, 18:21
quanti giochi RT maxed out hai platinato con la 3070? :O
CP2077, se ci campo la remaster di TW3 che esce entro l'anno e tutti gli altri altri a venire che saranno tutti RT, perchè si', gioco guardando avanti, non dietro. Cmq non è necessario maxarlo l'RT per mettere in difficoltà la 6700xt , semplicemente l'implementazione AMD è inadeguata in quella fascia, e in quelle superiori in RT "vero" se la gioca stentatamente con la mia ma in quel caso si' che basta togliere una tacca e via, con la 6700 si deve togliere e basta...
Ale55andr0
21-06-2022, 18:31
Intanto Kopite
Certo che anche in OC sarebbe davvero tanta roba.
https://i.postimg.cc/9MfWfvHQ/kop.png
non vedo perchè. Già ora le 6000 amd le tiri a livelli non lontani da quel numero con 7nm
mikael84
21-06-2022, 20:34
non vedo perchè. Già ora le 6000 amd le tiri a livelli non lontani da quel numero con 7nm
Non è semplicissimo aumentare i clock di oltre il 40% in un circuito molto denso.
AMD ha avuto un bel boost per via del passaggio ai 7nmP ed alla rivisitazione della microarchitettura che riguarda le dispersioni. In seguito alla maturazione del PP ed al passaggio all'EUV ha toccato anche 2,9.
Nvidia con samsung è rimasta ferma praticamente ai clock dei 16/12nm.
ninja750
22-06-2022, 08:42
CP2077
ok quindi uno :O ah io l'ho giocato e finito 100% RT off, molto bello!
Ale55andr0
22-06-2022, 09:11
ok quindi uno :O ah io l'ho giocato e finito 100% RT off, molto bello!
visivamente hai perso il punto forte (il solo a dire il vero :asd: ) del suo motore :O
anyway no hai problema, ho giocato anche titoli raster dove sto cmq davanti la 6700 :O
Cutter90
22-06-2022, 09:20
visivamente hai perso il punto forte (il solo a dire il vero :asd: ) del suo motore :O
anyway no hai problema, ho giocato anche titoli raster dove sto cmq davanti la 6700 :O
Ormai la scusa del "tanto i titoli in rt sono pochi e non si vede la differenza" non tiene davvero più. Ormai ce ne sono a pacchi e ce ne saranno sempre di più, oltre ovviamente alla questione dlss....
Ormai la scusa del "tanto i titoli in rt sono pochi e non si vede la differenza" non tiene davvero più. Ormai ce ne sono a pacchi e ce ne saranno sempre di più, oltre ovviamente alla questione dlss....Vabbè l'FSR 2.0 ha già ridotto il gap dal dlss, quest'ultimo ha ancora una resa migliore però siamo già a un buon livello, soprattutto considerando che è open-source e gira praticamente ovunque apu comprese.
Sul RT incrocio le dita che alla prossima sfornata anche AMD dica la sua, le attuali 6000 hanno un crollo fin troppo elevato, ok la potenza raster ma quest'ultima non è tutto...
Inviato dal mio DBY-W09 utilizzando Tapatalk
Cutter90
22-06-2022, 10:05
Vabbè l'FSR 2.0 ha già ridotto il gap dal dlss, quest'ultimo ha ancora una resa migliore però siamo già a un buon livello, soprattutto considerando che è open-source e gira praticamente ovunque apu comprese.
Sul RT incrocio le dita che alla prossima sfornata anche AMD dica la sua, le attuali 6000 hanno un crollo fin troppo elevato abilitando il RT...
E avere più competizione non fa mai male.
Inviato dal mio DBY-W09 utilizzando Tapatalk
Fsr 2.0 ha ridotto il gap, ma di fatto non c'è nei giochi sponsorizzati nvidia. Il che significa che il vantaggio del dlss rimane dato che i giochi nvidia, di solito, sono quelli migliori e con il miglior rt
ninja750
22-06-2022, 10:53
visivamente hai perso il punto forte (il solo a dire il vero :asd: ) del suo motore :O
l'ho provato e ho preferito maxare in raster rispetto a perdere troppo in RT
per avere un framerate decente avrei dovuto giocare tipo a medio e a quel punto tantovale
Ale55andr0
22-06-2022, 11:23
Ormai la scusa del "tanto i titoli in rt sono pochi e non si vede la differenza" non tiene davvero più. Ormai ce ne sono a pacchi e ce ne saranno sempre di più, oltre ovviamente alla questione dlss....
eh sai com'è, varia in base al "credo" :asd: ora cmq c'è FSR 2.0 che funziona bene pare, quindi adesso conta l'upscaling come feature :asd:
Io cmq sono ateo, a mia volta (ri-ri)dico che gli 8gb della 3070 sono un barzelletta, senza ne ma.
In questa generazione le schede della fascia 500-600 hanno ognuna a suo modo dei grossi handicap. Uno schifo. Manco uno avesse speso 300 euro
Cutter90
22-06-2022, 11:26
eh sai com'è, varia in base al "credo" :asd: ora cmq c'è FSR 2.0 che funziona bene pare, quindi adesso conta l'upscaling come feature :asd:
Io cmq sono ateo, a mia volta (ri-ri)dico che gli 8gb della 3070 sono un barzelletta, senza ne ma.
In questa generazione le schede della fascia 500-600 hanno ognuna a suo modo dei grossi handicap. Uno schifo. Manco uno avesse speso 300 euro
Diciamo che la 3070 non era gpu per il 4k in teoria. certo è che 10 gb glieli potevano mettere tranquillamente
Ale55andr0
22-06-2022, 11:41
Diciamo che la 3070 non era gpu per il 4k in teoria. certo è che 10 gb glieli potevano mettere tranquillamente
nemmeno le nuove console sono davvero per il 4k nativo, non per questo hanno lesinato con la ram . Si', si' lo so che non è tutto frame buffer dedicato alla gpu, ma possono usare per la grafica più Gb di una GPU con 8, lo trovo ridicolo. Una scelta stupida di nvidia. Comunque mi fermo qui perchè ho già tediato abbastanza in merito e la posizione credo sia ben chiara ormai. la conluzione è che sia 6700 che 3070 a fronte di un prezzo per nulla basso hanno alcuni limiti francamente non tollerabili in quella fascia
ninja750
22-06-2022, 11:49
sia 6700 che 3070 a fronte di un prezzo per nulla basso hanno alcuni limiti francamente non tollerabili in quella fascia
che verranno risolti con le 7700 e 4070, solamente a un centone MSRP in più :O
mikael84
22-06-2022, 12:23
Diciamo che la 3070 non era gpu per il 4k in teoria. certo è che 10 gb glieli potevano mettere tranquillamente
La ram va in base al bus, 256 bit, o 8 o 16.:)
che verranno risolti con le 7700 e 4070, solamente a un centone MSRP in più :O
Insomma, la 7700xt si spera sistemi il RT, ma per via del bus deve mettere 8gb.
Davvero allucinante mettere un bus così piccolo in una scheda di quel calibro. Considerando che la possibilità di RT superiore, è un altro bel macigno da sostenere in banda.
nemmeno le nuove console sono davvero per il 4k nativo, non per questo hanno lesinato con la ram . Si', si' lo so che non è tutto frame buffer dedicato alla gpu, ma possono usare per la grafica più Gb di una GPU con 8, lo trovo ridicolo. Una scelta stupida di nvidia. Comunque mi fermo qui perchè ho già tediato abbastanza in merito e la posizione credo sia ben chiara ormai. la conluzione è che sia 6700 che 3070 a fronte di un prezzo per nulla basso hanno alcuni limiti francamente non tollerabili in quella fascia
La cosa più logica, sarebbe stato far decidere ai partner la quantità di ram da montare, come si faceva un tempo. Es: 580 da 3gb/680 da 4gb/780 da 6gb etc.
Ale55andr0
22-06-2022, 13:08
che verranno risolti con le 7700 e 4070, solamente a un centone MSRP in più :O
la 7700 è data per 8 dai 12 della 6700 :asd: cmq si, probabilmente chiederanno cmq un centone in più :sofico:
Leggete: crypto mining collapse (https://www.guru3d.com/news-story/collapse-of-crypto-mining-industry-leads-to-auctioning-off-of-thousands-of-graphics-cards.html)
Certo è che di questi tempi amd a nvidia non potranno calcare tanto sui prezzi se no ne venderanno davvero poche delle nuove vga. Voi che dite?
la 7700 è data per 8 dai 12 della 6700 :asd: cmq si, probabilmente chiederanno cmq un centone in più :sofico:
Più che altro dovrebbe andare come la 6900xt e avere 8GB :sofico:
Mentre Nvidia in teoria dovrebbe offrire gli stessi quantitativi di vram nello stesso target di prestazioni.
Poi chissà, nulla vieta ad AMD di fare più tagli di memoria e vendere anche le varianti in clamshell, cosa già vista in passato con la serie 300 e 500, e anche come costi le GDDR6 dovrebbero essere molto più abbordabili delle GDDR6X, il che anche su un 128bit rende possibili i 16GB di vram.
Dando per buoni i leak di 420-450w TBP per AD103 (4080) realisticamente basterá un ali da 850w abbinato ad 12700 non k? o meglio 1000w?
Devo prendere subito un alimentatore nuovo che dovrá durarmi per anni :)
FrancoBit
22-06-2022, 16:14
Dando per buoni i leak di 420-450w TBP per AD103 (4080) realisticamente basterá un'ali da 850w abbinato ad 12700 non k? o meglio 1000w?
Devo prendere subito un alimentatore nuovo che dovrá durarmi per anni :)
Magari se riesci aspetta giusto l'uscita delle schede, o almeno capire se serviranno i nuovi contatti pcix 5 per l'alimentazione. Sicuramente se punti a una fascia alta. In modo da acquistare un alimentatore future proof
https://www.hwupgrade.it/news/periferiche/il-connettore-pci-express-50-delle-future-gpu-in-bella-mostra-su-un-alimentatore-msi_104749.html
Dando per buoni i leak di 420-450w TBP per AD103 (4080) realisticamente basterá un ali da 850w abbinato ad 12700 non k? o meglio 1000w?
Devo prendere subito un alimentatore nuovo che dovrá durarmi per anni :)
Qua in molti ti diranno di prenderlo da 8kw (parleranno anche giustamente di picchi, condensatori che si scaricano, efficenza, tempeste elettromagnetiche etc), la verita' e' che in pratica le 3080 si gestivano anche con un buon 600W sfx, senza andare nei casi limiti, prendilo di qualita' e non avrai problemi.
Some testing: https://www.youtube.com/watch?v=Bdohv96uGLw
In sostanza priorita' alla qualita' della PSU piuttosto che ai W dichiarati.
mikael84
22-06-2022, 16:25
Più che altro dovrebbe andare come la 6900xt e avere 8GB :sofico:
Mentre Nvidia in teoria dovrebbe offrire gli stessi quantitativi di vram nello stesso target di prestazioni.
Poi chissà, nulla vieta ad AMD di fare più tagli di memoria e vendere anche le varianti in clamshell, cosa già vista in passato con la serie 300 e 500, e anche come costi le GDDR6 dovrebbero essere molto più abbordabili delle GDDR6X, il che anche su un 128bit rende possibili i 16GB di vram.
E' qua che nasce il problema relativo alla microarchitettura che vorrei vedere confermata.
Si ragiona sempre in 1:1, ma sarebbe 4096 vs 7680cc o circa, e quella da 12,3 navi31 (3 volte tanto) come la prendi.:sofico:
Partendo dalla full 18,4k cc, il rapporto di 1/3 sarebbe 6144cc (quella che sarebbe dovuta essere la x60), mentre dal rapporto 16128, diverrebbe 5300cc:)
Magari se riesci aspetta giusto l'uscita delle schede, o almeno capire se serviranno i nuovi contatti pcix 5 per l'alimentazione. Sicuramente se punti a una fascia alta. In modo da acquistare un alimentatore future proof
https://www.hwupgrade.it/news/periferiche/il-connettore-pci-express-50-delle-future-gpu-in-bella-mostra-su-un-alimentatore-msi_104749.html
Concordo, facendo la spesa ora, meglio prenderne uno con cavo nativo, anche per evitarsi gli adattatori da 3/4x8 pin.
Ma da un punto di vista tecnico, la quantità di ram non viene influenzata anche da bus e tipo di ram? Chiaramente casi vicini, non 16gb g4 vs. 20gb g6x
Mi spiego meglio, in qualche modo un bus maggiorato a 320bit e delle ram g6x a 20gbps e quindi 10gb non sono "vicine" a 14/16 gb, conseguente bus e ram g6 a 16gbps?
Aumentando la banda e velocità di elaborazione, non rendono meno importante la quantità? Le informazioni non vengono gestite prima e quindi svuotata la coda?
Concordo, facendo la spesa ora, meglio prenderne uno con cavo nativo, anche per evitarsi gli adattatori da 3/4x8 pin.
Qua in molti ti diranno di prenderlo da 8kw (parleranno anche giustamente di picchi, condensatori che si scaricano, efficenza, tempeste elettromagnetiche etc), la verita' e' che in pratica le 3080 si gestivano anche con un buon 600W sfx, senza andare nei casi limiti, prendilo di qualita' e non avrai problemi.
Some testing: https://www.youtube.com/watch?v=Bdohv96uGLw
In sostanza priorita' alla qualita' della PSU piuttosto che ai W dichiarati.
Magari se riesci aspetta giusto l'uscita delle schede, o almeno capire se serviranno i nuovi contatti pcix 5 per l'alimentazione. Sicuramente se punti a una fascia alta. In modo da acquistare un alimentatore future proof
https://www.hwupgrade.it/news/periferiche/il-connettore-pci-express-50-delle-future-gpu-in-bella-mostra-su-un-alimentatore-msi_104749.html
So che sarebbe meglio aspettare ma non posso, per i contatti nuovi le nuove schede avranno sicuro gli adattatori e amen.
Sicuro sará di qualitá, ho letto mille test e pensavo ad un corsair RM850x...ma il 1000x costa solo 30 euro in piú.
FrancoBit
22-06-2022, 16:44
So che sarebbe meglio aspettare ma non posso, per i contatti nuovi le nuove schede avranno sicuro gli adattatori e amen.
Sicuro sará di qualitá, ho letto mille test e pensavo ad un corsair RM850x...ma il 1000x costa solo 30 euro in piú.
Io ho un rm850x dal 2017 e mi trovo bene. Certo per 30€ in più un 1000 alla fine ci sta..
Ma da un punto di vista tecnico, la quantità di ram non viene influenzata anche da bus e tipo di ram? Chiaramente casi vicini, non 16gb g4 vs. 20gb g6x
Mi spiego meglio, in qualche modo un bus maggiorato a 320bit e delle ram g6x a 20gbps e quindi 10gb non sono "vicine" a 14/16 gb, conseguente bus e ram g6 a 16gbps?
Aumentando la banda e velocità di elaborazione, non rendono meno importante la quantità? Le informazioni non vengono gestite prima e quindi svuotata la coda?
Considera che la 6900xt è vero che ha un bus a 256bit quindi in teoria avrebbe il doppio della BW o quasi della 7700xt, ma quest'ultima passa a ben 256MB di cache L3 rispetto ai 128 della 6900xt.
Il che va a sopperire, poi è da vedere nelle review, è chiaro che la 6900xt è molto più muscle quindi in specifici scenari potrebbe comunque avere dei vantaggi.
Per il resto che tu abbia 16gb su un 128bit o su un 256bit non ti cambia nulla sull'allocamento.
E' qua che nasce il problema relativo alla microarchitettura che vorrei vedere confermata.
Si ragiona sempre in 1:1, ma sarebbe 4096 vs 7680cc o circa, e quella da 12,3 navi31 (3 volte tanto) come la prendi.:sofico:
Partendo dalla full 18,4k cc, il rapporto di 1/3 sarebbe 6144cc (quella che sarebbe dovuta essere la x60), mentre dal rapporto 16128, diverrebbe 5300cc:)
Bisogna anche capire come scalano questi chip, in questa gen sia per Nvidia che per AMD la densità è enorme e anche i clock non sembrano essere da meno.
Francamente ho molti dubbi che in game lo scaling sia cosi lineare.
mikael84
22-06-2022, 17:27
Qua in molti ti diranno di prenderlo da 8kw (parleranno anche giustamente di picchi, condensatori che si scaricano, efficenza, tempeste elettromagnetiche etc), la verita' e' che in pratica le 3080 si gestivano anche con un buon 600W sfx, senza andare nei casi limiti, prendilo di qualita' e non avrai problemi.
Some testing: https://www.youtube.com/watch?v=Bdohv96uGLw
In sostanza priorita' alla qualita' della PSU piuttosto che ai W dichiarati.
Esatto.
I fattori predominanti sono la qualità ed i circuiti di protezione integrati e la loro capacità di gestire sia i picchi alti sia quelli minimi, per via delle tensioni fluttuanti quando scendi sino a 11,1v.
Ingigantire il tutto non serve neppure troppo soprattutto a linea singola. Ci vuole il giusto e di qualità, in base alle esigenze.
Chiudo OT
Ma da un punto di vista tecnico, la quantità di ram non viene influenzata anche da bus e tipo di ram? Chiaramente casi vicini, non 16gb g4 vs. 20gb g6x
Mi spiego meglio, in qualche modo un bus maggiorato a 320bit e delle ram g6x a 20gbps e quindi 10gb non sono "vicine" a 14/16 gb, conseguente bus e ram g6 a 16gbps?
Aumentando la banda e velocità di elaborazione, non rendono meno importante la quantità? Le informazioni non vengono gestite prima e quindi svuotata la coda?
No il rapporto BW/ram non centra nulla. 10 rimangono 10 così come 16 rimangono 16, al massimo può cambiare l'allocazione.
Aumentare la banda cozza con un'argomento che ha mille rami, come il warp stall.
Ciò che fa la differenza è l'attesa dei warp in cui riescono ad accedere alla cache o alla BW.
Basta che spari un superposition e puoi vedere quanto sia sottosfruttata la BW, di conseguenza l'usage sarà basso.
Per un utilizzo elevato delle ALU, dovresti occupare grandi porzioni di banda, se sei molto sotto sei limitato dalle latenze, ed il modo per velocizzare il tutto è creare delle cache.
Alcune volte, può essere deleterio pure passare da 14 a 16 o 18gb/s, in quanto possono spararti delle latenze più alte e la BW effettiva sarà inferiore con le ram più veloci.
Infatti molti si lamentano sempre delle ram scarse installate, ma ovviamente bisogna tenere conto delle latenze.
Se io ti dò delle 3200 e delle 3600, non sapendo delle latenze, tu vorresti le 3600, però la prima è cl14, l'altra cl18, di conseguenza con la prima avresti 8,7nm con l'altra 10.:p
Ale55andr0
22-06-2022, 17:56
Qua in molti ti diranno di prenderlo da 8kw (parleranno anche giustamente di picchi, condensatori che si scaricano, efficenza, tempeste elettromagnetiche etc), la verita' e' che in pratica le 3080 si gestivano anche con un buon 600W sfx, senza andare nei casi limiti, prendilo di qualita' e non avrai problemi.
Some testing: https://www.youtube.com/watch?v=Bdohv96uGLw
In sostanza priorita' alla qualita' della PSU piuttosto che ai W dichiarati.
che poi, ma proprio a prescindere dall'alimentatore, con un po' di undervolt levi 60-70w vai quasi uguale e scaldi un botto meno.
mikael84
22-06-2022, 18:21
Bisogna anche capire come scalano questi chip, in questa gen sia per Nvidia che per AMD la densità è enorme e anche i clock non sembrano essere da meno.
Francamente ho molti dubbi che in game lo scaling sia cosi lineare.
Usa come rapporto la 6950xt vs 6700xt liscia (hanno più o meno lo stesso clock) e guarda quanto ci passa. Sono 2x gli stadi moltiplicatori con la prima che ha 64 bit in più.
Tra 7800xt e 7700xt ci passa il doppio anche sul bus, ed il primo potrebbe avere clock superiori per via dei 5nm.
Se le contendenti sono AD103 vs navi32 (7800xt), si può fare qualche stima verso il basso, considerando che tale chip (della x70) è a cavallo con schede con 4800/5800cc.:)
che poi, ma proprio a prescindere dall'alimentatore, con un po' di undervolt levi 60-70w vai quasi uguale e scaldi un botto meno.
Se si vogliono tagliare di netto i consumi, basta allinearsi al base boost sia in tensione che in clock (certo qualcosa si perde inevitabilmente).
Ale55andr0
22-06-2022, 20:06
Se si vogliono tagliare di netto i consumi, basta allinearsi al base boost sia in tensione che in clock (certo qualcosa si perde inevitabilmente).
vabè dai, una via di mezzo, il clock base è lontano dal boost effettivo, così quasi la scali di una fascia :sofico:
Per dire io avessi una 3090 la terrei sui 1800 e vivrei felice...quel mio "famoso" cugino che mi ha fatto prendere la 3070 grazie all'amico rivenditore ora ha una 3080ti FE su 5950x (preso usato a 330 dal medesimo), mamma mia che bestia, volaaaaa
mikael84
22-06-2022, 20:28
vabè dai, una via di mezzo, il clock base è lontano dal boost effettivo, così quasi la scali di una fascia :sofico:
Per dire io avessi una 3090 la terrei sui 1800 e vivrei felice...quel mio "famoso" cugino che mi ha fatto prendere la 3070 grazie all'amico rivenditore ora ha una 3080ti FE su 5950x (preso usato a 330 dal medesimo), mamma mia che bestia, volaaaaa
Infatti base boost non base clock.:)
Es: 3070: base clock 1500 (0,75v) - boost 1725mhz (valore compreso tra i 0,85/0,87v), dopo c'è il boost per tensione finale 1,08v/1,1v
Chiaramente è giusto per avere cali significativi, perdendo max un 10% di perf.:)
Per il resto un ottimo rapporto di transistor è 0,9/1900.
amon.akira
23-06-2022, 08:23
nvidia-geforce-rtx-4090-4080-4070-get-new-rumored-specs-rtx-4070-with-7168-cores-and-10gb-160-bit-memory (https://videocardz.com/newz/nvidia-geforce-rtx-4090-4080-4070-get-new-rumored-specs-rtx-4070-with-7168-cores-and-10gb-160-bit-memory)
OrazioOC
23-06-2022, 08:29
nvidia-geforce-rtx-4090-4080-4070-get-new-rumored-specs-rtx-4070-with-7168-cores-and-10gb-160-bit-memory (https://videocardz.com/newz/nvidia-geforce-rtx-4090-4080-4070-get-new-rumored-specs-rtx-4070-with-7168-cores-and-10gb-160-bit-memory)
Onestamente sarebbe carina con una conf. 12gb/192 bit, ma così è abbastanza strana, forse 12gb/192 bit sarà la 4070 ti nel 2023?:rolleyes:
Comunque non mi aspetto chissà che cosa, sarà una simil 3080 in salsa ada, il problema sarà il prezzo, preferireste una 3080 droppata a 7/800 euro, o questa?
ninja750
23-06-2022, 08:44
Dando per buoni i leak di 420-450w TBP per AD103 (4080) realisticamente basterá un ali da 850w abbinato ad 12700 non k? o meglio 1000w?
Devo prendere subito un alimentatore nuovo che dovrá durarmi per anni :)
guarda, il capellone ha appena fatto sta settimana un esaustivo video sul tubo che ti raccomando vivamente di guardare (anzi raccomando a tutti)
https://smallformfactor.net/wp-content/uploads/Screenshot-2022-06-22-at-10-02-30-The-Brewing-Problem-with-GPU-Power-Design-Transients-768x392.png
https://smallformfactor.net/news/gamers-nexus-investigates-gpu-transient-power-spikes-aka-crash/
già sulle 3000 i transient sono roba allucinante tipo 660w per la 3090 figurati le 4000 dove ipotizza roba poco sotto il kw (!!)
se già hai in mente la 4080, vai direttamente di 1000w
guarda, il capellone ha appena fatto sta settimana un esaustivo video sul tubo che ti raccomando vivamente di guardare (anzi raccomando a tutti)
https://smallformfactor.net/wp-content/uploads/Screenshot-2022-06-22-at-10-02-30-The-Brewing-Problem-with-GPU-Power-Design-Transients-768x392.png
https://smallformfactor.net/news/gamers-nexus-investigates-gpu-transient-power-spikes-aka-crash/
già sulle 3000 i transient sono roba allucinante tipo 660w per la 3090 figurati le 4000 dove ipotizza roba poco sotto il kw (!!)
se già hai in mente la 4080, vai direttamente di 1000w
Confermo il problema. Corsair 1000W, 2x 3080 nel sistema e, quando le carico al 100% per computazione con cuda, mi capita che vada in shutdown il sistema. :muro:
L'intero sistema non consuma più di 600W alla presa sotto carico.
Buongiorno a tutti,
secondo voi ha senso acquistare in questo periodo una 3060 ti? Magari FE da un fantomatico drop.
Io al momento ho Una 1660s PNY (singola ventola) che mi ha dato molti grattacapi con la ventola (rattling) e vorrei cambiare per disperazione (ho comprato pure il ricambio dalla cina e dopo 2 settimane ha ricominciato a fare lo stesso rumore).
Sono un casual gamer e gioco in FHD (fino a 144HZ), quindi c'è da dire che non ho particolari urgenze, e potrei valutare di attendere un paio di mesi.
Buongiorno a tutti,
secondo voi ha senso acquistare in questo periodo una 3060 ti? Magari FE da un fantomatico drop.
Io al momento ho Una 1660s PNY (singola ventola) che mi ha dato molti grattacapi con la ventola (rattling) e vorrei cambiare per disperazione (ho comprato pure il ricambio dalla cina e dopo 2 settimane ha ricominciato a fare lo stesso rumore).
Sono un casual gamer e gioco in FHD (fino a 144HZ), quindi c'è da dire che non ho particolari urgenze, e potrei valutare di attendere un paio di mesi.
Togli le ventoline della scheda, piazzaci su 2 ventole da 12 ad rpm fissi e vivi felice fino a quando non usiranno le serie 4000. ;)
Buongiorno a tutti,
secondo voi ha senso acquistare in questo periodo una 3060 ti? Magari FE da un fantomatico drop.
Io al momento ho Una 1660s PNY (singola ventola) che mi ha dato molti grattacapi con la ventola (rattling) e vorrei cambiare per disperazione (ho comprato pure il ricambio dalla cina e dopo 2 settimane ha ricominciato a fare lo stesso rumore).
Sono un casual gamer e gioco in FHD (fino a 144HZ), quindi c'è da dire che non ho particolari urgenze, e potrei valutare di attendere un paio di mesi.
premesso che ognuno ha le proprie esigenze.
Io personalmente ho la 3060ti e per le mie esigenze (FHD) va da dio. Scalda poco, abbastanza silenziosa (ho una zotac biventola). Sono super soddisfatto tanto che di una scheda più potente non me ne farei niente.
Questo aggiunto al fatto che ho avuto la fortuna di pagarla nuova 400 euro 18 mesi fa , l'ha resa la migliore scelta da anni a questa parte.
Tieni presente che gioco a FS2020 tutto al max e non ho incertezze, oltre a quelche partita ad elder ring. Altri giochi non ti so dire in quanto gioco molto poco
OrazioOC
23-06-2022, 10:33
Buongiorno a tutti,
secondo voi ha senso acquistare in questo periodo una 3060 ti? Magari FE da un fantomatico drop.
Io al momento ho Una 1660s PNY (singola ventola) che mi ha dato molti grattacapi con la ventola (rattling) e vorrei cambiare per disperazione (ho comprato pure il ricambio dalla cina e dopo 2 settimane ha ricominciato a fare lo stesso rumore).
Sono un casual gamer e gioco in FHD (fino a 144HZ), quindi c'è da dire che non ho particolari urgenze, e potrei valutare di attendere un paio di mesi.
Non se la devi pagare 600 euro, è una scheda che ha un senso oggi se la trovi a 450 massimo 500 spedita.
Ha più senso trovare sotto i 400 una 6600 xt o a 550 una 6700 xt, rivendendo la tua a 150/180 euro(il difetto della ventola è sormontabile) non ci rimetteresti neanche troppo.
Usa come rapporto la 6950xt vs 6700xt liscia (hanno più o meno lo stesso clock) e guarda quanto ci passa. Sono 2x gli stadi moltiplicatori con la prima che ha 64 bit in più.
Tra 7800xt e 7700xt ci passa il doppio anche sul bus, ed il primo potrebbe avere clock superiori per via dei 5nm.
Se le contendenti sono AD103 vs navi32 (7800xt), si può fare qualche stima verso il basso, considerando che tale chip (della x70) è a cavallo con schede con 4800/5800cc.:)
Diciamo che è abbastanza complessa la cosa, la 7700xt con i suoi 4096 core potrebbe anche non riuscire a tenere testa a un AD104 full, francamente ho anche qualche dubbio che riesca a eguagliare una 6900xt che è molto più muscle, penso sia più probabile che se la giochi con la 6800/XT.
Allo stesso modo Navi 32 e Navi 31 sono nettamente più grossi, Navi 32 è un 2x4096 e Navi 31 2x6144, l'assenza di un chip da 6144 core monolitico mi fa anche pensare che ci siano molti scarti di Navi 32, che appunto dovrebbero vedersela con AD103 o il full chip AD104.
Alla fine anche nell'attuale generazione la 6700xt si trova spesso li con 3060ti più che 3070, senza contare il RT dove crolla tutto.
Dai recenti rumors sembra infatti che mentre sulla 4070 nvidia si è divertita a laserare ha tolto ben 512cc e bus ridotto a 160bit, probabilmente proprio per la bassa concorrenza con la 7700xt, ma la stessa cosa sembra non sarà attuata sulla 4080 che mantiene il full chip e i 256bit.
Ho la sensazione che gran parte della concorrenza si addenserà sui chip top di gamma, e poi tutti gli scarti li adatteranno alla meglio per coprire le fasce inferiori, potremmo anche vedere un ritorno delle Super dopo un anno XD
Thunder-74
23-06-2022, 10:44
La 4070 così massacrata, anche no.
A me sta venendo la scimmia per la 4090 visto che questa volta il salto è grosso dalla 4080, ma se il Delta prezzo è maggiore del Delta prestazioni, rimane lì.
Inviato dal mio iPad utilizzando Tapatalk
Io spero vivamente che quelle specifiche della 4070 siano un mix tra 4060ti e 4070.
Posso capire un cut a 7168cc, ma il bus sulla 4070 andrebbe lasciato a 192bit cosi proposta è un massacro, la 970 con 3.5+0.5gb era messa meglio XD...
Una cosa del genere posso aspettarmela sulla 4060ti per renderla praticamente 1 a 1 con 3080, il che è accettabile in previsione di prezzi anche più concorrenziali.
Thunder-74
23-06-2022, 11:12
Io spero vivamente che quelle specifiche della 4070 siano un mix tra 4060ti e 4070.
Posso capire un cut a 7168cc, ma il bus sulla 4070 andrebbe lasciato a 192bit cosi proposta è un massacro, la 970 con 3.5+0.5gb era messa meglio XD...
Una cosa del genere posso aspettarmela sulla 4060ti per renderla praticamente 1 a 1 con 3080, il che è accettabile in previsione di prezzi anche più concorrenziali.
Difatti era corretta con 12gb e bus da 192bit. Lo sarà la 4070ti magari
Inviato dal mio iPhone X utilizzando Tapatalk
FrancoBit
23-06-2022, 11:17
Io se non vedere almeno 16gb di vram non comprare niente
Difatti era corretta con 12gb e bus da 192bit. Lo sarà la 4070ti magari
Inviato dal mio iPhone X utilizzando Tapatalk
Boh, il fatto è che la 4080 sembra essere full chip quindi c'è un vuoto non indifferente tra 4070 e 4080.
A sto punto forse la 4070ti sarà un cut di AD103...
Thunder-74
23-06-2022, 11:29
Io se non vedere almeno 16gb di vram non comprare niente
Frá per noi o 4080 o 4090. C è poco da fare . La 4080ti non la prendo in considerazione perché se le indiscrezioni uscite fossero giuste, non sarebbe chissà quale salto dalla 4080. Magari poi esce una bella scheda su ad102 via di mezzo tra la 4080 e la 4090. Tutto da vedere
Inviato dal mio iPhone X utilizzando Tapatalk
FrancoBit
23-06-2022, 11:37
Frá per noi o 4080 o 4090. C è poco da fare . La 4080ti non la prendo in considerazione perché se le indiscrezioni uscite fossero giuste, non sarebbe chissà quale salto dalla 4080. Magari poi esce una bella scheda su ad102 via di mezzo tra la 4080 e la 4090. Tutto da vedere
Inviato dal mio iPhone X utilizzando Tapatalk
Per forza, visti i prezzi della 3090 penso più 4080. Sarei quasi tentato di saltarla e nel mentre fare upgrade a cpu-mother-ram... Vediamo un po' come vanno le cose. A me già i 10gb stanno sui maroni da quando è uscita..
nvidia-geforce-rtx-4090-4080-4070-get-new-rumored-specs-rtx-4070-with-7168-cores-and-10gb-160-bit-memory (https://videocardz.com/newz/nvidia-geforce-rtx-4090-4080-4070-get-new-rumored-specs-rtx-4070-with-7168-cores-and-10gb-160-bit-memory)
La 4070 è veramente lo scarto dello scarto, non va bene niente, 10 gb di ram sono una presa in giro.
scorpion73
23-06-2022, 12:00
Frá per noi o 4080 o 4090. C è poco da fare . La 4080ti non la prendo in considerazione perché se le indiscrezioni uscite fossero giuste, non sarebbe chissà quale salto dalla 4080. Magari poi esce una bella scheda su ad102 via di mezzo tra la 4080 e la 4090. Tutto da vedere
Inviato dal mio iPhone X utilizzando Tapatalk
Ma aspettare che esce la ti no?
La 4080 su GDDR6 mi sembra francamente una schifezza.
Passino (si fa per dire) i 256 bit, passino i core light cut, ma la ram dai...
Magari il salto prestazionale c'è pure, ma tecnologicamente resta una schifezza.
A sto giro l'unica scheda tecnologicamente valida mi sembra la 4090, ma visto che ci vorranno sei reni per prenderla direi che forse è più saggio aspettare la 4080ti.
Non so che indiscrezioni hai letto ma con una 4080 con 10240 core su 10752 disponibili io dubito che tirino fuori una ti su AD103...
Poi magari mi sbaglio eh.... giacchetta a sto giro avendo scalato le fasce ce la sta buttando nel di dietro l'ennesima volta... quella 4080 è una 4070 e a me sta cosa non mi va giù per niente.
La 4070 non la commento perché non sarei affatto gentile...
Boh a me sta generazione mi puzza sempre più di Fermi bis, magari mi sbaglierò ma questo declassamento di fasce è dovuto al fatto che non riescono a tirare fuori GPU con consumi decenti per le fasce di riferimento e quindi provano a tappare i buchi declassando, magari confortati da prestazioni +25%, ma sempre schifezza resta.
Ale55andr0
23-06-2022, 12:08
nvidia-geforce-rtx-4090-4080-4070-get-new-rumored-specs-rtx-4070-with-7168-cores-and-10gb-160-bit-memory (https://videocardz.com/newz/nvidia-geforce-rtx-4090-4080-4070-get-new-rumored-specs-rtx-4070-with-7168-cores-and-10gb-160-bit-memory)
spero siano fake, già 192/12gb è il minimo sindacale, è una dannata 4070, un prodotto che costerà 6-700 euro...se 10gb/160bit è LAMMERDA, punto
Io se non vedere almeno 16gb di vram non comprare niente
4080/7800 in su...
Io se non vedere almeno 16gb di vram non comprare niente
Pure io. Basta con ste miniram.
mikael84
23-06-2022, 12:12
nvidia-geforce-rtx-4090-4080-4070-get-new-rumored-specs-rtx-4070-with-7168-cores-and-10gb-160-bit-memory (https://videocardz.com/newz/nvidia-geforce-rtx-4090-4080-4070-get-new-rumored-specs-rtx-4070-with-7168-cores-and-10gb-160-bit-memory)
Vabbè che questo ogni tot giorni trova delle specifiche diverse, però il chippetto da 300mm2, devastato di bus è pazzesco.:p
Cmq, la 4080 in quel caso, non avrà delle TI in quel chip.
In proporzione è la 3070 di Ampere:
84/46 SM= 80%
144/80 SM= 80%
Diciamo che è abbastanza complessa la cosa, la 7700xt con i suoi 4096 core potrebbe anche non riuscire a tenere testa a un AD104 full, francamente ho anche qualche dubbio che riesca a eguagliare una 6900xt che è molto più muscle, penso sia più probabile che se la giochi con la 6800/XT.
Allo stesso modo Navi 32 e Navi 31 sono nettamente più grossi, Navi 32 è un 2x4096 e Navi 31 2x6144, l'assenza di un chip da 6144 core monolitico mi fa anche pensare che ci siano molti scarti di Navi 32, che appunto dovrebbero vedersela con AD103 o il full chip AD104.
Alla fine anche nell'attuale generazione la 6700xt si trova spesso li con 3060ti più che 3070, senza contare il RT dove crolla tutto.
Dai recenti rumors sembra infatti che mentre sulla 4070 nvidia si è divertita a laserare ha tolto ben 512cc e bus ridotto a 160bit, probabilmente proprio per la bassa concorrenza con la 7700xt, ma la stessa cosa sembra non sarà attuata sulla 4080 che mantiene il full chip e i 256bit.
Ho la sensazione che gran parte della concorrenza si addenserà sui chip top di gamma, e poi tutti gli scarti li adatteranno alla meglio per coprire le fasce inferiori, potremmo anche vedere un ritorno delle Super dopo un anno XD
Si soprattutto in 4k sarà più muscle, inoltre ormai anche Lisa vaneggia e gli abbasserà pure il pci e.
La 6900 può prenderla, considera che l'EUV sta già lavorando a 2900, e l'architettura sarà semplificata e più efficiente.
Sulla 4070 da 10gb, JHH si sta superando. Si è lasciato pure due slot per la 4070ti.
Ora voglio vedere che combina con le x60.:p
La 4070 così massacrata, anche no.
A me sta venendo la scimmia per la 4090 visto che questa volta il salto è grosso dalla 4080, ma se il Delta prezzo è maggiore del Delta prestazioni, rimane lì.
Inviato dal mio iPad utilizzando Tapatalk
JHH riesce sempre a stupirci, già l'ha tagliata come x60, poi non basta mi stronchi anche il bus. Spero che più di 499$ non lo venda sto aborto.
Per carità, per chi guarda solo le prestazioni è ok, ma se la guardiamo anche sul piano tecnico fa rabbrividire.
Cmq riguardo la 4080 così tagliata, risulta la 3070 di ampere
84/46 SM= 80%
144/80 SM= 80%
Frá per noi o 4080 o 4090. C è poco da fare . La 4080ti non la prendo in considerazione perché se le indiscrezioni uscite fossero giuste, non sarebbe chissà quale salto dalla 4080. Magari poi esce una bella scheda su ad102 via di mezzo tra la 4080 e la 4090. Tutto da vedere
Inviato dal mio iPhone X utilizzando Tapatalk
Se vogliamo trovarci qualcosa di positivo, è appunto che la 4080ti sarà per forza di cose tagliata su AD102, ma ci vorrà del tempo al debutto.
Ale55andr0
23-06-2022, 12:19
JHH riesce sempre a stupirci, già l'ha tagliata come x60, poi non basta mi stronchi anche il bus.
a me stupisce chi ancora (me compreso) gliele compra queste ladrate.
Non accadrà di nuovo.
Frá per noi o 4080 o 4090. C è poco da fare . La 4080ti non la prendo in considerazione perché se le indiscrezioni uscite fossero giuste, non sarebbe chissà quale salto dalla 4080. Magari poi esce una bella scheda su ad102 via di mezzo tra la 4080 e la 4090. Tutto da vedere
Inviato dal mio iPhone X utilizzando Tapatalk
Ma guarda che non credo che tra 4080ti e 4090 ci sia chissà che differenza in game, presumo che per la 4080ti raddoppieranno le specifiche della 4070 quindi presumibilmente 14336cc (o giù di lì) e probabilmente il bus passa a 320bit, quindi 20GB di VRAM, oltre alla perdita dell'Nvlink ma penso siamo sul 10-15% di differenza ad essere buoni, è pur sempre un AD102.
mikael84
23-06-2022, 12:36
La 4070 è veramente lo scarto dello scarto, non va bene niente, 10 gb di ram sono una presa in giro.
Assurdo.
Il problema per un sistema che punta sulle cache, è che abbassando il bus, butti anche 8mb di cache.
A 16 gb/s, diventa 320 gb/s, a 14 gb/s 280 gb/s.
A sto punto si aprono due slot per la TI.
Ma aspettare che esce la ti no?
La 4080 su GDDR6 mi sembra francamente una schifezza.
Passino (si fa per dire) i 256 bit, passino i core light cut, ma la ram dai...
Magari il salto prestazionale c'è pure, ma tecnologicamente resta una schifezza.
A sto giro l'unica scheda tecnologicamente valida mi sembra la 4090, ma visto che ci vorranno sei reni per prenderla direi che forse è più saggio aspettare la 4080ti.
Non so che indiscrezioni hai letto ma con una 4080 con 10240 core su 10752 disponibili io dubito che tirino fuori una ti su AD103...
Poi magari mi sbaglio eh.... giacchetta a sto giro avendo scalato le fasce ce la sta buttando nel di dietro l'ennesima volta... quella 4080 è una 4070 e a me sta cosa non mi va giù per niente.
La 4070 non la commento perché non sarei affatto gentile...
Boh a me sta generazione mi puzza sempre più di Fermi bis, magari mi sbaglierò ma questo declassamento di fasce è dovuto al fatto che non riescono a tirare fuori GPU con consumi decenti per le fasce di riferimento e quindi provano a tappare i buchi declassando, magari confortati da prestazioni +25%, ma sempre schifezza resta.
Si, almeno la TI in queste condizioni debutterà in maniera ultra devastata su AD102.
La 4080 invece con l'80% dei cuda rispetto alla full, risulta precisa e identica alla 3070 di ampere.
a me stupisce chi ancora (me compreso) gliele compra queste ladrate.
Non accadrà di nuovo.
A 14gb/s praticamente 280 gb/s di banda.
Vedremmo i prezzi, certo che tecnicamente è davvero oscena, in 4k perderà terreno non poco. La cache è stroncata pure quella.
scorpion73
23-06-2022, 13:03
Ma guarda che non credo che tra 4080ti e 4090 ci sia chissà che differenza in game, presumo che per la 4080ti raddoppieranno le specifiche della 4070 quindi presumibilmente 14336cc (o giù di lì) e probabilmente il bus passa a 320bit, quindi 20GB di VRAM, oltre alla perdita dell'Nvlink ma penso siamo sul 10-15% di differenza ad essere buoni, è pur sempre un AD102.
Quoto, infatti secondo me la scelta migliore è aspettare la 4080ti.
Queste schede che escono fra poco, 4090 a parte, sono tecnologicamente monnezza pura arrabattata perché se uscissero come si deve ci vorrebbe la centrale a carbone e l'azoto liquido per tenerle buone.
FrancoBit
23-06-2022, 13:06
Quoto, infatti secondo me la scelta migliore è aspettare la 4080ti.
Sono d'accordo. Anche perchè coi salti mortali che ho fatto per prendere le ampere non è che son qui coi contanti che volano :fagiano:
Vedo ora che la 4080 è gddr6 e non gddr6x, macheccazzzz...
Poi chissà, magari sto giro una rossa me la prendo, si vedrà, senza fretta nel mio caso
TigerTank
23-06-2022, 13:11
Io per il momento mi limito a dire che finchè ci sto dentro a livello di giochi che devo giocare, la 3080 attuale andrà benone...anche perchè compie un anno a luglio :asd: per cui mi sa che andrò di nuovo con calma finchè troverò l'occasione giusta come fatto con l'attuale.
Tenete anche in considerazione che fiondarsi sulle prime schede in uscita può essere un piccolo salto nel buio, perchè con le 2000 e 3000 abbiamo visto qualche magagna di troppo, dalle schede fallate alle questioni chip e anche qualche revisione postuma di pcb e componentistica. In pratica...aspettiamo l'arrosto anche se già il fumo fosse delizioso :D
Personalmente credo che chi ha un Ampere di fascia alta può tranquillamente saltare questa gen, e aspettare la prossima su MCM.
Lovelace può fare la gioia soprattutto di chi è rimasto fermo da Turing in giù, per non parlare del settore notebook dove l'efficienza dei 5nm di TSMC può fare un enorme saltello in avanti rispetto agli 8nm di Samsung a pari TDP.
Per me ad esempio che sono ancora con la 980ti qualunque chip è valido e punto al cut di AD104, poi dipende a quanto piazzano la 4070 alla luce del pesante massacro che ha avuto o che potrebbe avere XD
scorpion73
23-06-2022, 13:15
Io per il momento mi limito a dire che finchè ci sto dentro a livello di giochi che devo giocare, la 3080 attuale andrà benone...anche perchè compie un anno a luglio :asd: per cui mi sa che andrò di nuovo con calma finchè troverò l'occasione giusta come fatto con l'attuale.
Tenete anche in considerazione che fiondarsi sulle prime schede in uscita può essere un piccolo salto nel buio, perchè con le 2000 e 3000 abbiamo visto qualche magagna di troppo, dalle schede fallate alle questioni chip e anche qualche revisione postume di pcb e componentistica.
Quoto, ma poi non serve. Non è che quando escono le 4000 le nostre diventano automaticamente cibo per gatti eh...
Aspettiamo e diamo tempo alle schede e ai driver di maturare. Fra un anno con la 4080ti secondo me, a posteriori dico, saremo stati contenti di avere atteso di più invece che prendere quelle mondezze tecnologiche. Ripeto, prestazionalmente saranno anche big jump, ma schede come quelle di questo ultimo rumor restano tecnologicamente una monnezza pura.
Io sinceramente mi sto stancando di upgradare considerando solo le prestazioni pure, visto che sulle ampere non mancano fra l'altro.
Non mi basta passare a una 4080 perché va il 25% in più (dico per dire) se poi sotto la scocca c'è una scheda che resta un aborto.
Per cui attendo la scheda che mi soddisfa sia prestazionalmente che tecnologicamente perché non mi va di fare mezzo upgrade, visto che costano l'upgrade lo voglio fare pieno. E a sto giro l'unico upgrade vero (in toto) sarebbe AD102.
amon.akira
23-06-2022, 13:20
Frá per noi o 4080 o 4090. C è poco da fare . La 4080ti non la prendo in considerazione perché se le indiscrezioni uscite fossero giuste, non sarebbe chissà quale salto dalla 4080. Magari poi esce una bella scheda su ad102 via di mezzo tra la 4080 e la 4090. Tutto da vedere
Inviato dal mio iPhone X utilizzando Tapatalk
il problema della 4080ti sarà che uscirà molto dopo, altrimenti potrebbe essere veramente lei l acquisto da fare, che sarà un cut di ad102 secondo me non ci sono dubbi, altrimenti il buco tra 4080 e 4090 è troppo ampio.
quindi 4080 o 4090 :P
FrancoBit
23-06-2022, 13:22
Io per il momento mi limito a dire che finchè ci sto dentro a livello di giochi che devo giocare, la 3080 attuale andrà benone...anche perchè compie un anno a luglio :asd: per cui mi sa che andrò di nuovo con calma finchè troverò l'occasione giusta come fatto con l'attuale.
Tenete anche in considerazione che fiondarsi sulle prime schede in uscita può essere un piccolo salto nel buio, perchè con le 2000 e 3000 abbiamo visto qualche magagna di troppo, dalle schede fallate alle questioni chip e anche qualche revisione postuma di pcb e componentistica. In pratica...aspettiamo l'arrosto anche se già il fumo fosse delizioso :D
Quoto, ma poi non serve. Non è che quando escono le 4000 le nostre diventano automaticamente cibo per gatti eh...
Aspettiamo e diamo tempo alle schede e ai driver di maturare. Fra un anno con la 4080ti secondo me, a posteriori dico, saremo stati contenti di avere atteso di più invece che prendere quelle mondezze tecnologiche. Ripeto, prestazionalmente saranno anche big jump, ma schede come quelle di questo ultimo rumor restano tecnologicamente una monnezza pura.
Io sinceramente mi sto stancando di upgradare considerando solo le prestazioni pure, visto che sulle ampere non mancano fra l'altro.
Non mi basta passare a una 4080 perché va il 25% in più (dico per dire) se poi sotto la scocca c'è una scheda che resta un aborto.
Per cui attendo la scheda che mi soddisfa sia prestazionalmente che tecnologicamente perché non mi va di fare mezzo upgrade, visto che costano l'upgrade lo voglio fare pieno. E a sto giro l'unico upgrade vero (in toto) sarebbe AD102.
Per esempio, cosa ho giocato da quando ho la 3080 (luglio 2021):
Snowrunner - 300 ore e passa (altre 300 con la 2080 in precedenza)
Project Zomboid - 500 ore
Flight Simulator - 100 ore
Wasteland 3 - 50 ore
Art of rally - 100 ore
F1 2021 - Detroit become human - Kerbal Space Program
Ok ora potete picchiarmi :stordita: , a parte flight sim ovviamente
Quoto, ma poi non serve. Non è che quando escono le 4000 le nostre diventano automaticamente cibo per gatti eh...
Aspettiamo e diamo tempo alle schede e ai driver di maturare. Fra un anno con la 4080ti secondo me, a posteriori dico, saremo stati contenti di avere atteso di più invece che prendere quelle mondezze tecnologiche. Ripeto, prestazionalmente saranno anche big jump, ma schede come quelle di questo ultimo rumor restano tecnologicamente una monnezza pura.
Io sinceramente mi sto stancando di upgradare considerando solo le prestazioni pure, visto che sulle ampere non mancano fra l'altro.
Non mi basta passare a una 4080 perché va il 25% in più (dico per dire) se poi sotto la scocca c'è una scheda che resta un aborto.
Per cui attendo la scheda che mi soddisfa sia prestazionalmente che tecnologicamente perché non mi va di fare mezzo upgrade, visto che costano l'upgrade lo voglio fare pieno. E a sto giro l'unico upgrade vero (in toto) sarebbe AD102.
Io se non ho almeno un raddoppio delle performance non aggiorno.
Infatti dalla 980ti già con 3070/2080ti potevo essere apposto, ma ho aspettato fino ad ora e onestamente se con una spesa simile prendo un chip simil 3080, o anche una 3080 usata tanto di meglio... :sofico:
Sempre se non passo al rosso, se i chip risultano interessanti anche lato RT.
scorpion73
23-06-2022, 13:27
il problema della 4080ti sarà che uscirà molto dopo, altrimenti potrebbe essere veramente lei l acquisto da fare
E perché sarebbe un problema scusa eh.
E' un problema se hai una Pascal o una Turing (forse) non certo se hai una Ampere.
Mica quando esce la 4080 sulla tua 3090 ci giri per magia solo il solitario.
Tu sei uno di quelli con una 3090 che può aspettare anche la serie 5000...
non farti infinocchiare da giacchetta più di quanto ci facciamo infinocchiare già, dammi retta...
FrancoBit
23-06-2022, 13:27
Io se non ho almeno un raddoppio delle performance non aggiorno.
Infatti dalla 980ti già con 3070/2080ti potevo essere apposto, ma ho aspettato fino ad ora e onestamente se con una spesa simile prendo un chip simil 3080, o anche una 3080 usata tanto di meglio... :sofico:
Sempre se non passo al rosso, se i chip risultano interessanti anche lato RT.
Tieni d'occhio i eventuali drop Nvidia se ti interessa, l'alltro ieri una 3080 FE andava via a 760€
TigerTank
23-06-2022, 13:28
E bisognerà anche vedere come saranno i tempi...perchè già adesso a livello di rincari e di indici in rosso la situazione è tutt'altro che ròsea...e più ci sarà incertezza a tal proposito, meno gente sarà disposta a certe spese "da hobby" a cuor leggero. Soprattutto se cercassero di propinare, per dirla alla Mike, cose tecnicamente "devastate" in rapporto ai costi :D
scorpion73
23-06-2022, 13:28
Io se non ho almeno un raddoppio delle performance non aggiorno.
Infatti dalla 980ti già con 3070/2080ti potevo essere apposto, ma ho aspettato fino ad ora e onestamente se con una spesa simile prendo un chip simil 3080, o anche una 3080 usata tanto di meglio... :sofico:
Sempre se non passo al rosso, se i chip risultano interessanti anche lato RT.
Si ma il 25% era per dire eh... Non ci penso manco ad upgradare a quelle percentuali adesso che sto con una ampere.
Almeno deve fare un 40% in più sennò non vale la pena rispetto alla spesa.
mikael84
23-06-2022, 13:35
"Vediamo come vi frego i soldini"
https://www.hwupgrade.it/articoli/skvideo/4322/intro2.jpg
3060 192bit 1 tpc disabilitato. 272mm6 di die
https://i.postimg.cc/x1SmwbB2/3060.png
4060 300mm2
https://i.postimg.cc/v82dBJsq/4060.png
Smembrata e devastata la 4060.
"ora dovrei venderla a 349"...
"sento a Lisa"
Ecco qua la nuova 4070 a 699$, performance da GA102:sofico:
FrancoBit
23-06-2022, 13:37
"ora dovrei venderla a 349"...
"sento a Lisa"
Ecco qua la nuova 4070 a 699$, performance da GA102:sofico:
A volte ho il sospetto che siano la stessa persona :mbe:
A volte ho il sospetto che siano la stessa persona :mbe:
Beh come confermato da giacchetta, non che fosse un segreto, si siedono allo stesso tavolo (insieme ad Intel) per condividere roadmap e quant'altro, chiaro che si segmentino il mercato per fare in modo che tutti mangino piu' torta possibile.
Cioe' sti due son addirittura parenti di che stiamo parlando :sofico:
TigerTank
23-06-2022, 13:52
A volte ho il sospetto che siano la stessa persona :mbe:
Tipo Ranma con l'acqua fredda o calda :asd:
amon.akira
23-06-2022, 13:57
E perché sarebbe un problema scusa eh.
E' un problema se hai una Pascal o una Turing (forse) non certo se hai una Ampere.
Mica quando esce la 4080 sulla tua 3090 ci giri per magia solo il solitario.
Tu sei uno di quelli con una 3090 che può aspettare anche la serie 5000...
non farti infinocchiare da giacchetta più di quanto ci facciamo infinocchiare già, dammi retta...
eh lo so quella sarebbe la scelta di testa, ma c'è un altra testa che sussurra all orecchio XD
inoltre credo proprio di sbolognarla verso luglio, tanto di solito luglio e agosto non ci gioco mai e poi magari resterei senza fino a ottobre/novembre se veramente escono piu in la.
cosi facendo rischio anche di mettermi qualche centone in tasca in caso di 4080.
Tipo Ranma con l'acqua fredda o calda :asd:
noi saremmo Kuno in quel caso XD
Tipo Ranma con l'acqua fredda o calda :asd:
L'ho pensato molte volte, ma non ho mai avuto il coraggio di scriverlo. :asd: :asd: :asd: :asd:
Ale55andr0
23-06-2022, 14:05
Cioe' sti due son addirittura parenti di che stiamo parlando :sofico:
leggenda metropolitana
leggenda metropolitana
Not technically "uncle" but still related: NVIDIA's Jensen Huang
Technically, it is safe to say that Lisa Su's own grandfather is actually Jen-Hsun Huang's uncle. Although they aren't really niece and uncles, they are very close relatives. Jen-Hsun Huang (otherwise known as Jensen) owns a degree in electrical engineering and was a co-founder of NVIDIA back in 1993 during his 30th birthday. He still remains both the CEO and President up until today.
https://www.techtimes.com/articles/253736/20201030/fact-check-nvidia-ceo-uncle-amds-dr-lisa-su.htm
Non che bisogni essere parenti per fare cartello eh ;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.