View Full Version : GeForce RTX 4000 ben oltre i 450W per le top di gamma? Si parla di 800-850W
Redazione di Hardware Upg
23-02-2022, 20:16
Link alla notizia: https://www.hwupgrade.it/news/skvideo/geforce-rtx-4000-ben-oltre-i-450w-per-le-top-di-gamma-si-parla-di-800-850w_105092.html
Le ultime indiscrezioni sulle GeForce RTX 4000 di casa NVIDIA riportano TGP da paura per le future top di gamma. Secondo i leaker le soluzioni basate su GPU AD102 potrebbero consumare 450, 600-650 e spingersi persino fino a 800-850W.
Click sul link per visualizzare la notizia.
StylezZz`
23-02-2022, 20:27
Chissà quanto consumeranno dalla '70 in giù...l'attuale 3070 sta sui 250W in full load, se lo superano farò a meno di nvidia questa gen.
AMD stupiscimi.
Perseverance
23-02-2022, 20:39
Il gaming in 4K ha bisogno di potenza di calcolo.
L'attuale potenza di calcolo delle schede video è insufficiente in special modo impostando i dettagli al massimo e col raytracing è ancora peggio.
DLSS e FSR sono tecnologie offerte per mettere una toppa alla carenza di prestazioni, sia in 4K sia in raytracing, degli attuali processori grafici. In certi giochi non basta neanche questo.
Penso che sia normale in un contesto di arretratezza come quello attuale, cercare di aumentare le prestazioni delle schede video trascurando gli assorbimenti. Penso che in un primo momento sia inevitabile assistere ad un'impennata dei watt assorbiti e solo quando le prestazioni saranno adeguate al 4K in ogni forma, solo allora, forse (xkè bisognerà vedere se sarà possibile), comincierà l'ottimizzazione sulla potenza e xkè no anche sulle prestazioni. Prima si sbozza, poi si rifinisce; in quasi ogni contesto è così, ed ora siamo sempre alla prima fase.
Non c'è da stupirsi, se si sà a che punto si è, queste sono cose normali.
bagnino89
23-02-2022, 21:07
Ridicoli.
Processi produttivi inadeguati e architetture evidentemente da rivedere.
Bastava aspettare qualche anno in più per il raytracing, ma se c'è chi è disposto a pagare prezzi folli, giusto approfittarne, Nvidia conosce i suoi polli.
coschizza
23-02-2022, 21:30
Bastava aspettare qualche anno in più per il raytracing, ma se c'è chi è disposto a pagare prezzi folli, giusto approfittarne, Nvidia conosce i suoi polli.
Amd invece non va bene in rt ma consuma uguale quindi molto meglio nvidia che almeno ti da qualcosa che funziona realmente
Hiei3600
23-02-2022, 21:41
Cosa mangia più elettricità: Una scheda video di queste o un'auto elettrica? :mc:
Amd invece non va bene in rt ma consuma uguale quindi molto meglio nvidia che almeno ti da qualcosa che funziona realmente
Chiaramente AMD non aveva nessuna intenzione di buttarsi sul Raytracing, è stata costretta, e c'è poco da fare è indietro.
Recupererà con le prossime gen.
Speriamo anzitutto di arrivarci a settembre (in salute... e non sto parlando di COVID) alla luce delle notizie che arrivano dall'estero, ad ogni modo:
compratele pure voi vai che io, alle condizioni odierne (prezzi del nuovo/contenuti che ne giustifichino la spesa), passo volentieri la palla :D
harlock10
23-02-2022, 21:47
La vendono con il radiatore di una 500 in bundle?
Ma per una scheda del genere serve un case apposito? :fagiano:
Comunque sono ridicoli, il mondo (diciamo l'Europa) chiede una corsa al risparmio energetico e questi vanno nella direzione opposta :doh:
Ma per una scheda del genere serve un case apposito? :fagiano:
Mah, di sicuro un rene poi, onestamente, se anche il case nuovo (oltre ad un alimentatore dedicato)...:D
Ma per una scheda del genere serve un case apposito? :fagiano:
Comunque sono ridicoli, il mondo (diciamo l'Europa) chiede una corsa al risparmio energetico e questi vanno nella direzione opposta :doh:
La coperta è corta, se vuoi potenza servono consumi, nulla è gratis, per passare dal full-hd al 4K serve 4 volte più potenza per cui fai tu.
maxsin72
23-02-2022, 22:11
Follia allo stato puro, avanti di questo passo, un normale contratto da 3,3 kw rischierà di essere insufficiente: durante le sessioni di gaming niente forno o lavatrice o lavastoviglie contemporaneamente in funzione col PC :sofico:
Capisco la corsa alle prestazioni ma, se non si è in grado (soprattutto intel col 12900ks e nvidia di recente con questa notizia) di aumentare le prestazioni con nuove micro architetture, non ha nessun senso farlo triplicando i consumi, per che cosa poi? Per giocare con qualche fps in più? Alla faccia della tutela del pianeta...
Intanto ho preso l'alimentatore, per il case aspetto il geometra e l'impresa edile :sofico: :D
https://i.imgur.com/BMn8xRVl.jpg
DakmorNoland
23-02-2022, 22:20
Il gaming in 4K ha bisogno di potenza di calcolo.
L'attuale potenza di calcolo delle schede video è insufficiente in special modo impostando i dettagli al massimo e col raytracing è ancora peggio.
Mah oddio alla fine con la configurazione in firma gioco tutto tranquillamente in 4k, certo avrei preferito la 3080 l'avessi trovata, però non mi lamento. I giochi che danno problemi si contano sulle dita di una mano, ma anche li con DLSS o altro giochi, certo che se si vogliono i 144 frames in 4k beh allora... :D Onestamente con Gsync molti giochi sono godibilissimi anche sotto i 60 frames.
Chiaramente AMD non aveva nessuna intenzione di buttarsi sul Raytracing, è stata costretta, e c'è poco da fare è indietro.
Recupererà con le prossime gen.
Esatto. Da possessore di 3070Ti e prima di 1070Ti posso dire che AMD ci aveva visto giusto, ma come sempre (vedi Physix prima e RT adesso) Nvidia è voluta uscire con qualcosa di "grandioso" a livello maketing, senza preoccuparsi di rovinare completamente il mercato.
Anche perchè obiettivamente è vero nei giochi RT si ha una resa migliore con RT On, ma solo perchè il raster è stato volutamente penalizzato dagli sviluppatori, del RT non si sentiva e non si sente alcun bisogno, specie per come è messo al momento.
Adesso poi se pensano di uscire con ste schede che consumano trilioni di Watt, per me hanno fatto male i calcoli vista la crisi energetica europea. Le venderanno dove? :D Ah già i miners...
StylezZz`
23-02-2022, 22:37
Amd invece non va bene in rt ma consuma uguale quindi molto meglio nvidia che almeno ti da qualcosa che funziona realmente
Consuma uguale? L'attuale gen è più efficiente di ampere, e a quanto pare lo sarà pure la prossima:
https://i.imgur.com/wfYrKx8.png
Aspetta aspetta, quindi quando mamma accende il forno per i Muffin, salta a luce e ti interrompe la partita a CoD?
The_Hypersonic
23-02-2022, 23:08
Si vocifera che nel frattempo in casa Intel si stiano fregando le mani. Se escono con quantitativi, prezzi abbordabili e consumi in linea, ci sarà da ridere.
alethebest90
23-02-2022, 23:14
Follia allo stato puro, avanti di questo passo, un normale contratto da 3,3 kw rischierà di essere insufficiente: durante le sessioni di gaming niente forno o lavatrice o lavastoviglie contemporaneamente in funzione col PC :sofico:
Capisco la corsa alle prestazioni ma, se non si è in grado (soprattutto intel col 12900ks e nvidia di recente con questa notizia) di aumentare le prestazioni con nuove micro architetture, non ha nessun senso farlo triplicando i consumi, per che cosa poi? Per giocare con qualche fps in più? Alla faccia della tutela del pianeta...
attualmente se consideri un fornello ad induzione potresti gia essere al limite con il contatore, ci sono alcuni modelli che hanno un assorbimento enorme, poi tra asciugatrice, lavatrice, condizionatori etc...
in ogni caso è esagerato come consumo, perchè una console consuma circa 200/250w quando poi del mio pc solo la vga consuma quasi 200w ??
Ma quindi il PC completo andrebbe a consumare più di un kW??
Di questo passo alla prima bolletta la moglie/mamma ci butta il PC dalla finestra! :stordita:
nickname88
23-02-2022, 23:52
Ma ci credete pure ? Ovviamente a meno che non si tratti di un dual GPU è una bufala.
800W non si possono dissipare se non con un impianto a liquido di grosse dimensioni solo per la VGA.
servono giusto 4 radiatori 360*120 se contiamo pure la cpu xD
servono giusto 4 radiatori 360*120 se contiamo pure la cpu xD
Io per ora sono a due 480*120 se servirà se ne mette un altro, tanto nel case mi cista :sofico:
In questo periodo l'idea di uno che gioca con un pc la cui sola scheda video può consumare più di 800w non so se mi fa ridere o ribrezzo... Spero in un leak decisamente esagerato.
*Pegasus-DVD*
24-02-2022, 03:19
pfffffffffffffffffffffffffff
Manolo De Agostini
24-02-2022, 06:32
Ma ci credete pure ? Ovviamente a meno che non si tratti di un dual GPU è una bufala.
800W non si possono dissipare se non con un impianto a liquido serio.
Lo penso anche io, ma questo circola. Vale la pena monitorare anche solo per poi scrivere che è una bufala :D Però sono mesi che si sentono voci di una generazione particolarmente "esigente". Ora, magari 800-850W no, o magari non per il gaming, però sembra che le top di gamma richiederanno molto. Monitoriamo e prendiamo tutto con le dovute cautele.
lucasantu
24-02-2022, 07:00
Ma ci credete pure ? Ovviamente a meno che non si tratti di un dual GPU è una bufala.
800W non si possono dissipare se non con un impianto a liquido serio.
:rolleyes: :rolleyes: :rolleyes: :rolleyes: :rolleyes: vai a spiegarlo a quellli che leggono solo il titolo ( con gli occhi chiusi ) ...
se va bene consumerà un 20% massimo in più dell'attuale secondo me.
e sarà il solito 15-20% meglio della precedente
Marko#88
24-02-2022, 07:34
:rolleyes: :rolleyes: :rolleyes: :rolleyes: :rolleyes: vai a spiegarlo a quellli che leggono solo il titolo ( con gli occhi chiusi ) ...
se va bene consumerà un 20% massimo in più dell'attuale secondo me.
e sarà il solito 15-20% meglio della precedente
Se va un 15/20% in più consumando un 20% in più non è evoluzione.
:rolleyes: :rolleyes: :rolleyes: :rolleyes: :rolleyes: vai a spiegarlo a quellli che leggono solo il titolo ( con gli occhi chiusi ) ...
se va bene consumerà un 20% massimo in più dell'attuale secondo me.
e sarà il solito 15-20% meglio della precedenteNvidia dovrebbe peggiorare drammaticamente la sua architettura per non avere un miglioramento dell'efficienza passando dagli 8nm di Samsung ai 5nm di TSMC, passaggio che corrisponde a 2 pieni nodi.
Rumor suggeriscono diversamente. Lovelace pare sia fondamentalmente la stessa architettura di Ampere ma su nodo molto più avanzato. In modo simile al passaggio Maxwell -> Pascal c'è da aspettarsi un aumento di performance minimo del 60%, ma se Nvidia è disposta ad aumentare in consumi oltre i 400W non sarebbe sorprendente vedere anche un +100%, specialmente considerando che RDNA3 include N31 che è un design MCM e non credo Nvidia voglia perdere la leadership in performance.
Questi costanti rumor su consumi da 400/500+W sono chiara indicazione che Nvidia, nonostante un enorme die shrink, è comunque intenzionata a spingere al limite l'architettura per spremere quante più performance possibili.
Avevo letto " basata su architettura Linda Lovelace " :asd: :oink:
AtaruGolan
24-02-2022, 08:12
si ma, facendo cosi, un pc consumerebbe più di tutto quello che hai in casa, poi ora che c'è un incremento del costo dell'energia.
Figurati anche il discorso "riscaldamento globale" se le schede video vanno a triplicare il consumo, contando che già ore i centri di mining consumano quanto una città intera.... va bhe.. ho capito, siamo destinati a estinguerci
una 3090 arriva già fino a 380/380 watt da sola.
Non è irrealistico pensare ad un ulteriore aumento per la nuova generazione (ovviamente parlando di top di gamma) oltre i 400/420 watt.
Il problema è se i costi e i consumi giustificano le prestazioni e quanto consumeranno le versioni mainstream, ammesso che siano comprabili, quando usciranno, per disponibilità e prezzo.
Le console stanno diventando alternative sempre più appetibili in questa prospettiva, per chi vuole giocare.
maxsin72
24-02-2022, 08:47
Lo penso anche io, ma questo circola. Vale la pena monitorare anche solo per poi scrivere che è una bufala :D Però sono mesi che si sentono voci di una generazione particolarmente "esigente". Ora, magari 800-850W no, o magari non per il gaming, però sembra che le top di gamma richiederanno molto. Monitoriamo e prendiamo tutto con le dovute cautele.
Il nuovo connettore a 16 pin voluto da nvidia che garantisce 600w credo sia un indizio importante.
Dato che voglio fare un impianto fotovoltaico so a cosa dedicarlo. ;)
Gyammy85
24-02-2022, 09:12
Il gaming in 4K ha bisogno di potenza di calcolo.
L'attuale potenza di calcolo delle schede video è insufficiente in special modo impostando i dettagli al massimo e col raytracing è ancora peggio.
DLSS e FSR sono tecnologie offerte per mettere una toppa alla carenza di prestazioni, sia in 4K sia in raytracing, degli attuali processori grafici. In certi giochi non basta neanche questo.
Penso che sia normale in un contesto di arretratezza come quello attuale, cercare di aumentare le prestazioni delle schede video trascurando gli assorbimenti. Penso che in un primo momento sia inevitabile assistere ad un'impennata dei watt assorbiti e solo quando le prestazioni saranno adeguate al 4K in ogni forma, solo allora, forse (xkè bisognerà vedere se sarà possibile), comincierà l'ottimizzazione sulla potenza e xkè no anche sulle prestazioni. Prima si sbozza, poi si rifinisce; in quasi ogni contesto è così, ed ora siamo sempre alla prima fase.
Non c'è da stupirsi, se si sà a che punto si è, queste sono cose normali.
Qualsiasi scheda dalla 6700xt in su ti consente di giocare a 4k più che decentemente, è il ray tracing quello che ammazza, anche se l'approccio rtx sembra ormai andare a finire, prevalendo invece una modalità più gestibile (vedi i vari fc6 re village ecc...), per rt powa se ne parlerà appunto con rdna3 e lovelace
Non è un discorso di arretratezza, perché i salti prestazionali in questa gen sono stati comunque grossi, un chip come appunto navi 22 prende spesso e volentieri la top nvidia turing
Consuma uguale? L'attuale gen è più efficiente di ampere, e a quanto pare lo sarà pure la prossima:
https://i.imgur.com/wfYrKx8.png
Questo è un aspetto che sfugge a tutti, voglio proprio vedere che fascia resterà scoperta per dire "amd non ci pensa", forse la uber entry liquid nitrogen?
Certo che se fanno una dual gpu vs la mcm top di amd, buona fortuna, stile 7950gx2 vs x1950xtx
cronos1990
24-02-2022, 09:13
Aspetta aspetta, quindi quando mamma accende il forno per i Muffin, salta a luce e ti interrompe la partita a CoD?Ma scusa, tu preferisci CoD ai Muffin? :asd:
jepessen
24-02-2022, 09:23
Non avete capito, e' una strategia anti-mining.... Fanno consumare le schede un botto cosi' non conviene piu' minare con loro e le possiamo prendere noi videogiocatori...
Gyammy85
24-02-2022, 09:33
Non avete capito, e' una strategia anti-mining.... Fanno consumare le schede un botto cosi' non conviene piu' minare con loro e le possiamo prendere noi videogiocatori...
:asd: :asd:
b.u.r.o.87
24-02-2022, 10:06
Ridicoli.
Processi produttivi inadeguati e architetture evidentemente da rivedere.
Concordo
Questi hanno spacciato come successo, la rtx3050, che ha il doppio delle prestazioni della 1650, ma ha anche il doppio dei consumi
-prestazioni +100%
-consumi +100%
non mi sembra un gran risultato
Esagerao
24-02-2022, 10:10
Facendo un rapido calcolo rtx 4000 top di gamma + 12900k, un pizzico di overclock
i consumi saranno prossimi ai 2000w.
Il futuro del gaming sarà un lusso per pochi.
Non avete capito, e' una strategia anti-mining.... Fanno consumare le schede un botto cosi' non conviene piu' minare con loro e le possiamo prendere noi videogiocatori...
nvidia ci vuole bene, l'ho sempre detto anch'io ! :kiss:
...comunque in previsione ho già chiesto 1kw in più sulla mia utenza, tanto i prezzi sono convenientissimi di questi tempi, meglio arrivare preparati ! :asd:
Amd invece non va bene in rt ma consuma uguale quindi molto meglio nvidia che almeno ti da qualcosa che funziona realmente
Consuma uguale un paio di palle, RNDA 2 è molto più efficiente, una 6900 consuma molto meno di una 3090, anche con raytracing disabilitato, cosa nota e facilmente verificabile, e in molti giochi, in rasterizzazione, gli sta pure davanti.
SpyroTSK
24-02-2022, 10:33
Il radiatore per il raffreddamento a liquido:
https://www.ebay.it/itm/372855174925?hash=item56cfe6770d:g:zk4AAOSwCmBd3S8S
le ventole:
https://www.ebay.it/itm/183583813901?hash=item2abe72b10d:g:r4oAAOSwW2VfUMob
Facendo un rapido calcolo rtx 4000 top di gamma + 12900k, un pizzico di overclock
i consumi saranno prossimi ai 2000w.
Il futuro del gaming sarà un lusso per pochi.
Ora non esageriamo 2kW è un valore veramente esagerato.
Realisticamente sarà un consumo di 1kW ipotizzando l'improbabile situazione di CPU e GPU contemporaneamente al massimo cosa che a parte qualche bench non si verifica praticamente mai.
Detto ciò concordo che iniziano a esserci consumi veramente preoccupanti e fuori da ogni logica. Consumi del genere non sono tollerabili anche perché più potenza significa più calore e il calore non è mai un bene ma anche più spese e sistemi sempre più estremi.
E io che mi incazzavo se il pc consumava più di 300w. Questa è involuzione.
Gyammy85
24-02-2022, 10:54
E io che mi incazzavo se il pc consumava più di 300w. Questa è involuzione.
Come quando ci si lamentava dei cellulari a 300 euro, e subito dopo siamo stati ben felici di prenderli a 1000
Il mercato funziona così, ed il mercato siamo noi, semplice
Come quando ci si lamentava dei cellulari a 300 euro, e subito dopo siamo stati ben felici di prenderli a 1000
Siete stati felici di prenderlo qui :ciapet:
Io mi trovo ancora benissimo con il mio LG K10 pagato 110 euro 4 anni fa :cool:
Il mercato funziona così, ed il mercato siamo noi, semplice
Su questo hai ragione da vendere :O
Il mercato segue "la gente" e se il mondo è pieno di utenti spendaccioni i prezzi si adeguano.
StylezZz`
24-02-2022, 11:10
:rolleyes: :rolleyes: :rolleyes: :rolleyes: :rolleyes: vai a spiegarlo a quellli che leggono solo il titolo ( con gli occhi chiusi ) ...
se va bene consumerà un 20% massimo in più dell'attuale secondo me.
e sarà il solito 15-20% meglio della precedente
Anche se fosse ti sembra poco? :stordita:
Non avete capito, e' una strategia anti-mining.... Fanno consumare le schede un botto cosi' non conviene piu' minare con loro e le possiamo prendere noi videogiocatori...
Ahahaha avranno sicuramente visto la 6500 XT con 4GB per ''scoraggiare i miners'' e hanno pensato di fare lo stesso ma aumentando i consumi.
Gyammy85
24-02-2022, 11:12
Siete stati felici di prenderlo qui :ciapet:
Io mi trovo ancora benissimo con il mio LG K10 pagato 110 euro 4 anni fa :cool:
Su questo hai ragione da vendere :O
Il mercato segue "la gente" e se il mondo è pieno di utenti spendaccioni i prezzi si adeguano.
Si si parlavo in generale, e propio il mercato dei telefoni dimostra che la concorrenza non c'entra proprio niente col calo dei prezzi, ci sono decine di produttori che fanno prodotti praticamente uguali, eppure i prezzi aumentano
Per tornare in topic, nvidia sembra avere qualche problemino con lovelace, ma prima o poi doveva fare i conti con queste gpu pachidermiche ripiene di unità dedicate e tutto, con turing è andata bene perché amd non aveva la pari fascia, con ampere ancora ancora per via di rt, ora si fa dura, perché se rdna3 fa 2,5x su rdna2 e lovelace solo 2x la 3090, è come 2080ti vs 5700xt praticamente
cronos1990
24-02-2022, 11:22
Non capisco tutti questi problemi sui consumi, che a mio avviso saranno estremamente contenuti.
Dato che queste schede saranno eteree come quelle presenti ora, al massimo potrete usare la GPU integrata nella CPU, più risparmio di corrente di così si muore :asd:
coschizza
24-02-2022, 11:28
Consuma uguale un paio di palle, RNDA 2 è molto più efficiente, una 6900 consuma molto meno di una 3090, anche con raytracing disabilitato, cosa nota e facilmente verificabile, e in molti giochi, in rasterizzazione, gli sta pure davanti.
dai numeri non si direbbe
leddlazarus
24-02-2022, 12:02
intanto la maggiorparte dei possessori di PC gaming gioca ancora a 1080 con schede "normali".
Certo che se per giocare si dovrà fare un contratto luce da minimo 6kw è un bell'affare...per l'enel.
fabius21
24-02-2022, 12:28
intanto la maggiorparte dei possessori di PC gaming gioca ancora a 1080 con schede "normali".
Certo che se per giocare si dovrà fare un contratto luce da minimo 6kw è un bell'affare...per l'enel.
io ho ancora una r9 290x , e mi ci adatto. Perchè a fine 2019 ho detto la prendo nel 2020. Ma poi sappiamo come è andata la situazione.....
Sarei voluto anche passare ai 1440p , ma anche lì essendo che il monitor ha minimo 3 pollici in più, non ne ero convinto
Tornando in topic, 800W sono un fottio di calore, che influisce anche sui componenti attorno. forse saranno solo strix lc?
Gyammy85
24-02-2022, 12:42
io ho ancora una r9 290x , e mi ci adatto. Perchè a fine 2019 ho detto la prendo nel 2020. Ma poi sappiamo come è andata la situazione.....
Sarei voluto anche passare ai 1440p , ma anche lì essendo che il monitor ha minimo 3 pollici in più, non ne ero convinto
Tornando in topic, 800W sono un fottio di calore, che influisce anche sui componenti attorno. forse saranno solo strix lc?
Probabile che sia riferito alla potenza massima data da tutti i connettori + pcie, realmente dovrebbe stare sui 500 watt, con rdna3 che viene data max a 400-450
fabius21
24-02-2022, 13:18
Probabile che sia riferito alla potenza massima data da tutti i connettori + pcie, realmente dovrebbe stare sui 500 watt, con rdna3 che viene data max a 400-450
Si però sono sempre tanti, io il massimo che ho sempre visto i top che erano sui 300W anche con processi a 120nm cioè anni luce distanti dagli attuali
boh io intanto ho fatto il pieno alla macchina
Quindi mettiamo un alimentatore da 1200W e installiamo un nuovo impianto fotovoltaico. Dov'è il problema? Il 4k gaming viene prima di tutto.
biometallo
24-02-2022, 16:25
Quindi mettiamo un alimentatore
"Un" alimentatore? Mi sa che nel futuro i pc avranno almeno due alimentatori...
Io che ormai seguo poco il settore, del resto qui di hardware si parla sempre meno, sono rimasto stupito quando ho visto questo viedeo:
Il computer non funziona? Installo un doppio alimentatore! (https://www.youtube.com/watch?v=RgKR4GYMAWU)
sidewinder
24-02-2022, 16:40
Intanto ho preso l'alimentatore, per il case aspetto il geometra e l'impresa edile :sofico: :D
Non basta, servirebbe uno da datacenter montato su appositi container :
:sofico: :D :
"Un" alimentatore? Mi sa che nel futuro i pc avranno almeno due alimentatori...
Io che ormai seguo poco il settore, del resto qui di hardware si parla sempre meno, sono rimasto stupito quando ho visto questo viedeo:
Il computer non funziona? Installo un doppio alimentatore! (https://www.youtube.com/watch?v=RgKR4GYMAWU)
Grazie per il link del video ... simpatico il personaggio :)
Mi sa proprio che in futuro, per chi vuole i 4K, diventerà la norma dotarsi di una PSU da 1200W o una seconda PSU dedicata alle schede video :rolleyes:
Grazie per il link del video ... simpatico il personaggio :)
Mi sa proprio che in futuro, per chi vuole i 4K, diventerà la norma dotarsi di una PSU da 1200W o una seconda PSU dedicata alle schede video :rolleyes:
E' anche normale, un tempo le risoluzioni erano infinitamente più basse, 800x600 1024x768 poi è arrivata l'alta definizione che ha rivoluzionato tutto con il 4K che ha 4 volte il numero dei pixel del 2K, una scheda video che deve avere 4 volte le prestazioni di un'altra non è pensabile nemmeno lontanamente che possa consumare uguale o solo poco di più, perlomeno non in questo momento e con queste tecnologie.
E' anche normale, un tempo le risoluzioni erano infinitamente più basse, 800x600 1024x768 poi è arrivata l'alta definizione che ha rivoluzionato tutto con il 4K che ha 4 volte il numero dei pixel del 2K, una scheda video che deve avere 4 volte le prestazioni di un'altra non è pensabile nemmeno lontanamente che possa consumare uguale o solo poco di più, perlomeno non in questo momento e con queste tecnologie.
OK, ma di solito (in passato) il salto generazionale permetteva di avere la stessa potenza di calcolo con minori consumi, oppure una potenza di calcolo doppia, ma non raddoppiando il consumo ... ora siamo ad un rapporto lineare, il che mi fa pensare che l'attuale tecnologia abbia toppato un po'.
OK, ma di solito (in passato) il salto generazionale permetteva di avere la stessa potenza di calcolo con minori consumi, oppure una potenza di calcolo doppia, ma non raddoppiando il consumo ... ora siamo ad un rapporto lineare, il che mi fa pensare che l'attuale tecnologia abbia toppato un po'.
Siamo ai limiti del silicio, come quando inizi ad allenarti, per correre i 100mt all'inizio ci metti 30 secondi, dopo un mese di allenamento ne metti 20, dopo 6 mesi arrivi a 15 poi ti puoi continuare ad allenare per tutta la vita, ma i tempi di Jacobs non li farai mai...
Siamo ai limiti del silicio, come quando inizi ad allenarti, per correre i 100mt all'inizio ci metti 30 secondi, dopo un mese di allenamento ne metti 20, dopo 6 mesi arrivi a 15 poi ti puoi continuare ad allenare per tutta la vita, ma i tempi di Jacobs non li farai mai...
Probabilmente hai ragione tu ... siamo vicini al limite fisico dato che le attuali tecnologie si assestano sui 50 angstrom.
LuckyExplorer
24-02-2022, 22:35
Con quello che costa adesso la "currentt", è diventato un lusso anche giocare.
Ma quale 4k e limiti del silicio?
Le schede da 800 watt servono solo per essere prezzate 10000 euro cadauno
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.