View Full Version : Preparate gli alimentatori, anche le Radeon 7000 consumeranno di più
Redazione di Hardware Upg
24-06-2022, 17:21
Link alla notizia: https://www.hwupgrade.it/news/skvideo/preparate-gli-alimentatori-anche-le-radeon-7000-consumeranno-di-piu_108135.html
Sam Naffziger di AMD, durante un'intervista, ha rilasciato alcune informazioni sulla nuova generazione di GPU AMD Radeon 7000. Nonostante un'aumento del 50% delle performance per Watt, anche la potenza aumenterà offrendo prestazioni raddoppiate rispetto alla gamma attuale.
Click sul link per visualizzare la notizia.
Cromwell
24-06-2022, 17:33
Pronto!
https://i.postimg.cc/JnwfWDgH/dinamone.jpg (https://postimages.org/)
Link alla notizia: https://www.hwupgrade.it/news/skvideo/preparate-gli-alimentatori-anche-le-radeon-7000-consumeranno-di-piu_108135.html
Sam Naffziger di AMD, durante un'intervista, ha rilasciato alcune informazioni sulla nuova generazione di GPU AMD Radeon 7000. Nonostante un'aumento del 50% delle performance per Watt, anche la potenza aumenterà offrendo prestazioni raddoppiate rispetto alla gamma attuale.
Click sul link per visualizzare la notizia.
Naffziger: "la concorrenza dovrà spingere i consumi molto più in alto di quello che faremo noi"
Internet: "le GPU AMD 7xxx consumeranno quanto le Nvidia 4xxx"
:sofico:
Va bene dai, gli mettessero l'alimentatore esterno a questi mostri e colleghiamole direttamente alla presa della corrente. Facciamo prima. :rolleyes:
Gringo [ITF]
24-06-2022, 18:10
[Quote]Naffziger: "la concorrenza dovrà spingere i consumi molto più in alto di quello che faremo noi"
Internet: "le GPU AMD 7xxx consumeranno quanto le Nvidia 4xxx"[Quote]
Intel: "Le battlemage avranno direttamente la presa posteriore per il 110/220V e richiederanno solo un piccolo ritocco al contratto energetico, nessun nuovo alimentatore"
nickname88
24-06-2022, 19:15
Va bene dai, gli mettessero l'alimentatore esterno a questi mostri e colleghiamole direttamente alla presa della corrente. Facciamo prima. :rolleyes:
Più che alimentatore esterno dovrebbero valutare la possibilità di rendere comune l'uso di box esterni per VGA come nei notebook ma anche per i case desktop.
Oramai con VGA così affamate diventa difficile mantenere freschi pure CPU, SSD, RAM e anche chipset, che ne subiscono il calore.
Bisognerebbe dedicare un box solo per la VGA con alimentatore proprio solo per la scheda, con dissipazione propria. E poi subito sotto un mini case miniITX solo per il resto della configurazione e alimentatore dedicato.
Dal punto di vista della dissipazione sarebbe una manna !
Pandemio
24-06-2022, 19:20
450 non sono 600 ,per un ali sono tanti 150W in più ..specie se è tirato. Non voglio difendere amd o dire che una è meglio dell' altra ma se amd si avvicina alle prestazioni di Nvidia con 150W in meno direi che ha fatto un ottimo lavoro di efficienza.
Il problema nascerà quando usciranno le varie soluzioni dei partner oc...trio..Extreme ecc ecc quanto arriveranno a consumare ??? A meno che non inventino qualche nuova soluzione più potenza vorrà dire sempre più consumi anche andando sempre più giù con il processo.
Piedone1113
24-06-2022, 19:26
450 non sono 600 ,per un ali sono tanti 150W in più ..specie se è tirato. Non voglio difendere amd o dire che una è meglio dell' altra ma se amd si avvicina alle prestazioni di Nvidia con 150W in meno direi che ha fatto un ottimo lavoro di efficienza.
Il problema nascerà quando usciranno le varie soluzioni dei partner oc...trio..Extreme ecc ecc quanto arriveranno a consumare ??? A meno che non inventino qualche nuova soluzione più potenza vorrà dire sempre più consumi anche andando sempre più giù con il processo.
Torneremo agli alimentatori che abbiamo dismesso dopo la scorpacciata di trisli/quadSLI e crossfireX.
Ne ho giusto uno da 1350w che fa la muffa.
:rolleyes:
Pandemio
24-06-2022, 19:31
concordo con nickname88,le schede diventano ogni volta sempre più ridicolmente enormi ! Dovrebbero modificare le schede madri o i case,insieme alla VGA un cavo flat per poterla montare magari come i radiatori sulla cima del case con le ventole all esterno del case
OrazioOC
24-06-2022, 20:19
Il problema sarebbe anche semplice da aggirare, basterebbe permettere all'utente finale di scegliere il proprio profilo per stabilire un "power budget" da dare alla scheda, che lo si faccia da driver o bios, o magari anche tramite degli switch presenti sulla scheda.
Chiaro non mi aspetto che una 7800 xt mi giri con un tdp di 75w, però se si potesse scegliere un range tra i 150w e gli ipotetici 350w sarebbero schede più facilmente gestibili.
Molti applicando profili di undervolt lo stanno facendo, ma sono soluzioni fatte in casa e non sempre la stabilità è assicurata, mentre stabilendo un power budget fisso si potrebbero dare dei limiti senza preoccuparsi di eventuali instabilità di sistema che potrebbero accadere con undervolt mediamente aggressivi.
Luca TIR
24-06-2022, 20:28
Il problema sarebbe anche semplice da aggirare, basterebbe permettere all'utente finale di scegliere il proprio profilo per stabilire un "power budget" da dare alla scheda, che lo si faccia da driver o bios, o magari anche tramite degli switch presenti sulla scheda.
Chiaro non mi aspetto che una 7800 xt mi giri con un tdp di 75w, però se si potesse scegliere un range tra i 150w e gli ipotetici 350w sarebbero schede più facilmente gestibili.
Molti applicando profili di undervolt lo stanno facendo, ma sono soluzioni fatte in casa e non sempre la stabilità è assicurata, mentre stabilendo un power budget fisso si potrebbero dare dei limiti senza preoccuparsi di eventuali instabilità di sistema che potrebbero accadere con undervolt mediamente aggressivi.
però è anche vero che se uno compra una scheda del genere per downvoltarla, per me ha sbagliato acquisto
per quanto riguarda vga del genere trasformate in esterne, possono essere una buona idea ma a fronte di un prezzo maggiore e più spazio occupato in casa [alla fine di esce un altro case un pò più piccolo di un mini itx affianco al case del pc]
Ma il fatto che le schede video consumino sempre di più, a cosa è dovuto? Capisco che ridurre il processo produttivo diventa ogni volta più difficile, ma allora potrebbero accontentarsi di guadagni prestazionali minori.
Già qui siamo alle prese con una crisi energetica stile anni 70, e questi sperano che la gente si prenda GPU che consumano come una stufetta...
Lieutenant
24-06-2022, 20:50
Spero che per la generazione successiva si rendano conto che non e' un approccio sostenibile.
O davvero cominciano ad alimentare le schede video separatamente direttamente dalla presa oppure dovranno trovare una soluzione per migliorare l'efficienza energetica e ridurre dispersioni e/o correnti (ovvero aumentare la tensione operativa a parita' di potenza).
Bho... speriamo riescano a tirar fuori un altro coniglio dal cappello...
Ale55andr0
24-06-2022, 20:57
Già qui siamo alle prese con una crisi energetica stile anni 70, e questi sperano che la gente si prenda GPU che consumano come una stufetta...
la cosa tragica è che lo faranno, non hanno bisogno di sperare che gliele comprino a frotte....
matsnake86
24-06-2022, 21:40
Più che alimentatore esterno dovrebbero valutare la possibilità di rendere comune l'uso di box esterni per VGA come nei notebook ma anche per i case desktop.
Oramai con VGA così affamate diventa difficile mantenere freschi pure CPU, SSD, RAM e anche chipset, che ne subiscono il calore.
Bisognerebbe dedicare un box solo per la VGA con alimentatore proprio solo per la scheda, con dissipazione propria. E poi subito sotto un mini case miniITX solo per il resto della configurazione e alimentatore dedicato.
Dal punto di vista della dissipazione sarebbe una manna !
Sarebbe la cosa più conveniente...
Ormai stanno diventando esagerate in tutto.
Dimensioni ... calore... rumore... Anche basta.
Comunque no grazie.
Se il futuro del gaming passa da avere un fornetto nel pc ci rinuncio.
Windtears
24-06-2022, 21:49
ma non avrebbe avuto più senso parlare del video di gamersnexus sui picchi transienti delle ultime TRE generazioni nvidia gpu e pare anche per la 6900xt amd?
mi preoccupa ancora di più un picco del 200-250% fuori controllo non documentato per qualche ms che mi spegne il sistema di un aumento di 40w di consumo massimo in certe condizioni...
https://www.youtube.com/watch?v=wnRyyCsuHFQ
canislupus
24-06-2022, 21:57
Scusate... ma in questo caso i discorsi sul risparmio energetico... sul non sprecare corrente per cose inutili... si fanno benedire?
C'è realmente necessità di avere schede video che tra poco consumano quanto diversi televisori accesi in contemporanea e poi lamentarsi della lucetta dello stand-by?
Ci dotiamo in casa di ogni elettrodomestico in classe A+++ (persino le lampadine a led), però guai ad immaginare di imporre una cosa simile nei prodotti per il gaming.
Luca TIR
24-06-2022, 22:34
Scusate... ma in questo caso i discorsi sul risparmio energetico... sul non sprecare corrente per cose inutili... si fanno benedire?
C'è realmente necessità di avere schede video che tra poco consumano quanto diversi televisori accesi in contemporanea e poi lamentarsi della lucetta dello stand-by?
Ci dotiamo in casa di ogni elettrodomestico in classe A+++ (persino le lampadine a led), però guai ad immaginare di imporre una cosa simile nei prodotti per il gaming.
io credo che in questi casi ci sia il discorso "passione"
chi è appassionato ad una cosa ci spende i soldi in modo magari non sempre razionale.come l'appassionato di auto d'epoca che per resaurarne una, spende più soldi di quanto ne valrebbe, ma lo fa per la sua soddisfazione.
certo è che vedendo schede del genere,si può fare ironia del tipo "alzare i kw del contatore come quando passi alla cucina ad induzione" ma poi devi considerare se ne vale la pena PER TE, per la tua soddisfazione personale, altrimenti sono semplicemente costi in bolletta sprecati solo per dire che hai la vga super-mega-top, in mia opinione [da non-gamer]
Avanti così, portiamo il consumo di un PC al pari di quello di una lavatrice :rolleyes:
Per me se le possono tenere, AMD e nVidia.
Mai preso una scheda con consumi superiori ai 150 W e molto probabilmente mai lo farò.
Mà qui siamo alle prese con una crisi energetica stile anni 70, e questi sperano che la gente si prenda GPU che consumano come una stufetta...
Volete le Radeon 7000 o la pace (semicit.)?:sofico:
Stando ad AMD RDNA3 aumenterà le performance per watt di oltre il 50%, un aumento davvero notevole per l'efficienza energetica.
Se i consumi sono destinati a salire è soltanto perché avremo un incremento generazionale di performance come non si vedeva da molti anni.
fabryx73
25-06-2022, 07:42
Scusate... ma in questo caso i discorsi sul risparmio energetico... sul non sprecare corrente per cose inutili... si fanno benedire?
C'è realmente necessità di avere schede video che tra poco consumano quanto diversi televisori accesi in contemporanea e poi lamentarsi della lucetta dello stand-by?
Ci dotiamo in casa di ogni elettrodomestico in classe A+++ (persino le lampadine a led), però guai ad immaginare di imporre una cosa simile nei prodotti per il gaming.
si ma ascolta...queste sono schede video di top di gamma di appassionati.li puoi comprare o no...come chi compra una ferrari...io non ho soldi per farlo.....ma non puoi obbligarmi a non farla/venderla/comprarla....
poi sta crisi energetica da cosa è dipesa? governi (eu) completamente ignoranti con scelte fuori dalla realtà che fanno male solo a noi? ma che vadano a farsi benedire....
Volete le Radeon 7000 o la pace (semicit.)?:sofico:
già scritto....voglio la radeon 7000 ,il clima o che dir si voglia.....
quando gli usa e uk hanno attaccato l'irak per niente qualcuno ha fatto qualcosa? se scoppia la guerra in borundi ti rovini da solo l'economia? suvvia i soliti verginelli.....
Alla fine si è arrivati a citare guerra, politica e eco sostenibilità.
Con quei consumi, e relative necessità di dissipazione, è chiaro che non sia una GPU per la massa.
Sicuramente il mercato sta prendendo una pessima direzione ma forse il problema sono gli utenti che comprano più che i produttori. A me di giocare 4K/240fps mi frega poco.
fabryx73
25-06-2022, 08:17
Alla fine si è arrivati a citare guerra, politica e eco sostenibilità.
Con quei consumi, e relative necessità di dissipazione, è chiaro che non sia una GPU per la massa.
Sicuramente il mercato sta prendendo una pessima direzione ma forse il problema sono gli utenti che comprano più che i produttori. A me di giocare 4K/240fps mi frega poco.
E ma ti sei risposto da solo a te frega poco ,magari a un altro frega tanto....
Sulla guerra perdonami non voglio offendere nessuno ma penso che nessuno Sia vergine. questa guerra l'han creata anche gli americani e l'UE non ci sta capendo niente ,sta creando solo problemi a noi poveri cittadini....
Stiamo a fare i verginelli ma all'Ucraina non gliene mai fregato niente della ue della NATO e di tutti noi occidentali.....
quando gli usa e uk hanno attaccato l'irak per niente qualcuno ha fatto qualcosa? se scoppia la guerra in borundi ti rovini da solo l'economia? suvvia i soliti verginelli.....E quindi? perché lo hanno fatto in passato altri, adesso giustifichiamo l'invasione russa? Devo ancora capire perché se lo hanno fatto altri in passato, allora la Russia è meno colpevole e sembra quasi avere il diritto di farlo pure lei...
Ah, non dimentichiamoci che la Russia (anzi, l'URSS) ha invaso l'Afghanistan ben prima che gli USA facessero lo stesso in Iraq: ma ovviamente nessuno si è sognato di dire che gli USA erano giustificati perché i sovietici lo avevano fatto prima.....
Luca TIR
25-06-2022, 08:39
Alla fine si è arrivati a citare guerra, politica e eco sostenibilità.
.
si rischia l'off topic ma alla fine ci sta, avremmo citato anche Pippo e Topolino se avessero il potere di influenzare i costi energetici, argomento inevitabile visto i consumi di questa scheda e dell'eventuale "kit" per raffreddarla.
paolo cavallo
25-06-2022, 08:46
ci gira crysis ?? Non vedo l'ora di metterci le manine sopra alla serie 4xxx Nvidia slurp
ghiltanas
25-06-2022, 09:24
Spero che presto qualcuno affronti il problema a livello burocratico e imponga dei limiti o soluzioni simili, perché non è possibile vedere consumi che salgono così
La questione dei consumi non è una scelta arbitraria, esistono una serie di fattori che la influenzano.
Probabilmente certi progetti nascono per i datacenter, dove una scheda da 500W può essere preferibile rispetto a due da 250W per motivi di occupazione degli slot e presumibilmente di prestazioni/watt.
A permetterlo ovviamente deve essere il processo produttivo, e quelli attuali consentono un buon risparmio dimensionale e un limitato risparmio energetico: morale della favola, se riesco oggi riesco a produrre chip con un certo numero di transistor e riesco a farli andare a certe frequenze, chi me lo fa fare di venderli con frequenze tagliate per non superare certi limiti di consumo? Piuttosto cerco di sfruttare il chip in tutte le sue potenzialità, se poi consuma tanto non è un problema fino a quando è stabile e a questo consumo maggiore corrispondono prestazioni maggiori.
In questo specifico caso sicuramente incide anche il fattore concorrenza: se il principale concorrente produce chip dai consumi elevati, non farlo anche io significa non poter fornire una soluzione top di gamma.
Alla fine, come al solito, è il mercato a regolarsi da solo. Se cambieranno le condizioni di mercato presumibilmente cambieranno anche certe scelte, anche se non si può prescindere dalle condizioni tecniche.
no_side_fx
25-06-2022, 11:21
si dovrà mettere in casa la trifase come per gli armadi rack per giocare a qualche videogioco...
Portocala
25-06-2022, 12:44
E' chiaro che sono schede per chi vuole i 144fissi in 4K. Per poverelli come me con un 1080P vanno bene le vecchie o la 4050TI :asd:
fabryx73
25-06-2022, 12:50
E' chiaro che sono schede per chi vuole i 144fissi in 4K. Per poverelli come me con un 1080P vanno bene le vecchie o la 4050TI :asd:
sperem....perchè la serie corrente i 4k fissi a 144 non li vedo manco per il c***o :D :D :D :D ......
certo poi se mi dici di abbassare i valori da ultra a medio e attivare dlss,ok....però con quello che costano voglio la potenza.....visto che uno spende (se vuole e può) 1000 euro per una scheda di alta gamma.....non gliene frega niente di spendere 10 euro in più al bimestre di corrente.....
29Leonardo
25-06-2022, 13:51
E' chiaro che sono schede per chi vuole i 144fissi in 4K. Per poverelli come me con un 1080P vanno bene le vecchie o la 4050TI :asd:
Seeee quelli li vedrai quando guardando indietro in prospettiva gpu da 800w ti sembreranno a risparmio energetico :asd:
e anche queste rimarranno sullo scaffale.
TigerTank
25-06-2022, 16:46
però è anche vero che se uno compra una scheda del genere per downvoltarla, per me ha sbagliato acquisto
per quanto riguarda vga del genere trasformate in esterne, possono essere una buona idea ma a fronte di un prezzo maggiore e più spazio occupato in casa [alla fine di esce un altro case un pò più piccolo di un mini itx affianco al case del pc]
Il punto è che di fabbrica da specifica loro devono dare un margine di voltaggio "universale" in più in modo che la vga sia più stabile possibile in ogni situazione. E arginando la cosa con i sistemi di sicurezza basati sui tagli di frequenza e potenza in dipendenza dalle temperature.
Però se tu riesci a downvoltare un pò la scheda mantenendo la stabilità perchè becchi una gpu che sia buona, è tutto di guadagnato. Pratica molto seguita con queste ultime 2 generazioni di vga e si spera/presume si possa applicare anche su quelle future.
In ogni caso di sicuro il fatto che escano vga ancora più energivore cozza parecchio in realtà come la nostra dove l'energia elettrica è rincarata parecchio ed il futuro è alquanto nebuloso in tal senso. Di sicuro un impatto maggiore rispetto ad altri paesi.
fabius21
25-06-2022, 16:50
E quindi? perché lo hanno fatto in passato altri, adesso giustifichiamo l'invasione russa? Devo ancora capire perché se lo hanno fatto altri in passato, allora la Russia è meno colpevole e sembra quasi avere il diritto di farlo pure lei...
Ah, non dimentichiamoci che la Russia (anzi, l'URSS) ha invaso l'Afghanistan ben prima che gli USA facessero lo stesso in Iraq: ma ovviamente nessuno si è sognato di dire che gli USA erano giustificati perché i sovietici lo avevano fatto prima.....
Ma posso essere libero di fottermene ed essere egoista preferendo il gas a buon mercato? e dire che cmq anche noi(i nostri governi che sò diversi dai cittadini) abbiamo fatto schifo in passato? Tanto in trent'anni non abbiamo fatto niente per i bambini che muoiono di fame in africa, che mi spezza il cuore di questo, percui preferisco pensare da cinico
Cmq tornando IT si è davvero troppo per tutti i problemi elencati, specialmente per il calore che si crea nel case, a meno che di default in tutte le salse fosse montato un sistema di raffreddamento aio, in maniera che la temperatura crei solo pochi problemi all'interno del case. Anche il consumo però non è da poco.
TigerTank
25-06-2022, 17:01
Ma posso essere libero di fottermene? e dire che cmq anche noi(i nostri governi che sò diversi dai cittadini) abbiamo fatto schifo in passato?
Cmq tornando IT si è davvero troppo per tutti i problemi elencati, specialmente per il calore che si crea nel case, a meno che di default in tutte le salse fosse montato un sistema di raffreddamento aio, in maniera che la temperatura crei solo pochi problemi all'interno del case. Anche il consumo però non è da poco.
Il problema è che se diventano così esose e calorose, anche gli AIO via via iniziano a non starci dentro a meno che diventino a loro volta più corposi, efficienti e dunque costosi. Altrimenti il modo più efficace imho è quello di liquidare il tutto con un impianto custom ed avere un radiatore corposo esterno(anche più grosso del pc stesso :asd: ) da cui scaricare calore.
Una vga da 600W con un AIO da 120mm e radiatore da 30mm di spessore sarebbe cosa alquanto ridicola...
fabius21
25-06-2022, 17:10
Il problema è che se diventano così esose e calorose, anche gli AIO via via iniziano a non starci dentro a meno che diventino a loro volta più corposi, efficienti e dunque costosi. Altrimenti il modo più efficace imho è quello di liquidare il tutto con un impianto custom ed avere un radiatore corposo esterno(anche più grosso del pc stesso :asd: ) da cui scaricare calore.
Una vga da 600W con un AIO da 120mm e radiatore da 30mm di spessore sarebbe cosa alquanto ridicola...
Ma non è da tutti liquidare, io non ne sarei capace ad esempio, cioè troppa fifa che potrebbe andare male qualcosa e boom fottere tutto :help: :cry:
Forse i case esterni sarebbe la soluzione migliore ma, la vedo dura che non possano portare limitazioni di banda
Stiamo a vedere tutte le varie alternative
Ho sempre avuto un occhio di riguardo per l'efficienza
ciolla2005
26-06-2022, 10:55
L'unica è imporre dei limiti.
Non è il momento di sprecare visti i tempi.
canislupus
26-06-2022, 11:27
io credo che in questi casi ci sia il discorso "passione"
chi è appassionato ad una cosa ci spende i soldi in modo magari non sempre razionale.come l'appassionato di auto d'epoca che per resaurarne una, spende più soldi di quanto ne valrebbe, ma lo fa per la sua soddisfazione.
certo è che vedendo schede del genere,si può fare ironia del tipo "alzare i kw del contatore come quando passi alla cucina ad induzione" ma poi devi considerare se ne vale la pena PER TE, per la tua soddisfazione personale, altrimenti sono semplicemente costi in bolletta sprecati solo per dire che hai la vga super-mega-top, in mia opinione [da non-gamer]
Il mio discorso era volto a far comprendere l'ipocrisia di certe scelte.
Oggi abbiamo dei settori che subiscono tassazioni continue e sempre più limitazioni in nome di una efficienza che ha avuto anche il vantaggio di far progredire certe realtà (altrimenti aveva poco senso innovare).
Invece in certi ambiti, considerati di nicchia, questo ragionamento viene totalmente eroso.
Si cerca la prestazione pura a dispetto di qualsiasi logica di miglioramento se non volta ad un risparmio economico o imposta da limiti fisici.
Questo comporta però che non vi sia nessun incentivo a migliorare lo status quo SIA dei prodotti High-End che di quelli a minor margine.
si ma ascolta...queste sono schede video di top di gamma di appassionati.li puoi comprare o no...come chi compra una ferrari...io non ho soldi per farlo.....ma non puoi obbligarmi a non farla/venderla/comprarla....
poi sta crisi energetica da cosa è dipesa? governi (eu) completamente ignoranti con scelte fuori dalla realtà che fanno male solo a noi? ma che vadano a farsi benedire....
già scritto....voglio la radeon 7000 ,il clima o che dir si voglia.....
quando gli usa e uk hanno attaccato l'irak per niente qualcuno ha fatto qualcosa? se scoppia la guerra in borundi ti rovini da solo l'economia? suvvia i soliti verginelli.....
Non voglio entrare in un ambito che chiaramente porterebbe a molte discussioni con il rischio di chiusura del thread.
Dico soltanto che non ha alcuna logica PRETENDERE continue revisioni di alcuni prodotti volti a risparmiare fino all'ultima goccia di energia e poi concepire schede video di questo tipo, sostenendo che in fondo sono poche... e fanno poco danno.
Ricordati che se non migliorano l'efficienza di quelle ad alto costo, sarà ancora più raro che lo facciano per tutte le altre.
fabius21
26-06-2022, 11:58
È quello che è stato fatto per anni, con vantaggi nel breve termine ripagati a usura da svantaggi nel lungo.
È stata una scelta straordinariamente miope.
Ma io dico ciò solo perchè in trent'anni non abbiamo fatto nulla per i bambini che muoiono di fame. Poi per 8 anni ce ne siamo fregati di cosa succedesse li , e abbiamo i report dell'osce
canislupus
26-06-2022, 12:08
Ma io dico ciò solo perchè in trent'anni non abbiamo fatto nulla per i bambini che muoiono di fame. Poi per 8 anni ce ne siamo fregati di cosa succedesse li , e abbiamo i report dell'osce
Perchè il mondo è ipocrita.
Vede solo le guerre che gli interessano.
In questo momento, se non erro, ce ne sono circa 50 sparse qua e là.
Nello Yemen è in atto una strage ogni giorno, ma saranno morti di serie B.
Invece a me hanno insegnato che una persona uccisa, rimane tale... sia che lo facciano da una parte che dall'altra.
fabius21
26-06-2022, 12:16
Perchè il mondo è ipocrita.
Vede solo le guerre che gli interessano.
In questo momento, se non erro, ce ne sono circa 50 sparse qua e là.
Nello Yemen è in atto una strage ogni giorno, ma saranno morti di serie B.
Invece a me hanno insegnato che una persona uccisa, rimane tale... sia che lo facciano da una parte che dall'altra.
Ne sono consapevole, infatti i nuovi fornitori sono delle democrazie da prendere come esempio -.-'
canislupus
26-06-2022, 12:28
Ne sono consapevole, infatti i nuovi fornitori sono delle democrazie da prendere come esempio -.-'
Quella è un'altra cosa profondamente miope.
Ma se ci pensi non è che gli USA siano migliori di noi.
La loro produzione è in buona parte in Cina.
La stessa che ogni giorno insultano, ma con la quale fanno affari.
Poi se un giorno dovessero impazzire e smettere di collaborare, allora si troverebbero in carenza di ogni bene.
Avrebbero il know-how... ma zero industrie e materie prime.
Spero che presto qualcuno affronti il problema a livello burocratico e imponga dei limiti o soluzioni simili, perché non è possibile vedere consumi che salgono così
Attenzione però che in nome dell'ecologia si fa molto presto ad introdurre norme scollegate dalla realtà.
Io immagino sempre che qualcosa in tal senso potrebbe includere: un tetto ai limiti di potenza dell'alimentatore del PC per usi consumer (qualcosa di basso, ad esempio 150-200W), bandire l'alimentazione esterna per le GPU consumer (ossia tetto massimo 75W per la GPU), controlli firmware ineludibili per far rispettare al PC tali limiti, ecc.
Detto questo, spero che esca qualche decente modello Radeon 7000 sui 150W di TDP per sostituire la mia attuale Sapphire Nitro+ RX480 4GB da 145W nominali, al momento usata con frequenze default invece che l'overclock di fabbrica. È vero che c'è la possibilità di abbassare il power limit nel caso il limite fosse più elevato per una eventuale scheda di fascia equivalente, ma non è sempre ideale farlo.
gigioracing
26-06-2022, 12:58
ci sono sempre le 1030 gt per chi vuole giocare consumando poco :)
Perchè il mondo è ipocrita.
Vede solo le guerre che gli interessano.
In questo momento, se non erro, ce ne sono circa 50 sparse qua e là.
Nello Yemen è in atto una strage ogni giorno, ma saranno morti di serie B.
Invece a me hanno insegnato che una persona uccisa, rimane tale... sia che lo facciano da una parte che dall'altra.
Perché il mondo difficilmente interviene nelle guerre civili come quella in Yemen, così come non sta intervenendo direttamente in quella in Ucraina perché si rischia la guerra mondiale, così come è improbabile intervenga nelle tante guerre civili dei paesi africani.
fabius21
26-06-2022, 14:08
Quella è un'altra cosa profondamente miope.
Ma se ci pensi non è che gli USA siano migliori di noi.
La loro produzione è in buona parte in Cina.
La stessa che ogni giorno insultano, ma con la quale fanno affari.
Poi se un giorno dovessero impazzire e smettere di collaborare, allora si troverebbero in carenza di ogni bene.
Avrebbero il know-how... ma zero industrie e materie prime.
Per questo i cittadini vedeva di buon occhio trump, voleva riportare la produzione nel paese. Purtroppo dipendiamo dagli altri paesi per quasi tutto, quando invece almeno con l'agricoltura che avevamo, dovevamo essere autonomi almeno a livello alimentare. Anche la storia che ci raccontano del grano i 20 milioni di tonnellate sulle 900 totali che sarebbero? ma dicono che è quella la colpa, mica che alcuni paesi, giustamente hanno vietato l'export per prevenire carenze nei prossimi anni.
Che anche se "un personaggio" alla fine ha perfino strinto la mano a kim.
fabius21
26-06-2022, 14:10
Perché il mondo difficilmente interviene nelle guerre civili come quella in Yemen, così come non sta intervenendo direttamente in quella in Ucraina perché si rischia la guerra mondiale, così come è improbabile intervenga nelle tante guerre civili dei paesi africani.
Mica parlavamo di intervenire, se ne son proprio fregati, possono applicare le sanzioni per quegli stati, il primo che mi viene in mente Israele.
Mica parlavamo di intervenire, se ne son proprio fregati, possono applicare le sanzioni per quegli stati, il primo che mi viene in mente Israele.
Sanzioni in una guerra civile? A che titolo?
fabryx73
26-06-2022, 14:32
Perché il mondo difficilmente interviene nelle guerre civili come quella in Yemen, così come non sta intervenendo direttamente in quella in Ucraina perché si rischia la guerra mondiale, così come è improbabile intervenga nelle tante guerre civili dei paesi africani.
a perchè non stanno intervendo in ucraina?
pensa un pò che pirla che son io ,per me intervenire e' dare a quei "signori" ucraini (sempre stati paladini della democrazia ed il rispetto dei diritti civili non meno della russia,anzi......:D ) una vagonata di armi come stiamo facendo ogni fottuto giorno.....
se facevamo così per qualsiasi conflitto o guerra scoppiata in passato.....
Io immagino sempre che qualcosa in tal senso potrebbe includere: un tetto ai limiti di potenza dell'alimentatore del PC per usi consumer (qualcosa di basso, ad esempio 150-200W), bandire l'alimentazione esterna per le GPU consumer (ossia tetto massimo 75W per la GPU), controlli firmware ineludibili per far rispettare al PC tali limiti, ecc.
si certo....fanno così e già mi vedo il marietto nostrano che fa la fine di quello a piazzale loreto :D ...... ricorda che noi italiani siamo pirla e creduloni (infatti guarda cosa ci meritiamo al governo) ma non toccare mai quello che vogliamo come buoi (divertimento ,libertà o climatizzatore che dir si voglia) che altrimenti per quello scatta si la rivoluzione....
canislupus
26-06-2022, 14:33
Perché il mondo difficilmente interviene nelle guerre civili come quella in Yemen, così come non sta intervenendo direttamente in quella in Ucraina perché si rischia la guerra mondiale, così come è improbabile intervenga nelle tante guerre civili dei paesi africani.
Questo però dimostra che nessuno può dare patenti di libertà o sentirsi migliore.
Semplicemente difende i suoi interessi, incartandoli con quel velo (neanche tanto sottile) di ipocrisia.
Ecco quindi che non frega a nessuno se in Ucraina c'era una guerra civile nel Donbass da 8 anni, così come non frega nulla se ci sta nello Yemen (per inciso aiutata da un'altra nazione straniera... ma vabbè).
Mi può danneggiare? è condotta da un mio nemico storico?
Se una di queste condizioni viene rispettata, allora è una guerra di libertà, di difesa dei valori.
Altrimenti che si scannino tra di loro... io devo pensare alla mia vacanza (pensiero che descrive bene il modus operandi).
[K]iT[o]
26-06-2022, 14:36
Ovviamente le testate ora sbattono titoli altisonanti sulla questione perchè attirano clicks facili, ma come sempre ci sarà la possibilità di scegliere in un ampio ventaglio di modelli, spaziando dai 120w a salire, e (come al solito) la fascia media e medio-alta userà tra i 180 e 300w, risultando come sempre la scelta oggettivamente migliore per rapporto prezzo, prestazioni, consumi, calore, e longevità, dato che hardware meno esasperato dura di più.
Le soluzioni "top" sono sempre considerabili esperimenti e come tali servono soltanto come strumento pubblicitario per il produttore, e trappoletta per gli appassionati inconsapevoli che finiscono con spendere troppo. E oggi più che mai visto che praticamente tutte le schede sono overcloccate al massimo di fabbrica (boost) e che infatti, al contrario del passato, tocca a noi ridimensionare verso il basso con undervolt e altri accorgimenti per renderle nuovamente efficienti e longeve.
canislupus
26-06-2022, 14:39
Attenzione però che in nome dell'ecologia si fa molto presto ad introdurre norme scollegate dalla realtà.
Io immagino sempre che qualcosa in tal senso potrebbe includere: un tetto ai limiti di potenza dell'alimentatore del PC per usi consumer (qualcosa di basso, ad esempio 150-200W), bandire l'alimentazione esterna per le GPU consumer (ossia tetto massimo 75W per la GPU), controlli firmware ineludibili per far rispettare al PC tali limiti, ecc.
Detto questo, spero che esca qualche decente modello Radeon 7000 sui 150W di TDP per sostituire la mia attuale Sapphire Nitro+ RX480 4GB da 145W nominali, al momento usata con frequenze default invece che l'overclock di fabbrica. È vero che c'è la possibilità di abbassare il power limit nel caso il limite fosse più elevato per una eventuale scheda di fascia equivalente, ma non è sempre ideale farlo.
Quindi la soluzione sarebbe quella di non fare nulla.
Allora domani tanto vale produrre una GPU da 1KW di consumo.
Tanto la compreranno 4 gatti...
Peccato che questo significa che non vi sarà alcuna logica per produrre ANCHE gpu più scarse in prestazioni, ma più parsimoniose.
A molti sfugge un particolare fondamentale.
Le innovazioni si portano PRIMA sui prodotti High End, poi piano piano su quelli a più basso profitto.
Ma se non "incentivo" questo modo di ragionare, perchè spendere soldi in ricerca?
In Europa oggi abbiamo macchine con emissioni molto basse e tanti km/litro.
Come è avvenuto? Semplicemente perchè si sono messe sempre più restrizioni.
Altrimenti non avrebbero avuto problemi a far inquinare pesantemente e consumare uno sproposito.
Per quale ragione spendere miliardi in tal senso, quando si poteva lavorare solo sulla potenza pura.
Due punti:
1) Se verranno scritte norme per limitare i consumi delle GPU da gioco (una goccia nel mare, in ogni caso) o degli interi PC consumer, è opportuno aspettarsi come al solito provvedimenti pesanti e tecnicamente poco sensati che non si tradurranno in vantaggi concreti per gli utenti finali.
2) Le GPU high-end usano già fra i processi produttivi più avanzati disponibili al momento della commercializzazione ed i margini per innovare in termini di consumo sono molto stretti. Indirettamente questo è il motivo per il quale i consumi aumentano: per poter offrire +xx% di prestazioni ad ogni generazione di GPU che altrimenti non si manifesterebbero.
L'unica cosa concreta per farle consumare meno è farle andare meno, dunque underclock (e conseguentemente undervolt) o indirettamente power limit inferiori. Come per le CPU, ovviamente GPU più grandi (= più core) operanti a frequenze minori potenzialmente possono consumare meno di chip piccoli a frequenze maggiori. Quindi fissato ipoteticamente un tetto massimo di potenza e numero di chip di memoria sul PCB, la GPU più grande e costosa da produrre andrà di più.
canislupus
26-06-2022, 15:18
Due punti:
1) Se verranno scritte norme per limitare i consumi delle GPU da gioco (una goccia nel mare, in ogni caso) o degli interi PC consumer, è opportuno aspettarsi come al solito provvedimenti pesanti e tecnicamente poco sensati che non si tradurranno in vantaggi concreti per gli utenti finali.
2) Le GPU high-end usano già fra i processi produttivi più avanzati disponibili al momento della commercializzazione ed i margini per innovare in termini di consumo sono molto stretti. Indirettamente questo è il motivo per il quale i consumi aumentano: per poter offrire +xx% di prestazioni ad ogni generazione di GPU che altrimenti non si manifesterebbero.
L'unica cosa concreta per farle consumare meno è farle andare meno, dunque underclock (e conseguentemente undervolt) o indirettamente power limit inferiori. Come per le CPU, ovviamente GPU più grandi (= più core) operanti a frequenze minori potenzialmente possono consumare meno di chip piccoli a frequenze maggiori. Quindi fissato ipoteticamente un tetto massimo di potenza e numero di chip di memoria sul PCB, la GPU più grande e costosa da produrre andrà di più.
Ma il discorso era molto semplice... se metti dei limiti di consumo sulle GPU in generale... i produttori saranno incentivati nel ricercare soluzioni alternative per garantire maggiori prestazioni con minore richiesta di energia.
Questo si tradurrà in un beneficio per TUTTE le categorie di GPU.
Facciamo come ho scritto prima, allora. 75W max per la GPU, 75W max per la CPU, 200W max per l'intero PC, potenza massima alimentatore 230W (bassa per non barare).
Entro 3-5 anni magari diminuiamo a 150W per l'intero PC, e più avanti magari si può diminuire ancora, a mo' di norme EuroX.
Ho il sospetto però che in tal caso l'hardware venduto qui sarà "EU edition" mentre nel resto del mondo rimarrà comunque slimitato.
EDIT: un motivo principale per il quale eventuali limiti di legge non si tradurranno in hardware migliore è che già ora i produttori sono incentivati a ricercare soluzioni più efficienti: avviene con laptop e dispositivi mobile in genere. Ma questi hanno costi superiori e potenza computazionale inferiore rispetto ai PC desktop tradizionali di pari generazione. Introdurre limiti di potenza sostanziali non può fare altro che trasformare (se non totalmente, in parte) i PC desktop in laptop maggiorati.
Ma pensate davvero che possa arrivare maga Magò e possa costruire una scheda video da 120hz in 4K che consumi 10W?
Il fatto è che la tecnologia è questa, e viene sfruttata, se poi le esigenze aumentano sempre, aumenteranno anche i consumi, ogni paragone è sbagliato perché se i giocatori si accontentassero del full HD a 60hz basterebbe una scheda economica e che consuma poco se però pretende di processare un ordine di grandezza in più di dati e oltre la situazione si complica
Attenzione però che in nome dell'ecologia si fa molto presto ad introdurre norme scollegate dalla realtà.
Io immagino sempre che qualcosa in tal senso potrebbe includere: un tetto ai limiti di potenza dell'alimentatore del PC per usi consumer (qualcosa di basso, ad esempio 150-200W), bandire l'alimentazione esterna per le GPU consumer (ossia tetto massimo 75W per la GPU), controlli firmware ineludibili per far rispettare al PC tali limiti, ecc.
Onestamente non mi sembra una buona soluzione, sarebbe meglio introdurre le etichette energetiche sugli alimentatori, magari legandola alla già esistente 80plus o migliorando quest'ultima, ed eliminare dalla vendita gli alimentatori quelli meno efficienti o privi di certificazione (leggasi cinesi).
TommyAngelo88
26-06-2022, 16:44
Bene..rimarrò con la mia 3080ti e il 12700kf finché entrambi non mi imploreranno pietà
a perchè non stanno intervendo in ucraina?
pensa un pò che pirla che son io ,per me intervenire e' dare a quei "signori" ucraini (sempre stati paladini della democrazia ed il rispetto dei diritti civili non meno della russia,anzi......:D ) una vagonata di armi come stiamo facendo ogni fottuto giorno.....
se facevamo così per qualsiasi conflitto o guerra scoppiata in passato.....
Ho scritto interventi diretti, cioè andare direttamente lì a fare la guerra, in altre condizioni sarebbero partiti senza farsi troppi problemi, agli inglesi in particolare prudevano particolarmente le mani :D.
Questo però dimostra che nessuno può dare patenti di libertà o sentirsi migliore.
Semplicemente difende i suoi interessi, incartandoli con quel velo (neanche tanto sottile) di ipocrisia.
Ecco quindi che non frega a nessuno se in Ucraina c'era una guerra civile nel Donbass da 8 anni, così come non frega nulla se ci sta nello Yemen (per inciso aiutata da un'altra nazione straniera... ma vabbè).
Mi può danneggiare? è condotta da un mio nemico storico?
Se una di queste condizioni viene rispettata, allora è una guerra di libertà, di difesa dei valori.
Altrimenti che si scannino tra di loro... io devo pensare alla mia vacanza (pensiero che descrive bene il modus operandi).
Ma infatti se ci sono interessi ci si arma e si parte, altrimenti citando Don Buro "Chi se fa l'affari sua torna sano a casa sua".
Quindi la soluzione sarebbe quella di non fare nulla.
Allora domani tanto vale produrre una GPU da 1KW di consumo.
Tanto la compreranno 4 gatti...
Peccato che questo significa che non vi sarà alcuna logica per produrre ANCHE gpu più scarse in prestazioni, ma più parsimoniose.
A molti sfugge un particolare fondamentale.
Le innovazioni si portano PRIMA sui prodotti High End, poi piano piano su quelli a più basso profitto.
Ma se non "incentivo" questo modo di ragionare, perchè spendere soldi in ricerca?
In Europa oggi abbiamo macchine con emissioni molto basse e tanti km/litro.
Come è avvenuto? Semplicemente perchè si sono messe sempre più restrizioni.
Altrimenti non avrebbero avuto problemi a far inquinare pesantemente e consumare uno sproposito.
Per quale ragione spendere miliardi in tal senso, quando si poteva lavorare solo sulla potenza pura.
Se metti regole fai solo aumentare esponenzialmente i costi, rallentando di fatto la tecnologia, visto che è un mercato abbastanza limitato non ha senso intervenire in questo senso.
Onestamente non mi sembra una buona soluzione, sarebbe meglio introdurre le etichette energetiche sugli alimentatori, magari legandola alla già esistente 80plus o migliorando quest'ultima, ed eliminare dalla vendita gli alimentatori quelli meno efficienti o privi di certificazione (leggasi cinesi).
C'è sempre chi non si fa problemi a spendere per avere di più; gli ultimi anni di GPU a prezzi folli hanno dimostrato anche questo. Se ci fossero seri intenti di limitare l'assorbimento elettrico dei PC e dei loro componenti, una proposta in merito dovrebbe occuparsi di risolvere il problema alla radice, impedendo che i componenti hardware di nuova produzione possano farlo o potenzialmente permetterlo.
In ogni caso in sostanza quello che volevo dire era che per limitare le GPU high-end (che non costituiscono il grosso del mercato) c'è il rischio che venga toccato tutto il mercato dei componenti hardware ed a rimetterci saranno tutti gli utenti di PC desktop, non solo chi se ne strafrega dell'ambiente.
canislupus
26-06-2022, 18:43
Se metti regole fai solo aumentare esponenzialmente i costi, rallentando di fatto la tecnologia, visto che è un mercato abbastanza limitato non ha senso intervenire in questo senso.
O magari direzioni i costi in altri ambiti che non siano SOLO quelli delle prestazioni pure.
Ad esempio al momento non vi è un grande incentivo nell'ottimizzazione del codice e questo perchè si è consapevoli che alla fine uscirà sempre qualcosa che riuscirà ugualmente ad ottenere dei buoni risultati.
Questo non è progresso, ma adagiarsi allo status quo.
canislupus
26-06-2022, 18:53
C'è sempre chi non si fa problemi a spendere per avere di più; gli ultimi anni di GPU a prezzi folli hanno dimostrato anche questo. Se ci fossero seri intenti di limitare l'assorbimento elettrico dei PC e dei loro componenti, una proposta in merito dovrebbe occuparsi di risolvere il problema alla radice, impedendo che i componenti hardware di nuova produzione possano farlo o potenzialmente permetterlo.
In ogni caso in sostanza quello che volevo dire era che per limitare le GPU high-end (che non costituiscono il grosso del mercato) c'è il rischio che venga toccato tutto il mercato dei componenti hardware ed a rimetterci saranno tutti gli utenti di PC desktop, non solo chi se ne strafrega dell'ambiente.
Ma perchè parli di RIMETTERCI?
Dai quindi per scontato che sia impossibile mantenere le prestazioni e diminuire i consumi?
Certo, non parlo di farlo in 5 minuti... ma neanche si può ipotizzare di crescere all'infinito.
Ma perchè parli di RIMETTERCI?
Perché non è possibile tagliare drasticamente i consumi delle GPU a corto o medio termine senza perdere prestazioni e/o mantenendo costi umani con chip di relativamente piccola dimensione (considerando valido il principio che a parità di architettura più core (shader) a bassa frequenza sono più efficienti di meno core ad alta frequenza).
Se bisogna farlo "ora", non c'è altra possibilità che tagliare le frequenze operative e dunque le prestazioni (o fissare un limite di potenza basso, e dunque sempre le prestazioni).
E se 450...600W sono certamente un limite pratico—il PC diventa di fatto una stufa elettrica—la soglia di "consumo eccessivo" è altamente soggettiva. Qualcuno potrebbe dire che se la scheda video consuma più di quella discreta di un laptop di fascia top, è già troppo. Altri potrebbero considerare il consumo di una console da gioco (200W?) un limite ragionevole per l'intero PC.
Se si parla di proporre leggi per limitare i consumi delle schede video occorre fare molta attenzione, che negli intenti è molto facile essere virtuosi.
Dai quindi per scontato che sia impossibile mantenere le prestazioni e diminuire i consumi?
Certo, non parlo di farlo in 5 minuti... ma neanche si può ipotizzare di crescere all'infinito.
È possibile mantenere le stesse prestazioni e migliorare leggermente i consumi quando il processo costruttivo migliora, ma questi miglioramenti sono oramai diradati nel tempo e di entità limitata quando si parla di semplici "refresh".
Si potrebbe considerare di bloccare il livello prestazionale attuale per almeno i prossimi 5-6 anni nell'attesa che i consumi come minimo si dimezzino ma le uniche aziende che potrebbero essere interessate a questo sarebbero quelle senza prodotti in attuale competizione nella fascia alta del mercato dominata da AMD ed NVidia. Forse un regalo ad Intel e qualche potenziale concorrente dalla Cina.
O magari direzioni i costi in altri ambiti che non siano SOLO quelli delle prestazioni pure.
Sono le prestazioni che ti fanno vendere, e ti fanno pure da traino per le fasce più basse del mercato, quindi ovviamente la maggior parte degli investimenti vanno lì...poi parliamo anche un po' di realtà, puoi pure fare una gpu estremamente potente, ma se gli devi collegare un reattore nucleare dedicato il mercato gli si restringe non poco...senza contare il sistema di dissipazione per raffreddarla...
Ma perchè parli di RIMETTERCI?
Dai quindi per scontato che sia impossibile mantenere le prestazioni e diminuire i consumi?
Certo, non parlo di farlo in 5 minuti... ma neanche si può ipotizzare di crescere all'infinito.
I consumi hanno sempre fatto sali e scendi a seconda delle architetture utilizzate e dei processi produttivi, oggi tra l'aumento della risoluzione e della frequenza dei monitor è normale si vada a cercare potenza nel modo più semplice...più in la verranno anche le ottimizzazioni dei consumi.
canislupus
26-06-2022, 20:48
Perché non è possibile tagliare drasticamente i consumi delle GPU a corto o medio termine senza perdere prestazioni e/o mantenendo costi umani con chip di relativamente piccola dimensione (considerando valido il principio che a parità di architettura più core (shader) a bassa frequenza sono più efficienti di meno core ad alta frequenza).
Se bisogna farlo "ora", non c'è altra possibilità che tagliare le frequenze operative e dunque le prestazioni (o fissare un limite di potenza basso, e dunque sempre le prestazioni).
E se 450...600W sono certamente un limite pratico—il PC diventa di fatto una stufa elettrica—la soglia di "consumo eccessivo" è altamente soggettiva. Qualcuno potrebbe dire che se la scheda video consuma più di quella discreta di un laptop di fascia top, è già troppo. Altri potrebbero considerare il consumo di una console da gioco (200W?) un limite ragionevole per l'intero PC.
Se si parla di proporre leggi per limitare i consumi delle schede video occorre fare molta attenzione, che negli intenti è molto facile essere virtuosi.
È possibile mantenere le stesse prestazioni e migliorare leggermente i consumi quando il processo costruttivo migliora, ma questi miglioramenti sono oramai diradati nel tempo e di entità limitata quando si parla di semplici "refresh".
Si potrebbe considerare di bloccare il livello prestazionale attuale per almeno i prossimi 5-6 anni nell'attesa che i consumi come minimo si dimezzino ma le uniche aziende che potrebbero essere interessate a questo sarebbero quelle senza prodotti in attuale competizione nella fascia alta del mercato dominata da AMD ed NVidia. Forse un regalo ad Intel e qualche potenziale concorrente dalla Cina.
Sono le prestazioni che ti fanno vendere, e ti fanno pure da traino per le fasce più basse del mercato, quindi ovviamente la maggior parte degli investimenti vanno lì...poi parliamo anche un po' di realtà, puoi pure fare una gpu estremamente potente, ma se gli devi collegare un reattore nucleare dedicato il mercato gli si restringe non poco...senza contare il sistema di dissipazione per raffreddarla...
I consumi hanno sempre fatto sali e scendi a seconda delle architetture utilizzate e dei processi produttivi, oggi tra l'aumento della risoluzione e della frequenza dei monitor è normale si vada a cercare potenza nel modo più semplice...più in la verranno anche le ottimizzazioni dei consumi.
Avete detto in pratica che non si possa chiedere un miglioramento dei consumi nè una ottimizzazione del codice.
Quindi se domani una GPU da sola arriverà a consumare quanto un paio di lavatrici, andrà ugualmente bene.
In fondo non si può ripensare a questa logica.
Prestazioni sempre e comunque... a qualunque costo...
Avete detto in pratica che non si possa chiedere un miglioramento dei consumi nè una ottimizzazione del codice.
Quindi se domani una GPU da sola arriverà a consumare quanto un paio di lavatrici, andrà ugualmente bene.
In fondo non si può ripensare a questa logica.
Prestazioni sempre e comunque... a qualunque costo...
Esatto d'altrocanto molti sono gli stessi che accettano l'idea che però.. si tratta della nuova fascia superiore di prezzo/prestazioni, chiamata *sostantivo che preferite*-enthusiast che è mooolto più prestante della fascia massima della generazione precedente, quindi 2-3k€ li vale
Figuriamoci se i consumi sono un problema
L'importante è ottenere attorno ai 30 stabili in 4k col ray tracing attivo
gigioracing
26-06-2022, 22:30
Sembra vogliono sfruttare troppo i nuovi processi produttivi ,dovrebbero aspettare i 2 3nm per sovraccaricare i chip con tutti quei transitor
Io mi aspetto trasparenza sui consumi e rigidi criteri di risparmio energetico; poi se una GPU quando "libera potenza" consuma quanto due lavatrici, problemi di quello che la compra. Se ne può / vuole sostenere i costi e ne ricava maggior soddisfazione nell'utilizzo, buon per lui. Non mi risulta che questi prodotti siano diffusi e/o quasi indispensabili come veicoli o elettrodomestici generici e pertanto non vedo per quale motivo si dovrebbe porre un severo limite a quella che è, come altre altrettanto costose, attività, nel caso peggiore, ludica.
Avete detto in pratica che non si possa chiedere un miglioramento dei consumi nè una ottimizzazione del codice.
Quindi se domani una GPU da sola arriverà a consumare quanto un paio di lavatrici, andrà ugualmente bene.
In fondo non si può ripensare a questa logica.
Prestazioni sempre e comunque... a qualunque costo...
Logica vuole che il prodotto nuovo sia sempre più prestante di quello precedente, quindi presentare una gpu meno potente, anche se più parca nei consumi, di certo non è un buon biglietto da visita...poi le richieste le fa la fascia di mercato, in quella altissima da sempre si chiede potenza senza compromessi, ma i numeri sono nella fascia media e bassa, come sempre, dove non si arriva neanche a 200W, che tutto sommato mi sembra un valore ragionevole.
Poi se ne vogliamo fare un discorso ideologico ok, sono anche d'accordo con te, in un periodo come questo, tra crisi energetica e riscaldamento globale, sarebbe il caso che si iniziassero a produrre prodotti più efficienti e a sfruttare meglio quello che già si ha, ma la cosa si ferma qui...imporre qualcosa non è mai una soluzione buona.
ci gira crysis ?? Non vedo l'ora di metterci le manine sopra alla serie 4xxx Nvidia slurp
Questo commento mi ha fatto ricordare una cosa: esistono giochi che, anche con il cambio di generazione delle schede video, si sono rivelati ancora molto pesanti per girare bene?
Questo commento mi ha fatto ricordare una cosa: esistono giochi che, anche con il cambio di generazione delle schede video, si sono rivelati ancora molto pesanti per girare bene?
Non è solo il gioco, ma soprattutto la risoluzione e la frequenza che si vogliono ottenere, ad oggi se vuoi giocare a 4K con tutto attivo non basta una scheda top, se ti accontenti di un full-hd basta una scheda media
29Leonardo
27-06-2022, 09:28
Questo commento mi ha fatto ricordare una cosa: esistono giochi che, anche con il cambio di generazione delle schede video, si sono rivelati ancora molto pesanti per girare bene?
Le prestazioni della gpu contano in parte sulla potenza bruta dell'hardware, se non hai un driver scritto bene e vuoi far girare un software (gioco) programmato male ti attaccherai sempre e comunque.
E' l'hardware che è castrato dal software nel caso dei giochi, non il contrario, è per questo che esistono titoli che a distanza di generazioni di gpu non vanno come ci si aspetterebbe, del resto se il software non prevede l'utilizzio di un tipo di compressione/decodifica anche se l'hardware lo possiede e potrebbe velocizzare i calcoli comunque non verrà usato.
Già qui siamo alle prese con una crisi energetica stile anni 70, e questi sperano che la gente si prenda GPU che consumano come una stufetta...
La gente le comprerá purtroppo...
Ricorda che la stampa specializzata (e non solo) praticamente da sempre va avanti con la manfrina secondo cui tutto ció che conta sono le prestazioni rapportate ai consumi della concorrenza e del prodotto precedente, tanto su desktop i consumi non importano chissá quanto a differenza dei portatili. :muro: :muro:
Voglio dire, con un rapporto prestazioni/watt >50% le RX7000 avrebbero giá prestazioni del 50% superiori a paritá di consumi, che non mi sembra assolutamente poco.
C´é davvero bisogno di schede che consumi ulteriori 150W in piú?
le_mie_parole
27-06-2022, 11:18
se questo settore non viene regolamentato finiremo col dover usare una intera centrare per alimentare un singolo pc...mentre loro non faranno niente per migliorare le loro architetture, limitandosi ad aumentare il numero di transistor e basta al sol scopo di poter dire che fanno girare giochi in 4k, è evidente che sia l'RT che il 4k siano troppo per le attuali architetture, sarebbe stato meglio si fossero concentrati ad affinarle per il fullhd diminuendone i consumi e migliorando le performance (contestualmente alla ricerca e sviluppo di nuove architetture capaci di mantenere i consumi bassi e di fornire le performance necessarie ai nuovi standard), e che gli sviluppatori di giochi invece di fare ciofeche in 4k si fossero concentrati sul game play, sulla profondità della storia e la caratterizzazione di mondo e pg... ma ovviamente, questa è la parte difficile e che gli richiede impegno...e si sa, il difficile e l'impegno non portano soldi ed inoltre bisogna pure avere idee da implementare
tanto su desktop i consumi non importano chissá quanto a differenza dei portatili. :muro: :muro:
Veramente non fanno molto testo neanche sui portatili, ci sono alcuni notebook da gioco che necessitano di due alimentatori per funzionare a piena potenza, così come ultimamente mi è capitato di vedere un mostruoso alimentatore da 230W su un thinkpad p17, quindi un notebook professionale, mi pare esista anche anche un modello che necessita di quello da 300W...insomma se hai bisogno di potenza per lavorare o giocare i consumi passano ovviamente in secondo piano...il discorso comunque è che la massa nel bene o nel male non usa prodotti di questo tipo, la massa non usa neanche il pc per giocare, ma le console o peggio i tablet e gli smartphone, che i consumi delle gpu stiano salendo è palese, ma sono aumentate anche le richieste medie dei videogiocatori pc, che sono meno, ma molto più esigenti.
se questo settore non viene regolamentato finiremo col dover usare una intera centrare per alimentare un singolo pc...mentre loro non faranno niente per migliorare le loro architetture, limitandosi ad aumentare il numero di transistor e basta al sol scopo di poter dire che fanno girare giochi in 4k, è evidente che sia l'RT che il 4k siano troppo per le attuali architetture, sarebbe stato meglio si fossero concentrati ad affinarle per il fullhd diminuendone i consumi e migliorando le performance (contestualmente alla ricerca e sviluppo di nuove architetture capaci di mantenere i consumi bassi e di fornire le performance necessarie ai nuovi standard), e che gli sviluppatori di giochi invece di fare ciofeche in 4k si fossero concentrati sul game play, sulla profondità della storia e la caratterizzazione di mondo e pg... ma ovviamente, questa è la parte difficile e che gli richiede impegno...e si sa, il difficile e l'impegno non portano soldi ed inoltre bisogna pure avere idee da implementare
A parte l'evidente voglia di regolamentare tutto che è in antitesi con la logica e il libero mercato, ma sarebbe come vietare TV più grosse di 52" o automobili che fanno meno di 25,km/l ecc.
Per il resto perché non ti proponi come capo progettista che riesce ad ottenere le cose che chiedi, credo che ti farebbero tutti pronti d'oro se fossi in grado di fare meglio dei progettisti delle schede video e dei creatori di videogiochi.
Io proprio non capisco 4 pagine di commenti sul TDP delle schede video. Che non sia un periodo di vacche grasse è pacifico ma arrivare a leggere che bisogna regolamentare il settore mi si accappona la pelle
In precedenza si andava anche di quad Crossfire/SLI con delle stufe e alimentatori da 1.5kw ed oltre. Qui il commento di roccia1234 sotto la news della 7990 https://www.hwupgrade.it/news/skvideo/e-di-powercolor-la-prima-radeon-hd-7990-sul-mercato_43496.html, anzi andate a vedere il TDP della 7970X2 citata nell'articolo.
cronos1990
27-06-2022, 12:49
Sogno un forum in cui esista una singola notizia da commentare che non converga magicamente sulle questioni ambientali :fagiano:
le_mie_parole
27-06-2022, 12:58
mi sa che non vi rendete conto che è proprio a causa di ragionamenti come il vostro (emin+ quello di prima) che abbiamo ammorbato il pianeta...che se non ve ne siete accorti... è l'unico posto che ci permette di vivere. Se dal principio, in ogni settore industriale e civile, nessuno escluso, si fossero concentrati sull'efficienza energetica mettendola nella bilancia come peso prioritario (ad esempio coibentando tutti gli edifici sin da subito, produrre elettrodomestici con efficienza elevata, a partire dai frigoriferi) mettendo un limite ai motori a combustione per cilindrata e consumi, etc etc etc, ad oggi, l'impatto dell'umanità sul pianeta non sarebbe stato così devastante, da stime avremmo consumato meno del 20/30% delle risorse naturali che abbiamo invece consumato. Se da subito ci fossimo attivati per produrre beni duraturi e durevoli, robusti, concepiti per essere il più possibile riciclabili/riutilizzabili.... non avremmo avuto il sottosuolo, le acque dolci e salate, piene di inquinanti e rifiuti di ogni genere. Ma capisco che per persone egoiste e mediocri, che pensano solo al loro tornaconto, questi sono discorsi difficili da comprendere...
Ma capisco che per persone egoiste e mediocri, che pensano solo al loro tornaconto, questi sono discorsi difficili da comprendere...
Egoiste e mediocri lo dici a qualcuno che conosci. Fine trasmissione.
mi sa che non vi rendete conto che è proprio a causa di ragionamenti come il vostro (emin+ quello di prima) che abbiamo ammorbato il pianeta...che se non ve ne siete accorti... è l'unico posto che ci permette di vivere. Se dal principio, in ogni settore industriale e civile, nessuno escluso, si fossero concentrati sull'efficienza energetica mettendola nella bilancia come peso prioritario (ad esempio coibentando tutti gli edifici sin da subito, produrre elettrodomestici con efficienza elevata, a partire dai frigoriferi) mettendo un limite ai motori a combustione per cilindrata e consumi, etc etc etc, ad oggi, l'impatto dell'umanità sul pianeta non sarebbe stato così devastante, da stime avremmo consumato meno del 20/30% delle risorse naturali che abbiamo invece consumato. Se da subito ci fossimo attivati per produrre beni duraturi e durevoli, robusti, concepiti per essere il più possibile riciclabili/riutilizzabili.... non avremmo avuto il sottosuolo, le acque dolci e salate, piene di inquinanti e rifiuti di ogni genere. Ma capisco che per persone egoiste e mediocri, che pensano solo al loro tornaconto, questi sono discorsi difficili da comprendere...
Forse non ti rendi conto che in determinate fasi storiche è impossibile mettere dei limiti solo per il semplice motivo che all'inizio di ogni fase non si conoscono gli sviluppi futuri, non so quanti anni hai, ma ad esempio negli anni 70 sarebbe stato semplicemente impossibile imporre limiti di rendimento per i motori endotermici o le caldaie, perché lo stato dell'arte non lo permetteva, così come oggi mettere limiti ai consumi determinerebbe una stadi nelle prestazioni, a parità di tecnologia più consumi e più vai veloce. Poi si può discutere se questo modello di sviluppo sia sostenibile o no, ma prova a mettere un limite al consumo degli aerei o delle navi o delle industrie che poi sono quelle che fanno i danni grossi...credi sia ipotizzabile dire a Boeing che i suoi aerei dovrebbero rendere il doppio per poter volare e se non lo fanno restano a terra?
mi sa che non vi rendete conto che è proprio a causa di ragionamenti come il vostro (emin+ quello di prima) che abbiamo ammorbato il pianeta...che se non ve ne siete accorti... è l'unico posto che ci permette di vivere. Se dal principio, in ogni settore industriale e civile, nessuno escluso, si fossero concentrati sull'efficienza energetica mettendola nella bilancia come peso prioritario (ad esempio coibentando tutti gli edifici sin da subito, produrre elettrodomestici con efficienza elevata, a partire dai frigoriferi) mettendo un limite ai motori a combustione per cilindrata e consumi, etc etc etc, ad oggi, l'impatto dell'umanità sul pianeta non sarebbe stato così devastante, da stime avremmo consumato meno del 20/30% delle risorse naturali che abbiamo invece consumato. Se da subito ci fossimo attivati per produrre beni duraturi e durevoli, robusti, concepiti per essere il più possibile riciclabili/riutilizzabili.... non avremmo avuto il sottosuolo, le acque dolci e salate, piene di inquinanti e rifiuti di ogni genere. Ma capisco che per persone egoiste e mediocri, che pensano solo al loro tornaconto, questi sono discorsi difficili da comprendere...
Parli come se ci fosse sempre stata la consapevolezza del problema, ma la prima rivoluzione industriale è della seconda metà del 1700, la seconda del 1870, la "terza", quella dell'elettronica, è del 1970 e proprio in questo periodo sono iniziati a nascere i primi movimenti ambientalisti, legati per lo più allo smog e al massiccio uso di pesticidi in agricoltura...le prime leggi legate all'ambiente negli Stati Uniti sono del 1972...e guardacaso riguardavano proprio le sostanze inquinanti sversate nell'acqua, erano leggi efficaci? No, ma si è iniziato subito a fare qualcosa...e comunque in tutti i casi si è arrivati a questo livello di sviluppo tecnologico perché non si sono posti freni.
Lasciamo stare poi il discorso economico, visto che abbiano una economia basata sulla sola crescita direi che non ha molto senso parlare di prodotti durevoli...senza contare che prodotto durevole equivale a prodotto vecchio, quindi meno efficiente di uno di ultima generazione, immagina se oggi usassimo lavatrici degli anni 90 con consumi di acqua ed elettricità spropositati rispetto a elettrodomestici di ultima generazione classe A+ e con un consumo di acqua basato sul peso degli indumenti.
Ma capisco che per persone egoiste e mediocri
Quest'anno, grazie ad ulteriori accorgimenti in risparmi energetici, abbiamo speso in gas ed elettricità meno del passato, nonostante gli aumenti delle tariffe.
Ho una Punto immatricolata 18 anni fa, alimentata a GPL. La uso quasi esclusivamente per spostamenti fuori città.
Nel cortile annesso alla seconda casa coltivo ortaggi, irrigazione realizzata con acqua che altrimenti sarebbe andata sprecata; concimazione con letame recuperato in montagna, fondi di caffè, cenere, compostaggi vari.
Nella stessa località, preferisco cucinare con braciere. Legname proveniente da manutenzione di terreni privati o pulizia intorno tralicci Terna.
Aria condizionata inesistente in casa; su luogo di lavoro pesantemente osteggiata. In auto si accende solo quando la signora minaccia ritorsioni in tribunale ;)
Immagino tu faccia altrettanto, anche di più !
no_side_fx
27-06-2022, 14:49
In precedenza si andava anche di quad Crossfire/SLI con delle stufe e alimentatori da 1.5kw ed oltre. Qui il commento di roccia1234 sotto la news della 7990 https://www.hwupgrade.it/news/skvideo/e-di-powercolor-la-prima-radeon-hd-7990-sul-mercato_43496.html, anzi andate a vedere il TDP della 7970X2 citata nell'articolo.
hai preso proprio gli esperimenti più fail della storia dell'informatica che non si è filato quasi nessuno altro che "si andava", sli/crossfire durati ovviamente molto poco perchè il "gioco non valeva la candela" e le dual GPU su singolo PCB pure mollati dopo qualche esperimento da parte dei produttori :asd:
hai preso proprio gli esperimenti più fail della storia dell'informatica che non si è filato quasi nessuno altro che "si andava", sli/crossfire durati ovviamente molto poco perchè il "gioco non valeva la candela" e le dual GPU su singolo PCB pure mollati dopo qualche esperimento da parte dei produttori :asd:
Col senno di poi sono bravi tutti, come detto prima se qualcuno ha la sfera di cristallo per vedere il futuro o il modo per costruire un chip che vada il doppio e consumi la metà o fare un programma che svolga un compito in metà tempo, vada e si presenti che gli faranno ponti d'oro.
Anche a me piacerebbe avere un mezzo che mi porti all'altro capo del mondo in un istante con consumo nullo, chissà perchè non ci pensa nessuno a farlo.
Leonardo Da Vinci aveva teorizzato il volo centinaia di anni fa, ma finchè non sono stati disponibili materiali e motori abbastanza potenti, non si è volato...
no_side_fx
27-06-2022, 15:34
Col senno di poi sono bravi tutti, come detto prima se qualcuno ha la sfera di cristallo per vedere il futuro o il modo per costruire un chip che vada il doppio e consumi la metà o fare un programma che svolga un compito in metà tempo, vada e si presenti che gli faranno ponti d'oro.
Anche a me piacerebbe avere un mezzo che mi porti all'altro capo del mondo in un istante con consumo nullo, chissà perchè non ci pensa nessuno a farlo.
Leonardo Da Vinci aveva teorizzato il volo centinaia di anni fa, ma finchè non sono stati disponibili materiali e motori abbastanza potenti, non si è volato...
si ho capito ma non ha senso paragonare una singola GPU da 450w (come si vocifera per la 4090) con i vecchi crossfire e sli.
per il resto da sempre l'evoluzione è stata aumento delle performance a parità o minori consumi
è innegabile che questa inversione di tendenza è una novità odierna nonostante il miglioramento dei processi produttivi
ninja750
27-06-2022, 15:48
Voglio dire, con un rapporto prestazioni/watt >50% le RX7000 avrebbero giá prestazioni del 50% superiori a paritá di consumi, che non mi sembra assolutamente poco.
C´é davvero bisogno di schede che consumi ulteriori 150W in piú?
perchè il tuo competitor nella prossima gen se ne frega dei consumi (o meglio non può fare consumare poco le future vga mantenendo le promesse in prestazioni) e uscirà con schede da millemila watt
quindi se avrai prestazioni 80 in 200w mentre il competitor 100 in 400w, sarà lui a dire che abbiamo la vga gaming più veloce bla bla bla
così invece staranno grossomodo pari prestazioni, con AMD in linea teorica in vantaggio lato consumi
per il resto da sempre l'evoluzione è stata aumento delle performance a parità o minori consumi
è innegabile che questa inversione di tendenza è una novità odierna nonostante il miglioramento dei processi produttivi
E sarà sempre più difficile a mano che si avvicina il limite dei materiali, a meno di cambio radicale di architettura. ma già ora le GPU sono altamente specializzate in pochi compiti per cui c'è poco da sperare.
Non ho intenzione di cambiare il mio 650W dopo neanche 3 anni (dicembre 2019), speriamo che basti per una 4070/7700xt che è il massimo a cui ambisco
hai preso proprio gli esperimenti più fail della storia dell'informatica che non si è filato quasi nessuno altro che "si andava", sli/crossfire durati ovviamente molto poco perchè il "gioco non valeva la candela" e le dual GPU su singolo PCB pure mollati dopo qualche esperimento da parte dei produttori :asd:
Fail o non fail, filato o non filato, si potevano acquistare ed utilizzare proprio come le future gpu.
Col senno di poi sono bravi tutti, come detto prima se qualcuno ha la sfera di cristallo per vedere il futuro o il modo per costruire un chip che vada il doppio e consumi la metà o fare un programma che svolga un compito in metà tempo, vada e si presenti che gli faranno ponti d'oro.
Anche a me piacerebbe avere un mezzo che mi porti all'altro capo del mondo in un istante con consumo nullo, chissà perchè non ci pensa nessuno a farlo.
Leonardo Da Vinci aveva teorizzato il volo centinaia di anni fa, ma finchè non sono stati disponibili materiali e motori abbastanza potenti, non si è volato...
Quoto
si ho capito ma non ha senso paragonare una singola GPU da 450w (come si vocifera per la 4090) con i vecchi crossfire e sli.
Cosa c'entra il numeno di schede con il consumo?
Che i 450W si raggiungano con una o più schede non fa nessuna differenza, sono sempre ampere che l'alimentatore deve erogare, fine.
Le differenze si trovano altrove, come nel sistema di raffreddamento, non nel consumo elettrico.
Sembrate cascati dal pero ed è questo che non capisco, specie per chi ha qualche anno sulle spalle. Infatti ho solo ricordato che in passato alcune schede video erano altrettanto energivore come quelle odierne, ad esempio la HD 7990 da 500W o nelle configurazioni SLI/cross. Cosa ci sia di strano nel ricordarlo io non lo capisco. Del resto ancora non si sa quanto possano andare queste nuove schede pur consumando tanta energia.
per il resto da sempre l'evoluzione è stata aumento delle performance a parità o minori consumi
è innegabile che questa inversione di tendenza è una novità odierna nonostante il miglioramento dei processi produttivi
Confronta una vecchia gpu con una nuova e vediamo questa inversione di tendenza?
https://tpucdn.com/review/nvidia-geforce-rtx-3090-ti-founders-edition/images/energy-efficiency.png
E sarà sempre più difficile a mano che si avvicina il limite dei materiali, a meno di cambio radicale di architettura. ma già ora le GPU sono altamente specializzate in pochi compiti per cui c'è poco da sperare.
RI-Quoto
fabryx73
27-06-2022, 19:42
se questo settore non viene regolamentato finiremo col dover usare una intera centrare per alimentare un singolo pc...mentre loro non faranno niente per migliorare le loro architetture, limitandosi ad aumentare il numero di transistor e basta al sol scopo di poter dire che fanno girare giochi in 4k, è evidente che sia l'RT che il 4k siano troppo per le attuali architetture, sarebbe stato meglio si fossero concentrati ad affinarle per il fullhd.....
Se permetti io gioco in 4k e raytracing attivo....e finché io pago ed ho voglia di investire soldi in questo hobby sono fatti miei.....non tuoi .....
Soliti discorsi del piffero da pdiota.....senza offesa eh!
no_side_fx
27-06-2022, 20:06
Confronta una vecchia gpu con una nuova e vediamo questa inversione di tendenza?
si vabbè in quel grafico ci sono gpu solo degli ultimi due-tre anni non fa testo
Come hai detto tu stesso chi ha qualche anno sulle spalle dovrebbe ricordarselo, di sicuro non sono io quello cascato dal pero:
Fra 2013 e 2015 Nvidia geforce serie 700 e 900
780 ti -> tdp 230w
980 ti -> tdp 250w
980 ti + 44% performance
Fra 2015 e 2017 Nvidia geforce serie 900 e 1000
980 ti -> tdp 250w
1080 ti -> tdp 250w
1080 ti + 60% performance
Fra 2017 e 2019 Nvidia geforce serie 1000 e 2000
1080 ti -> tdp 250w
2080 ti -> tdp 250w
2080 ti + 27% performance
Fra 2019 e 2021 Nvidia geforce serie 2000 e 3000
2080 ti -> tdp 250w
3080 ti -> tdp 350w
3080 ti guarda caso 100w in più e solo +30% performace
Andando più indietro anche del 2013 la solfa è sempre questa
Esattamente come ho detto l'inversione di tendenza è una cosa uscita recentemente
Cosa c'entra il numero di schede con il consumo?
stai scherzando vero?
Infatti ho solo ricordato che in passato alcune schede video erano altrettanto energivore come quelle odierne, ad esempio la HD 7990 da 500W o nelle configurazioni SLI/cross. Cosa ci sia di strano nel ricordarlo io non lo capisco.
guarda ti ho già messo sopra il confronto con le schede passate, ricordare che è esistito per poco esperimento andato male ribadisco che non ha senso poi se vuoi insisti pure con sta storia
fabius21
27-06-2022, 20:24
Parli come se ci fosse sempre stata la consapevolezza del problema
Concordo con le_mie_parole.
Cmq andy45 da almeno 30anni che si sa del problema del cambiamento climatico e dell'impatto dell'uomo, ma chi deve decidere se è sbattuto un par de p**** rinviando di volta in volta le misure da prendere, l'ultima vola lo scorso anno, cioè dove il più giovane aveva 60 anni che pensano di ridurre le emissioni nel 2050, quando spero e anche da molto siano ormai cibo per vermi.
Anche se non penso che arriveremo, gli americani butteranno prima qualche atomica e poi tutti a catena :D
Cmq andy45 da almeno 30anni che si sa del problema del cambiamento climatico e dell'impatto dell'uomo, ma chi deve decidere se è sbattuto un par de p**** rinviando di volta in volta le misure da prendere, l'ultima vola lo scorso anno, cioè dove il più giovane aveva 60 anni che pensano di ridurre le emissioni nel 2050, quando spero e anche da molto siano ormai cibo per vermi.
La teoria del riscaldamento globale è targata 1896, fu confermata invece solo nel 1987, quando finalmente c'era la tecnologia per farlo...nel 1992 venne omologato l'euro 1 per le emissioni delle automobili, entrò in vigore su tutte le auto dal 1993, nel 1994 iniziarono a comparire le etichette delle classi energetiche sugli elettrodomestici...mi sembrano buoni tempi di reazione, non mi sembra non si sia agito subito, magari si è agito male o si poteva fare meglio, ma questo è un altro discorso...col senno del poi si può sempre agire meglio...che poi oggi ci sono anche teorie che dicono che il sole potrebbe essere la principale causa di questo riscaldamento anomalo del pianeta, teorie ovviamente ancora in corso di verifica, ma che se confermate potrebbero cambiare molto la visione del problema...https://www.unina.it/-/26486448-riscaldamento-globale-e-tutta-colpa-del-sole
Sul discorso delle varie riunioni dei potenti mondiali sul clima si sa che vanno a finire sempre a "tarallucci e vino", ma semplicemente perché a chiacchiere si può fare tanto, ma nella realtà si mettono in crisi interi settori industriali e milioni di posti di lavoro...poi ragazzi qui si parla di 4 gpu in croce che vengono vendute a qualche gamer o a qualche professionista che non può farne a meno per lavorare, la maggior parte delle schede video vendute sono di fascia bassa (quindi ormai per lo più integrate) e di fascia media...il tutto poi per lo più sui portatili, perché di desktop se ne assemblano pochini al giorno d'oggi.
per il resto da sempre l'evoluzione è stata aumento delle performance a parità o minori consumi
è innegabile che questa inversione di tendenza è una novità odierna nonostante il miglioramento dei processi produttivi
Infatti e' questo il mio problema.
A me andrebbe benissimo una gpu come una 3070 miniaturizzata ed economizzata.
Ma a quanto pare no, bisogna per forza continuare e continuare a fare gpu piu grandi e calde.
Per me se ne stanno sullo scaffale, se le comprassero questi enthusiast che pensano che spendere mezzo stipendio in una gpu e che sono felici di avere 300w di gpu nel case gli va bene.
cronos1990
28-06-2022, 09:20
Infatti e' questo il mio problema.
A me andrebbe benissimo una gpu come una 3070 miniaturizzata ed economizzata.
Ma a quanto pare no, bisogna per forza continuare e continuare a fare gpu piu grandi e calde.Beh, mi sembra ovvio.
Una GPU un videogiocatore (perchè è di questo mercato di cui parliamo) la cambia se si rompe o per averne una più prestazionale. Nvidia e AMD non ci guadagnano nulla, anzi ci perdono, a fare una GPU che magari consuma il 20/30% di meno ma che va sostanzialmente uguale alla precedente... e che paghi pure di più perchè comunque ideare e produrre nuove schede ha un costo.
Beh, mi sembra ovvio.
Una GPU un videogiocatore (perchè è di questo mercato di cui parliamo) la cambia se si rompe o per averne una più prestazionale. Nvidia e AMD non ci guadagnano nulla, anzi ci perdono, a fare una GPU che magari consuma il 20/30% di meno ma che va sostanzialmente uguale alla precedente... e che paghi pure di più perchè comunque ideare e produrre nuove schede ha un costo.
Ma che discorso e'?
Le prestazioni delle gen precedente sono SEMPRE state miniaturizzate ed economizzate ad ogni gen.
La 6600xt era piu performante e meno energeticamente esosa della 5700xt e molto piu performante e molto meno energeticamente esosa di vega.
Sempre stato cosi fin dall'alba dei tempi.
Come del resto e' per le cpu, dove cpu che consumano 0 oggi giorno asfaltano un 7700k che era il top gaming.
Non ci perdono proprio nulla dal produrre gpu competitive con quelle della gen precedente ed energeticamente efficienti, a meno che per te la perdita sia vendere gpu.
L'unica differenza e' che ora le fonderie buone sono stra piene di ordini da tutto il mondo da anni e si aspetta molto per farsi fare le gpu. Tutt'ora le ps5 sono quasi introvabili nei negozi.
A me andrebbe benissimo una gpu come una 3070 miniaturizzata ed economizzata.
La RTX 3070 arriva al massimo a 230W come valori di picco, quindi non ha consumi spropositati come quelli della notizia...comunque stai chiedendo le prestazioni di una gpu di fascia medio/alta con consumi da fascia bassa? Hai detto niente...ci vorranno forse 3 generazioni di gpu per arrivare a quei livelli, nel frattempo le richieste dei giochi, ma anche dei programmi professionali, saranno aumentate e vorranno gpu più prestanti.
Ma a quanto pare no, bisogna per forza continuare e continuare a fare gpu piu grandi e calde.
Il mercato dei giochi va avanti, i videogiocatori, anche quelli su console, vogliono giochi con grafica sempre migliore, ci vogliono giocare in 4k (alcuni anche di più), con dettagli altissimi e raytracing...il tutto condito da frequenze superiori ai 60 hz...tutto questo non è gratis...poi comunque se uno vuole risparmiare (in tutti i sensi) può pure giocare in fullHD con dettagli medi/alti (a seconda del gioco) a 60Hz, ti prendi una 3050, 130W di consumo e passa la paura.
"Efficienza" è rapporto mezzi / risultati. Se la scheda consuma energia per far nulla, non è efficiente. Se garantisce determinate prestazioni, lo è. Vale un po' per tutto; sostituiamo Ferrari ad AMD o Nvidia ed il paragone è fatto. Con la differenza che, mentre da sempre una vettura d'elite è, appunto, per pochi, in passato una top-di-gamma era accessibile un po' a tutti, ora senza dubbio a meno utenti, per costi della stessa, di tutto l'armamentario di contorno e del mantenimento. Non è un bene indispensabile - o quasi - per la quotidianità, immagino ci si possa divertire dignitosamente con prodotti più vecchi o modesti, lasciando questi ai pochi utenti che non possono / vogliono farne a meno.
no_side_fx
28-06-2022, 10:42
La RTX 3070 arriva al massimo a 230W come valori di picco, quindi non ha consumi spropositati come quelli della notizia...comunque stai chiedendo le prestazioni di una gpu di fascia medio/alta con consumi da fascia bassa?
fino a poco tempo fa i consumi della fascia "media" erano inferiori:
970/1070 -> tdp 150w
2070 -> tdp 175w
con la 3070 siamo arrivati a 230w quindi circa 60w aggiuntivi per una differenza media del +23% rispetto alla 2070, la stessa che c'è fra 1070 e 2070 ma con uno scarto energetico molto più basso
quindi in realtà è corretto, il consumo in relazione all'aumento performance è spropositato rispetto alle gen precedenti
cronos1990
28-06-2022, 10:58
Ma che discorso e'?
Le prestazioni delle gen precedente sono SEMPRE state miniaturizzate ed economizzate ad ogni gen.
La 6600xt era piu performante e meno energeticamente esosa della 5700xt e molto piu performante e molto meno energeticamente esosa di vega.
Sempre stato cosi fin dall'alba dei tempi.
Come del resto e' per le cpu, dove cpu che consumano 0 oggi giorno asfaltano un 7700k che era il top gaming.
Non ci perdono proprio nulla dal produrre gpu competitive con quelle della gen precedente ed energeticamente efficienti, a meno che per te la perdita sia vendere gpu.
L'unica differenza e' che ora le fonderie buone sono stra piene di ordini da tutto il mondo da anni e si aspetta molto per farsi fare le gpu. Tutt'ora le ps5 sono quasi introvabili nei negozi.Sei tu che hai scritto che vorresti una GPU come la 3070 economizzata, non io.
In pratica hai scritto che vuoi la stessa scheda uscita 2 anni fa (stesse prestazioni) che consuma di meno. Quale videogiocatore spenderebbe probabilmente cifre ancor più elevate per sostituire la 3070 che ha già, che funziona e che ha le stesse prestazioni? Una percentuale talmente infima che per Nvidia non vale certo la pena. Al tempo stesso quasi nessuno comprerebbe la GPU nuova che costa di più quando la vecchia costa meno e va uguale... sceglie la vecchia.
I videogiocatori che guardano all'ecologia sono così pochi che non ci giochi neanche a briscola.
Se poi intendevi altro, come peraltro stai facendo cambiando i termini del discorso (visto che ora parli di schede più performanti e meno energivore) allora fai pace con la tua mente o l'italiano con il quale scrivi sul forum.
fino a poco tempo fa i consumi della fascia "media" erano inferiori:
970/1070 -> tdp 150w
2070 -> tdp 175w
con la 3070 siamo arrivati a 230w quindi circa 60w aggiuntivi per una differenza media del +23% rispetto alla 2070, la stessa che c'è fra 1070 e 2070 ma con uno scarto energetico molto più basso
quindi in realtà è corretto, il consumo in relazione all'aumento performance è spropositato rispetto alle gen precedenti
Ma è palese che i consumi stiano aumentando, come è palese che siano aumentate di molto le richieste dei videogiocatori...l'attuale tecnologia evidentemente non permette di salire di prestazioni senza far salire i consumi, visto che i gamers chiedono di più, gli danno di più, ma lo pagano in termini di consumi e calore da dissipare...poi come detto se uno si accontenta giochi tranquillamente con pc che non necessitano di un contratto da 6 kW del contatore.
cronos1990
28-06-2022, 11:11
Ma è palese che i consumi stiano aumentando, come è palese che siano aumentate di molto le richieste dei videogiocatori...l'attuale tecnologia evidentemente non permette di salire di prestazioni senza far salire i consumi, visto che i gamers chiedono di più, gli danno di più, ma lo pagano in termini di consumi e calore da dissipare...poi come detto se uno si accontenta giochi tranquillamente con pc che non necessitano di un contratto da 6 kW del contatore.In un altro topic facevo anche notare che siamo arrivati a palesi limiti fisici dei processi produttivi, tali per cui oramai stanno raschiando il fondo del barile.
Per cui l'efficienza energetica, intesa come potenza computazionale erogata a parità di TDP, ha ora aumenti molto più risicati se si considera questo aspetto... che però era quello che più di tutti determinava quell'aumento.
Questo, unito alle esigenze attuali (perchè 4K a 60-120 FPS con RT attivo senza magheggi come il DLSS richiede tantissima potenza... ma è quello che pretendono i videogiocatori esigenti) da vita a questi prodotti.
Perchè se non puoi più efficentare più di tanto tramite il processo produttivo, per aumentare la potenza o rivedi del tutto l'architettura di base ideandone una rivoluzionaria (buona fortuna), oppure dai in pappa a queste GPU tanta "corrente" in più.
In pratica hai scritto che vuoi la stessa scheda uscita 2 anni fa (stesse prestazioni) che consuma di meno. Quale videogiocatore spenderebbe probabilmente cifre ancor più elevate per sostituire la 3070 che ha già, che funziona e che ha le stesse prestazioni? Una percentuale talmente infima che per Nvidia non vale certo la pena. Al tempo stesso quasi nessuno comprerebbe la GPU nuova che costa di più quando la vecchia costa meno e va uguale... sceglie la vecchia.
I videogiocatori che guardano all'ecologia sono così pochi che non ci giochi neanche a briscola.
Ma anche se stai attento all'ecologia non compri una scheda nuova per sostituire una che ancora va bene, non è quella manciata di watt in meno della nuova generazione che fa cambiare qualcosa.
In un altro topic facevo anche notare che siamo arrivati a palesi limiti fisici dei processi produttivi, tali per cui oramai stanno raschiando il fondo del barile.
Per cui l'efficienza energetica, intesa come potenza computazionale erogata a parità di TDP, ha ora aumenti molto più risicati se si considera questo aspetto... che però era quello che più di tutti determinava quell'aumento.
Questo, unito alle esigenze attuali (perchè 4K a 60-120 FPS con RT attivo senza magheggi come il DLSS richiede tantissima potenza... ma è quello che pretendono i videogiocatori esigenti) da vita a questi prodotti.
Perchè se non puoi più efficentare più di tanto tramite il processo produttivo, per aumentare la potenza o rivedi del tutto l'architettura di base ideandone una rivoluzionaria (buona fortuna), oppure dai in pappa a queste GPU tanta "corrente" in più.
Ma sicuramente sarà così, non credo che amd e nvidia si divertano a fare gpu con consumi sempre superiori così tanto per.
La RTX 3070 arriva al massimo a 230W come valori di picco, quindi non ha consumi spropositati come quelli della notizia...comunque stai chiedendo le prestazioni di una gpu di fascia medio/alta con consumi da fascia bassa? Hai detto niente...ci vorranno forse 3 generazioni di gpu per arrivare a quei livelli, nel frattempo le richieste dei giochi, ma anche dei programmi professionali, saranno aumentate e vorranno gpu più prestanti.
Esagerato.
La 1060 andava come la 980 rilasciata 2 anni prima passando da 165w della 980 ai 120 della 1060.
La 2060 andava come una 1080, consumando il 10% in meno e la 3060 andava il 25% in piu di una 1080, consumando il 5/10% in meno (ma consumando piu della 2060).
In casa amd gli avanzamenti in termini di prestazioni/consumi sono stati anche piu netti. Polaris consumava la meta' di Hawaii andando uguale.
Trovo ridicola questa narrativa che incrementi prestazionali mediocri siano accoppiati a costanti incrementi di energia.
Che nel 2022 si possa giocare a 4k con una console il cui power draw totale non supera i 200w come la ps5, e parliamo comunque di tecnologie e processi produttivi vecchi di qualche annetto, ma non esistano gpu adatte al 4k (senza necessariamente maxare tutto, cosa del resto che le console nemmeno fanno) che abbiano un tdp di 150w mi sembra a dir poco ridicolo, ed e' l'ennesimo esempio di come l'evoluzione in ambito gpu sia stantia o a dir poco assente.
Se tutto quello che fai e' solo alzare consumi e produrre padelle piu grandi e a frequenza maggiore allora non abbiamo alcuna evoluzione delle tecnologie, abbiamo la stessa solfa che avevamo 5/6 anni fa semplicemente piu grande e a frequenze piu alte. Abbiamo una non-evoluzione identica a quella che ha avuto Intel per dieci anni con consumi e dimensioni via via crescenti per sopperire a mancata evoluzione dei propri chip.
Che poi a me del power draw delle gpu da 800/1000 euro che vi comprate per fare 10 fps in piu mi importa relativamente, e trovo folle che si acquistino e lo dico da qualcuno che guadagna molto bene, quello che mi interessa e' l'involuzione del mercato gpu nel settore mainstream.
Io gpu calde non le voglio. GPU rumorose da 30 cm con triplo dissipatore non le voglio. Avere pc che consumano piu di 0.5 kw/h e' follia da un punto di vista energetico (economico me ne importa molto poco) e non ho voglia di avere tutto questo caldo all'interno della mia stanza.
Una volta esisteva un mercato per gli utenti come me, oramai ci si e' abbandonati solo ad aumenti di prezzo e consumi, ma tutto questo ad aumenti prestazionali a dir poco ridicoli.
Se hanno fatto una 3060 da 180w non c'e` motivo per cui non possano lanciare una nuova gpu con prestazioni piu o meno simili (o superiori) e consumi minori su questo nuovo nodo.
Carta canta: i 5nm di TSMC offrono a parita' di chipset: dimensioni inferori (rese piu alte e costi piu bassi), 15% di prestazioni in piu e 30% di consumi in meno.
Non c'e` alcun motivo per cui Nvidia e AMD non possano offrire gpu di prestazioni simili alle gen precedenti in fascia media e medio bassa a consumi molto piu contenuti. E ci si aspetterebbe anche migliorie architetturali, software, di memorie e altro per incrementare ancor piu questo distacco di prestazioni/prezzo e prestazioni/consumi.
Ma tanto i miner pagano qualsiasi cifra, gli enthusiast pagano qualsiasi cifra con il risultato che la maggior parte dei gamer sta ancora con la 1060, meno della meta' ha una 2060 e meno della meta' della meta' ha una 3060.
no_side_fx
28-06-2022, 14:57
La 1060 andava come la 980 rilasciata 2 anni prima passando da 165w della 980 ai 120 della 1060.
La 2060 andava come una 1080, consumando il 10% in meno e la 3060 andava il 25% in piu di una 1080, consumando il 5/10% in meno (ma consumando piu della 2060).
In casa amd gli avanzamenti in termini di prestazioni/consumi sono stati anche piu netti. Polaris consumava la meta' di Hawaii andando uguale.
Trovo ridicola questa narrativa che incrementi prestazionali mediocri siano accoppiati a costanti incrementi di energia.
ecco appunto sono due pagine che ripeto sta cosa
Che nel 2022 si possa giocare a 4k con una console il cui power draw totale non supera i 200w come la ps5, e parliamo comunque di tecnologie e processi produttivi vecchi di qualche annetto, ma non esistano gpu adatte al 4k
qua però bisogna precisare che il 4k della console a differenza del pc è "fake" cioè è solo un'immagine upscalata, l'hardware renderizza a risoluzioni molto più basse
Esagerato.
Ho parlato di fascia bassa, non la serie XX60, che non è fascia bassa.
Trovo ridicola questa narrativa che incrementi prestazionali mediocri siano accoppiati a costanti incrementi di energia.
Come ho già scritto è probabile che ormai la tecnologia attuale non permetta di meglio, aspetta tempi migliori o come fanno la maggior parte delle persone abbassa la tue pretese.
Che nel 2022 si possa giocare a 4k con una console il cui power draw totale non supera i 200w come la ps5, e parliamo comunque di tecnologie e processi produttivi vecchi di qualche annetto, ma non esistano gpu adatte al 4k (senza necessariamente maxare tutto, cosa del resto che le console nemmeno fanno) che abbiano un tdp di 150w mi sembra a dir poco ridicolo, ed e' l'ennesimo esempio di come l'evoluzione in ambito gpu sia stantia o a dir poco assente.
Semplicemente confronti le mele con le pere, l'ottimizzazione di una console su pc non esisterà mai...ovvio che per far girare lo stesso gioco su pc sia richiesto un hardware più prestante, semplicemente perché il gioco dovrà girare su non si sa quante configurazioni diverse (sia hardware che software) e non su un hardware e software unico come può essere quello della ps5.
Una volta esisteva un mercato per gli utenti come me, oramai ci si e' abbandonati solo ad aumenti di prezzo e consumi, ma tutto questo ad aumenti prestazionali a dir poco ridicoli.
Che è un chiaro sintomo di tecnologia ormai alla frutta, non muore nessuno, tutte le cose prima o poi arrivano a un punto in cui bisogna passare ad altro per andare oltre...tutto sta a vedere quando sarà pronto questo "altro".
Sul resto sinceramente non saprei neanche cosa dirti, se nvidia e amd non presentano di meglio evidentemente non possono o non vogliono farlo, in entrambi i casi le magie dei processi produttivi servono a ben poco...magari è semplicemente un problema di costi troppo alti...che i loro fatturati volino non vuol dire che siano disposti a spendere.
ecco appunto sono due pagine che ripeto sta cosa
Il fatto che lo ripeti da 2 pagine vuol solo dire che non hai capito che oramai i miglioramenti saranno solo marginali a meno di un cambio radicale di paradigma quindi di architettura e di software, il silicio è arrivato quasi ai limiti atomici per cui ogni piccolo miglioramento costa molto e se le richieste quadruplicano e quindi devono quadruplicare le prestazioni la situazione è questa.
Prova da assoluto neofita ad allenarti sui 100mt piani, la prima volta li farai in 20" poi dopo un mese di allenamento in 16" poi dopo altri 3 mesi di allenamento arriverai a farli in 13", questo non vuol dire che se ti alleni per 1 anno puoi battere Jacobs
no_side_fx
28-06-2022, 16:39
Il fatto che lo ripeti da 2 pagine vuol solo dire che non hai capito che oramai i miglioramenti saranno solo marginali a meno di un cambio radicale di paradigma quindi di architettura e di software, il silicio è arrivato quasi ai limiti atomici per cui ogni piccolo miglioramento costa molto e se le richieste quadruplicano e quindi devono quadruplicare le prestazioni la situazione è questa
certo l'ho ripetuto per il semplice che fatto che prima mi hanno risposto che tanto non c'è problema visto che 10 anni fa qualcuno usava 3 gpu in sli, e al secondo giro che dovrebbe essere una cosa "palese" nonostante il passaggio dai 12nm della serie 2000 ai 8nm della serie 3000
ogni gen c'è stato il salto di 4nm
lo stesso passaggio da 12n a 8nm c'è stato anche in numerosi altri settori e SoC destinati ad altri ambiti e per tutti c'è stato il solito aumento di performance a parità di consumi
solo le gpu hanno fatto un +30% per 100w in più
magari io non ho capito ma le tue argomentazioni sono deboli e non dimostrano nulla perché se fosse come dici tu avremmo dovuto vedere la stessa cosa per tutti invece guarda caso non è così
e tra l'altro prima di vedere i "limiti atomici" del silicio bisognerà scendere sotto i 2nm per adesso siamo ancora lontani di un po' di anni
questo non vuol dire che se ti alleni per 1 anno puoi battere Jacobs
questo lo dici tu però :D
Secondo me non avete capito bene cosa ha detto Naffziger. E' vero che ci saranno schede più esose di corrente per poter competere nella fascia enthusiast, ma allo stesso tempo ha anche detto che il target è aumentare l'efficienza del 50% e che la concorrenza dovrà spingere i consumi molto più in alto. Questo significa che il divario di efficienza tra AMD e Nvidia è destinato ad aumentare nella prossima generazione e contando che già ora AMD si trova avanti da questo punto di vista, mi sa che ne vedremo delle belle :asd:
Sulla questione "progresso tecnologico" sono assolutamente d'accordo con chi dice che aumentare la potenza non sia la strada. Il progresso della tecnologia è fatto di miniaturizzazione e pervasività, che implica consumi ridotti. La storia che abbiamo raggiunto i limiti della fisica lascia un po' il tempo che trova, non sono un fan di Apple ma guardate cosa riesce a fare M1 e questo è soltanto l'inizio. Poi ci sono i sistemi innovativi di packaging e nuovi materiali, dato che chiaramente non è possibile ridurre le dimensioni del gate all'infinito. In fin dei conti dobbiamo soltanto temporeggiare in attessa dell'avvento del computer quantistico domestico :sofico:
Tornando a noi, onestamente trovo molto più impressionante dal punto di vista tecnico uno Steam Deck o un MacBook Air M1 rispetto a una scheda video grande come un itero case che da sola consuma 3 volte più di un frigorifero. Fa molto anni '90 :huh: o forse è semplicemente celholungismo acuto, ma non ditemi che è indispensabile per poter giocare perchè semplicemente non è vero.
Sarebbe davvero auspicabile una certificazione energetica anche per i componenti dei PC, non dico che bisogna vietare la vendita oltre una certa soglia, ma piuttosto far pagare una tassa aggiuntiva ai prodotti meno efficienti. In pratica se vuoi consumare di più fai pure, ma almeno contribuisci di tasca tua a compensare. Onesto no?
In pratica se vuoi consumare di più fai pure, ma almeno contribuisci di tasca tua a compensare. Onesto no?
Sarei d'accordo, se potesse esser fatto per ogni settore. Esempio, tutti quei motociclisti che nei fine settimana di bel tempo sfrecciano sulle strade di montagna ... facciamo pagare loro maggiori accise sul carburante. Se vogliono consumare per il solo gusto di gironzolare, facessero; ma almeno contribuissero di tasca loro per compensare. Altrettanto onesto, no ?
Sulla questione "progresso tecnologico" sono assolutamente d'accordo con chi dice che aumentare la potenza non sia la strada. Il progresso della tecnologia è fatto di miniaturizzazione e pervasività, che implica consumi ridotti. La storia che abbiamo raggiunto i limiti della fisica lascia un po' il tempo che trova, non sono un fan di Apple ma guardate cosa riesce a fare M1 e questo è soltanto l'inizio. Poi ci sono i sistemi innovativi di packaging e nuovi materiali, dato che chiaramente non è possibile ridurre le dimensioni del gate all'infinito. In fin dei conti dobbiamo soltanto temporeggiare in attessa dell'avvento del computer quantistico domestico :sofico:
Apple ha fatto un lavoro straordinario con i suoi processori arm, ma appunto ha cambiato completamente strada, altrimenti pure loro stavano a combattere con piccoli miglioramenti nelle prestazioni e l'aumento dei consumi...cambiare strada equivale nel mondo intel/amd/nvidia a presentare nuove architetture.
Tornando a noi, onestamente trovo molto più impressionante dal punto di vista tecnico uno Steam Deck o un MacBook Air M1 rispetto a una scheda video grande come un itero case che da sola consuma 3 volte più di un frigorifero. Fa molto anni '90 :huh: o forse è semplicemente celholungismo acuto, ma non ditemi che è indispensabile per poter giocare perchè semplicemente non è vero.
Sarebbe davvero auspicabile una certificazione energetica anche per i componenti dei PC, non dico che bisogna vietare la vendita oltre una certa soglia, ma piuttosto far pagare una tassa aggiuntiva ai prodotti meno efficienti. In pratica se vuoi consumare di più fai pure, ma almeno contribuisci di tasca tua a compensare. Onesto no?
Indispensabili per giocare no, se non si hanno pretese molto alte si gioca tranquillamente con molto meno...certificazione energetica per le componenti pc? Non sarebbe una brutta idea, ma dovrebbero essere diverse da quelle degli elettrodomestici, perché dire classe A o A++ su una lavatrice ha un senso (entrambe fanno la stessa cosa, ma la seconda in modo più efficiente), ma dire classe A su un celeron e classe C su un i7 confonderebbe un po' :).
Sarei d'accordo, se potesse esser fatto per ogni settore. Esempio, tutti quei motociclisti che nei fine settimana di bel tempo sfrecciano sulle strade di montagna ... facciamo pagare loro maggiori accise sul carburante. Se vogliono consumare per il solo gusto di gironzolare, facessero; ma almeno contribuissero di tasca loro per compensare. Altrettanto onesto, no ?
Esiste già un sistema che tassa maggiormente i possessori di veicoli inquinanti, si chiama "bollo" :stordita:
Ok si può migliorare, ma il concetto è quello e non vedo perchè non dovrebbe applicarsi anche ai PC visti i consumi non proprio irrisori.
certificazione energetica per le componenti pc? Non sarebbe una brutta idea, ma dovrebbero essere diverse da quelle degli elettrodomestici, perché dire classe A o A++ su una lavatrice ha un senso (entrambe fanno la stessa cosa, ma la seconda in modo più efficiente), ma dire classe A su un celeron e classe C su un i7 confonderebbe un po' :).
Forse sarebbe la volta buona che ci si concentra veramente sull'efficienza per ottenere la certificazione con il bollino verde (il colore è tutto quello che importa :asd: ). I prodotti di fascia alta sono quasi sempre ampiamente fuori dal proprio punto ideale di efficienza. Si vede che c'è molto margine di miglioramento proprio guardando prodotti come M1 e lo Steam Deck. Ma senza arrivare agli estremi, non penso che le prestazioni ne risentino tanto, anche perchè il vantaggio in prestazioni ottenuto aumentando i consumi è (molto) meno che lineare.
Esiste già un sistema che tassa maggiormente i possessori di veicoli inquinanti, si chiama "bollo"
Eh lo so, ma il parametro è la finalità in rapporto al consumo, non l'inquinamento tout court. Puoi avere il veicolo a motore meno inquinante che esista, ma se lo usi per cazzeggiare (o per tuo piacere personale, a seconda dei punti di vista) comunque bruci energia, con tutte le conseguenze del caso.
Per il caso delle schede video, presumo e spero che siano acquistate con la giusta consapevolezza; con gli alti prezzi che avranno, mi sembra difficile - come, ormai, credo sia per ogni dispositivo installabile all'interno di un case - che siano scelte per puro marketing.
Un "bollino" può genericamente essere associato all'efficienza, ma come potrebbe essere parametrata ?
Windtears
28-06-2022, 21:20
Un "bollino" può genericamente essere associato all'efficienza, ma come potrebbe essere parametrata ?
test open source (per evitare manipolazioni lato amd, intel, nvidia anche se poi qualche trucco me lo aspetterei nei driver), risoluzione e parametri fissi.
Si può misurare framerate per watt.
L'ho buttata lì, non perché ci tenga, ma giusto per sparare un'ipotesi.
Qualcuno già misura gli fps/euro in x giochi facendone una media a y risoluzioni, si potrebbe fare qualcosa di simile.
Come ho già scritto è probabile che ormai la tecnologia attuale non permetta di meglio, aspetta tempi migliori o come fanno la maggior parte delle persone abbassa la tue pretese.
Il nodo a 5nm e' sia piu veloce che meno esoso in termini energetici.
Non ci sono motivi per non presentare offerta a draw minore, tranne come suggerisci a fine post, mancanza d'interesse da parte di amd/nvidia.
Il nodo a 5nm e' sia piu veloce che meno esoso in termini energetici.
Non ci sono motivi per non presentare offerta a draw minore, tranne come suggerisci a fine post, mancanza d'interesse da parte di amd/nvidia.
Scusate, ma dove stà scritto che a parità di prestazioni le nuove schede consumeranno di più?
Scusate, ma dove stà scritto che a parità di prestazioni le nuove schede consumeranno di più?
Non sta scritto da nessuna parte infatti, c'è scritto solo che le schede di fascia altissima avranno consumi nettamente più alti...ma immagino venga applicata la proprietà transitiva degli aumenti dei consumi, quindi se aumenta la fascia più alta, aumenteranno tutte le altre.
Non sta scritto da nessuna parte infatti, c'è scritto solo che le schede di fascia altissima avranno consumi nettamente più alti...ma immagino venga applicata la proprietà transitiva degli aumenti dei consumi, quindi se aumenta la fascia più alta, aumenteranno tutte le altre.
La proprietà transitiva fatta a pene di segugio, perchè non si parla di parità di prestazioni, ma di prestazioni migliori, per cui la proprietà transitiva equivalente è che a parità di prestazioni visto che lo dichiarano, le nuove schede consumeranno di meno.
fabius21
29-06-2022, 14:02
La proprietà transitiva fatta a pene di segugio, perchè non si parla di parità di prestazioni, ma di prestazioni migliori, per cui la proprietà transitiva equivalente è che a parità di prestazioni visto che lo dichiarano, le nuove schede consumeranno di meno.
speriamo, perchè con queste temperature è davvero critica gestire il calore del pc, io ho dovuto disabilitare tutto i xfr e simili per poterlo tenere in un range di temperature accettabili.
Forse se la stanza fosse climatizzata a 16°
test open source (per evitare manipolazioni lato amd, intel, nvidia anche se poi qualche trucco me lo aspetterei nei driver), risoluzione e parametri fissi.
Si può misurare framerate per watt.
L'ho buttata lì, non perché ci tenga, ma giusto per sparare un'ipotesi.
Qualcuno già misura gli fps/euro in x giochi facendone una media a y risoluzioni, si potrebbe fare qualcosa di simile.
Non servirebbe a molto in questo modo, il paragone con le auto che si faceva prima non è proprio azzeccato. Se io devo andare da A a B, ci posso andare con la Panda o con la Ferrari e siamo tutti d'accordo che la Panda consumerà meno benzina.
Nel caso delle schede video posso avere una scheda che fa 30fps e consuma 100W e una che fa 300fps e consuma 500W.
Con questo sistema la seconda scheda verrebbe privilegiata perchè più efficiente, dimenticandosi però che consuma 5 volte tanto (a differenza dell'esempio con l'auto).
Se iniziano a uscire schede "ultra efficienti" da 1000W siamo punto a capo, non è la soluzione.
La proprietà transitiva fatta a pene di segugio, perchè non si parla di parità di prestazioni, ma di prestazioni migliori, per cui la proprietà transitiva equivalente è che a parità di prestazioni visto che lo dichiarano, le nuove schede consumeranno di meno.
Senz'altro consumeranno di meno a parità di prestazioni, ma questo non vuol dire che sia normale vedere schede da 600W, una qualche regolamentazione dovrebbe esserci, anche perchè c'è già su dispositivi che consumano molto meno.
speriamo, perchè con queste temperature è davvero critica gestire il calore del pc, io ho dovuto disabilitare tutto i xfr e simili per poterlo tenere in un range di temperature accettabili.
Forse se la stanza fosse climatizzata a 16°
Vabbè ma qui dipende poi dall'uso che fai del pc, se lo usi per lavoro il climatizzatore penso sia il minimo, se lo usi per giocare e basta puoi anche evitare di farlo nelle ore e nei giorni più caldi...per dire sti giorni il fisso in casa mia non lo accendo neanche se mi sparano, già ci stanno 31° C, figuriamoci se accendessi la stufetta.
Non servirebbe a molto in questo modo, il paragone con le auto che si faceva prima non è proprio azzeccato. Se io devo andare da A a B, ci posso andare con la Panda o con la Ferrari e siamo tutti d'accordo che la Panda consumerà meno benzina.
Nel caso delle schede video posso avere una scheda che fa 30fps e consuma 100W e una che fa 300fps e consuma 500W.
Con questo sistema la seconda scheda verrebbe privilegiata perchè più efficiente, dimenticandosi però che consuma 5 volte tanto (a differenza dell'esempio con l'auto).
Se iniziano a uscire schede "ultra efficienti" da 1000W siamo punto a capo, non è la soluzione.
Senz'altro consumeranno di meno a parità di prestazioni, ma questo non vuol dire che sia normale vedere schede da 600W, una qualche regolamentazione dovrebbe esserci, anche perchè c'è già su dispositivi che consumano molto meno.
Perchè senti la necessità di una regolamentazione su tutto?
Se a qualcuno serve una scheda da 1000W perchè gli fa risparmiare del tempo e il tempo è l'unica cosa di cui non abbiamo disponibilità infinita, perchè non dovrebbe poterla acquistare, come dici tu, è l'efficienza che conta, se la scheda da 1000w fa 3 volte più velocemente il lavoro di una da 500w, anche a livello di consumo sarà migliore quella da 1000W...
Perchè senti la necessità di una regolamentazione su tutto?
Se a qualcuno serve una scheda da 1000W perchè gli fa risparmiare del tempo e il tempo è l'unica cosa di cui non abbiamo disponibilità infinita, perchè non dovrebbe poterla acquistare, come dici tu, è l'efficienza che conta, se la scheda da 1000w fa 3 volte più velocemente il lavoro di una da 500w, anche a livello di consumo sarà migliore quella da 1000W...
Attenzione, non ho detto vietare la vendita, ma disincentivare con una tassa legata al consumo. Le regole servono perchè evidentemente la maggioranza della popolazione mondiale se ne sbatte della sostenibilità. L'idea di mercato libero funziona solo in teoria, perchè non tiene conto degli aspetti che non sono economici (e.g. disboscamento, desertificazione, surriscaldamento globale ecc...). La politica serve appunto a correggere il tiro e a rendere più o meno conveniente qualcosa, in modo da indirizzare (giustamente) il mercato in una certa direzione.
Poi un conto è una scheda che sta in un datacenter, in quel caso il tuo ragionamento fila, ma qui stiamo parlando di schede usate per i videogiochi. Non è che se hai una scheda più potente finisci prima il gioco e il PC rimane acceso di meno.
Attenzione, non ho detto vietare la vendita, ma disincentivare con una tassa legata al consumo. Le regole servono perchè evidentemente la maggioranza della popolazione mondiale se ne sbatte della sostenibilità. L'idea di mercato libero funziona solo in teoria, perchè non tiene conto degli aspetti che non sono economici (e.g. disboscamento, desertificazione, surriscaldamento globale ecc...). La politica serve appunto a correggere il tiro e a rendere più o meno conveniente qualcosa, in modo da indirizzare (giustamente) il mercato in una certa direzione.
Poi un conto è una scheda che sta in un datacenter, in quel caso il tuo ragionamento fila, ma qui stiamo parlando di schede usate per i videogiochi. Non è che se hai una scheda più potente finisci prima il gioco e il PC rimane acceso di meno.
e questo modo di ragionare ha portato ai disastri attuali, semplicemente perchè qualsiasi tassa sarà sempre troppo bassa per disincentivare l'acquisto, visto che saranno schede di top di gamma che saranno acquistate da persone disposte a spendere per le quali non è un problema aggiungere un po' di soldi al budget.
Il discorso che basta pagare per inquinare non stà in piedi.
e questo modo di ragionare ha portato ai disastri attuali, semplicemente perchè qualsiasi tassa sarà sempre troppo bassa per disincentivare l'acquisto, visto che saranno schede di top di gamma che saranno acquistate da persone disposte a spendere per le quali non è un problema aggiungere un po' di soldi al budget.
Il discorso che basta pagare per inquinare non stà in piedi.
Non funziona così, ogni volta che introduci una tassa devi determinare come utilizzare i fondi ottenuti. In questo caso vanno utilizzati in opere che compensano la co2 consumata (e.g. piantare alberi, incentivi alla decarbonizzazione, ristrutturazioni ecc..).
A me sembra invece che la deregolamentazione abbia portato al disastro attuale.
Non funziona così, ogni volta che introduci una tassa devi determinare come utilizzare i fondi ottenuti. In questo caso vanno utilizzati in opere che compensano la co2 consumata (e.g. piantare alberi, incentivi alla decarbonizzazione, ristrutturazioni ecc..).
A me sembra invece che la deregolamentazione abbia portato al disastro attuale.
Il problema in questo caso è come dare regole, una scheda efficiente non è necessariamente quella che consuma meno...comunque la quasi totalità dei soldi incamerati da tasse di quel tipo non vengono mai usati per fare quello per cui sono chiesti, vedi il bollo auto e le strade bombardate.
Luca TIR
29-06-2022, 19:52
Non è che se hai una scheda più potente finisci prima il gioco e il PC rimane acceso di meno.
ma te lo godi di più e con una grafica migliore, alla fine è questo quel che si cerca upgradando la vga.
è come dire che un film è molto più gradevole da vedere su un 43" uhd rispetto al 20" hd-ready della cucina, è sempre questione di soddisfazione personale nella cosa che si fa.
con la panda quel viaggio te lo fai lo stesso, sicuramente, ma con una macchina migliore viaggi in modo altrettanto migliore ma non serve per forza una supercar, è questione di trovare il giusto equilibrio
... anche perchè non è possibile sapere in anticipo quanto la scheda verrà sfruttata. Io giocherò nei mesi freddi / temperati, un cinque orette a settimana. E mi piace il retrogaming, quindi "sprint" scheda video prossimo allo zero.
Il problema in questo caso è come dare regole, una scheda efficiente non è necessariamente quella che consuma meno...comunque la quasi totalità dei soldi incamerati da tasse di quel tipo non vengono mai usati per fare quello per cui sono chiesti, vedi il bollo auto e le strade bombardate.
ma te lo godi di più e con una grafica migliore, alla fine è questo quel che si cerca upgradando la vga.
è come dire che un film è molto più gradevole da vedere su un 43" uhd rispetto al 20" hd-ready della cucina, è sempre questione di soddisfazione personale nella cosa che si fa.
con la panda quel viaggio te lo fai lo stesso, sicuramente, ma con una macchina migliore viaggi in modo altrettanto migliore ma non serve per forza una supercar, è questione di trovare il giusto equilibrio
Sarà, ma una scheda gaming da 600W difficilmente può aiutare l'ambiente anche se fosse la più efficiente sul mercato (cosa di cui dubito comunque perchè i prodotti così spinti normalmente sono meno efficienti).
Sarà, ma una scheda gaming da 600W difficilmente può aiutare l'ambiente anche se fosse la più efficiente sul mercato (cosa di cui dubito comunque perchè i prodotti così spinti normalmente sono meno efficienti).
Dipendenderà dal tipo di classificazione, con buone probabilità te la potresti tranquillamente trovare tra i prodotti con una efficienza intermedia e non come ti aspetteresti tra quelli meno efficienti...comunque inutile sottolineare gaming, sono schede che al giorno d'oggi vengono usate anche per ricerca scientifica e produzione di contenuti, tanto che, almeno per le nvidia, ora vengono rilasciati i driver studio, proprio per ottimizzarne il funzionamento più sui programmi che sui giochi.
Pilotare un mercato come quello delle componenti hardware per computer non è cosa semplice, non basta vedere quanto consuma una cosa per dire questo è più efficiente.
fabius21
30-06-2022, 13:48
Dipendenderà dal tipo di classificazione, con buone probabilità te la potresti tranquillamente trovare tra i prodotti con una efficienza intermedia e non come ti aspetteresti tra quelli meno efficienti...comunque inutile sottolineare gaming, sono schede che al giorno d'oggi vengono usate anche per ricerca scientifica e produzione di contenuti, tanto che, almeno per le nvidia, ora vengono rilasciati i driver studio, proprio per ottimizzarne il funzionamento più sui programmi che sui giochi.
Pilotare un mercato come quello delle componenti hardware per computer non è cosa semplice, non basta vedere quanto consuma una cosa per dire questo è più efficiente.
effettivamente su determinati calcoli sono una manna dal cielo, non l'avevo pensata in questa maniera
thanks per averci ricordato questo punto di osservazione.
no_side_fx
30-06-2022, 19:42
...comunque inutile sottolineare gaming, sono schede che al giorno d'oggi vengono usate anche per ricerca scientifica e produzione di contenuti, tanto che, almeno per le nvidia, ora vengono rilasciati i driver studio, proprio per ottimizzarne il funzionamento più sui programmi che sui giochi
in realtà per l'ambito professionale esiste da sempre la serie Quadro
Dal punto di vista hardware sono simili alle geforce e con i driver "studio" hanno praticamente equiparato le geforce con le quadro
Dal punto di vista hardware condividono le stesse architetture le uniche differenze sono gli alti quantitativi di ram e componentistica super selezionata sulle quadro che dovrebbero giustificare la differenza di prezzo
gigioracing
30-06-2022, 21:52
Aspetteremo a vedere il nuovo nodo Tsmc a 3nm .
Per adesso basta anche una 2060 x giocare in full HD a dettagli alti
Fra 2017 e 2019 Nvidia geforce serie 1000 e 2000
1080 ti -> tdp 250w
2080 ti -> tdp 250w
2080 ti + 27% performance
Fra 2019 e 2021 Nvidia geforce serie 2000 e 3000
2080 ti -> tdp 250w
3080 ti -> tdp 350w
3080 ti guarda caso 100w in più e solo +30% performace
Quindi, fondamentalmente, la vera differenza è che nell'ultimo step, l'ottimizzazione dei consumi non è stata paragonabile all'ordine di grandezza del miglioramento delle performance che aveva avuto in passato.
nickname88
21-07-2022, 10:51
Non spariamo eresie !
Fra 3080Ti e 2080Ti c'è ben più del 30% di differenza !
Anche fra 3080 liscia e 2080Ti c'è di più del 30%
Non spariamo eresie !
Fra 3080Ti e 2080Ti c'è ben più del 30% di differenza !
Anche fra 3080 liscia e 2080Ti c'è di più del 30%
Da quando?
https://tpucdn.com/review/nvidia-geforce-rtx-3080-founders-edition/images/relative-performance_2560-1440.png
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.