PDA

View Full Version : Intel Core i9-14900K: il primo benchmark mostra prestazioni migliorate fino al 10%


Redazione di Hardware Upg
04-09-2023, 13:01
Link alla notizia: https://www.hwupgrade.it/news/cpu/intel-core-i9-14900k-il-primo-benchmark-mostra-prestazioni-migliorate-fino-al-10_119746.html

Su X sono apparsi alcuni screenshot di un test CPU-Z condotto su un prototipo del nuovo Intel Core i9-14900K. Stando a quanto riportato, la nuova CPU top di gamma desktop offrirebbe fino al 10% in più di prestazioni rispetto al Core i9-13900K.

Click sul link per visualizzare la notizia.

Pkarer
04-09-2023, 14:17
Ma come si fa a rilasciare una nuova famiglia di processori con l'incremento del 9% rispetto la precedente? (se va bene, perchè sostanzialmente con l'incremento di 200Mhz si e no che si arrivi al 4%).
Ma chi è quel pazzo che va a spendere 600euro per passare da un I9-13900 a un I9-14900...
Ma da quanti anni è che Intel sta vendendo tecnologia a 14nm+ e a 10nm...
La TSMC e Samsung sono già a 3 o 4nm...
A parità di costo AMD sta facendo meglio.

silvanotrevi
04-09-2023, 14:18
Intel è la numero uno nelle cpu desktop gaming. Mi ha shockato vedere il benchmark di Starfield relativo alle cpu, e di come tra un Intel Core i9-13900k e un Amd ryzen 7950x ci siano ben 28 fps di differenza a vantaggio di Intel. E anzi persino l'economico 13600k polverizza letteralmente le cpu Amd:

https://www.pcgameshardware.de/Starfield-Spiel-61756/Specials/cpu-benchmark-requirements-anforderungen-1428119/

La supremazia di Intel lato cpu desktop all around rimane indiscussa. La serie 14 non farà altro che confermare questa tendenza

paolo.oliva2
04-09-2023, 14:29
Intel è la numero uno nelle cpu desktop gaming. Mi ha shockato vedere il benchmark di Starfield relativo alle cpu, e di come tra un Intel Core i9-13900k e un Amd ryzen 7950x ci siano ben 28 fps di differenza a vantaggio di Intel. E anzi persino l'economico 13600k polverizza letteralmente le cpu Amd:

https://www.pcgameshardware.de/Starfield-Spiel-61756/Specials/cpu-benchmark-requirements-anforderungen-1428119/

La supremazia di Intel lato cpu desktop all around rimane indiscussa. La serie 14 non farà altro che confermare questa tendenza

???

La supremazia Intel è tale che un 7800X3D fa più FPS del 13900K, costando meno del top game Intel, in 70W contro i 150W di Intel. La supremazia Intel è nel consumo/prestazioni, si, lì è imbattibile.

paolo.oliva2
04-09-2023, 14:41
Ma come si fa a rilasciare una nuova famiglia di processori con l'incremento del 9% rispetto la precedente? (se va bene, perchè sostanzialmente con l'incremento di 200Mhz si e no che si arrivi al 4%).
Ma chi è quel pazzo che va a spendere 600euro per passare da un I9-13900 a un I9-14900...
Ma da quanti anni è che Intel sta vendendo tecnologia a 14nm+ e a 10nm...
La TSMC e Samsung sono già a 3 o 4nm...
A parità di costo AMD sta facendo meglio.

Qui io spezzerei una lancia per Intel.

A parte l'apoteosi Pat con le sue fantascientifiche roadmap silicio (e se non ci credete basta leggere l'articolo sempre di HWupgrade che riporta la notizia che Intel spenderebbe 10 miliardi 2025 verso TSMC per produrre con il soilicio TSMC perchè.... quello Intel 4nm, 2nm, 1,8nm semplicemente NON ESISTE), Intel produce con il silicio che ha, che ovviamente ha vincoli precisi in area ed efficienza, soprattutto se chiedi prestazioni massime.

Detto papale, io posso comprendere un 13900K a 250W (e più, visto che la maggior parte delle case madri mobo attivano per defailt parametri che sforano il TDP PL2 def) sparato in OC dalla casa, perchè comunque prodotto su Intel7 che è il PP migliore che Intel può offrire.

Ma non posso comprendere una AMD che commercializza un 7950X a 230W sputtanandosi l'enorme efficienza in più del 5nm TSMC per ottenere max +10% di prestazione MT aumentando i consumi del 40%, quando sfruttando l'MCM avrebbe potuto aumentare il core-count commercializzando un X24 allo stesso consumo di un 5950X (105W TDP 142W PPT) asfaltando il 13900K.

no_side_fx
04-09-2023, 14:59
???

La supremazia Intel è tale che un 7800X3D fa più FPS del 13900K, costando meno del top game Intel, in 70W contro i 150W di Intel. La supremazia Intel è nel consumo/prestazioni, si, lì è imbattibile.

su starfiled va più forte intel è un dato innegabile

poi che in generale fa più fps del 13900k è "ni" c'è una differenza di media di neanche il 3%
sulla produttività invece intel vince a mani basse basse non è che esiste solo gaming


https://i.ibb.co/m8M2yGY/Cattura.jpg

pity91
04-09-2023, 15:59
Ma come si fa a rilasciare una nuova famiglia di processori con l'incremento del 9% rispetto la precedente? (se va bene, perchè sostanzialmente con l'incremento di 200Mhz si e no che si arrivi al 4%).
Ma chi è quel pazzo che va a spendere 600euro per passare da un I9-13900 a un I9-14900...
Ma da quanti anni è che Intel sta vendendo tecnologia a 14nm+ e a 10nm...
La TSMC e Samsung sono già a 3 o 4nm...
A parità di costo AMD sta facendo meglio.

ha ha hai preso la :ciapet: come paragone, non gira su nessun PC !!!! sveglia

Gioman
04-09-2023, 16:55
???

La supremazia Intel è tale che un 7800X3D fa più FPS del 13900K, costando meno del top game Intel, in 70W contro i 150W di Intel. La supremazia Intel è nel consumo/prestazioni, si, lì è imbattibile.
Forse vorresti dire 200 + w

supertigrotto
04-09-2023, 19:08
La nomenclatura dei processi produttivi ormai è fuffa,da quel che ho capito,i 7 nani di Intel sono confrontabili con i 3 nani di tsmc.
Per il resto,di solito gli utenti comuni,non i pazzi folli che cambiano CPU a ogni pisciata di cane sono pochissimi,cambiano CPU ogni 2 o 3 generazioni perché,tanto che sia Intel o AMD,le prestazioni fra generazione e generazione non sono così elevate.

Fos
04-09-2023, 20:52
su starfiled va più forte intel è un dato innegabile

poi che in generale fa più fps del 13900k è "ni" c'è una differenza di media di neanche il 3%
sulla produttività invece intel vince a mani basse basse non è che esiste solo gaming


https://i.ibb.co/m8M2yGY/Cattura.jpgÈ sì, e si pesante, visto che in gaming lo bastona consumando mediamente meno di 50 watt. In mezzo quqella media ci sono casi più eclatanti di Starfield, ed è innegabile.

Produttività del 13900K vs il 7800X3D? Per chi compra quel processore esistono i giochi in primis, e il 13900k costa pure 200€ in più.
Sai che gliene frega all'utente tipo, se 3 volte all'anno ci mette 10 secondi in più a fare altre cose, per altro consumando x2 comodo anche in quello.

Si parla di gaming, lì è si con gl iinteressi, ed è si consumando un terzo. Se chiami ni quello, si capisce dove pendi...
Tra l'altro ne parli rispondendo ad uno che a sua volta rispondeva all'altro che sparava a zero e basta, eppure hai sentito il bisogno di appoggiarlo.

Basta fare una tara... zero contro anche nei giochi (per me è ni), senza parlare dei costi e dei consunmi, contro pesanti a dir poco.
Che poi per il 13900k ci sarebbe il 7950X3D, ma che te lo dico a fare...

Gioman
05-09-2023, 04:32
Parlo per me e ti dico avendo sia amd che intel che rispondo alle inesattezze degli intellisti dato che l'unico gioco dove intel va abbondantemente più di amd è starfield. facendo una media diei giochi in commercio pià famosi vanno praticamente uguali solo che amd consuma 1/3. Però non ci accorgiamo di questo perchè amd per mantenere la compatibilità con il sochet precedente ha penalizzato la dissipazione del calore e quindi si hanno temperature molto alte se paragonate al consumo.

Gioman
05-09-2023, 05:05
Parlo per me e ti dico avendo sia amd che intel rispondo alle inesattezze degli intellisti dato che l'unico gioco dove intel va abbondantemente più di amd è starfield. facendo una media diei giochi in commercio più famosi vanno praticamente uguali solo che amd consuma 1/3. Però non ci accorgiamo di questo perchè amd per mantenere la compatibilità con il socket precedente ha penalizzato la dissipazione del calore e quindi si hanno temperature molto alte se paragonate al consumo.

Scusate per gli errori sarà l'ora:D

aqua84
05-09-2023, 08:27
Prestazioni di tutto rispetto, sicuramente.
Poi spunterà fuori (quasi sicuramente) il bug che richiederà delle mitigazioni e quindi abbasserà le prestazioni pubblicizzate.

Anche xche adesso vanno di moda le prestazioni "speculative", e quando va tutto bene il risultato è 100, quando invece trovano un problema devono scendere alle prestazioni reali e non è piu 100 ma 80-90, se va bene.

ninja750
05-09-2023, 08:38
Intel è la numero uno nelle cpu desktop gaming. Mi ha shockato vedere il benchmark di Starfield relativo alle cpu, e di come tra un Intel Core i9-13900k e un Amd ryzen 7950x ci siano ben 28 fps di differenza a vantaggio di Intel. E anzi persino l'economico 13600k polverizza letteralmente le cpu Amd:

https://www.pcgameshardware.de/Starfield-Spiel-61756/Specials/cpu-benchmark-requirements-anforderungen-1428119/

La supremazia di Intel lato cpu desktop all around rimane indiscussa. La serie 14 non farà altro che confermare questa tendenza

posa il fiasco

no_side_fx
05-09-2023, 09:03
È sì, e si pesante, visto che in gaming lo bastona consumando mediamente meno di 50 watt. In mezzo quqella media ci sono casi più eclatanti di Starfield, ed è innegabile.

Produttività del 13900K vs il 7800X3D? Per chi compra quel processore esistono i giochi in primis, e il 13900k costa pure 200€ in più.
Sai che gliene frega all'utente tipo, se 3 volte all'anno ci mette 10 secondi in più a fare altre cose, per altro consumando x2 comodo anche in quello.

Si parla di gaming, lì è si con gl iinteressi, ed è si consumando un terzo. Se chiami ni quello, si capisce dove pendi...
Tra l'altro ne parli rispondendo ad uno che a sua volta rispondeva all'altro che sparava a zero e basta, eppure hai sentito il bisogno di appoggiarlo.

Basta fare una tara... zero contro anche nei giochi (per me è ni), senza parlare dei costi e dei consunmi, contro pesanti a dir poco.
Che poi per il 13900k ci sarebbe il 7950X3D, ma che te lo dico a fare...

io ho solo detto che come fps sono praticamente alla pari per rispondere all'altro utente che diceva che "ne fa di più" ed inoltre ho appoggiato solo il fatto che su starfield va di più intel visto che è un dato di fatto
ed infine ho solo detto che non esiste solo il pc da usare a mo di console
io non ho parlato nè di consumi nè di costi l'hai tirato fuori tu per difendere AMD altro che si capisce dove pendo io :asd:

Dracula1975
05-09-2023, 10:04
Ma solo a me sembra che provare a convincere le persone che devono comprare AMD perché consuma meno e va di più è un po' come provare a far capire a un uccello che deve cagare sul parabrezza della macchina del mio vicino invece che su quello della mia?
Io sono anni che compro AMD, da quando il 2500k arava tutta la produzione AMD fino al primo Ryzen, anche se gli intel miglioravano solo un +5% a generazione e sempre con gli stessi 4 core overprezzati.
Se Intel faceva così schifo, AMD quanto doveva fare ancora più schifo per non aver mai offerto nulla di meglio? La retorica vi piace o Ve la fate piacere per masochismo? Siete masochisti o solo maschilisti? Io sono maschilista ma cambierò idea perché il blu è il colore del diavolo, me lo ha detto Affiu

lato amd pagaree per ottimizzare un gioco e poi vedersi cpu intel cag*re in testa ai tuoi processori di punta è notevole eh :D :D

Gioman
05-09-2023, 12:03
Non pensi che forse sono i programmatori che non sanno lavarare?
Praticamente per giocare a questo gioco ci vuole un 13900k più una 4080
:muro: :muro: :muro:

ggez
05-09-2023, 13:59
Intel è la numero uno nelle cpu desktop gaming. Mi ha shockato vedere il benchmark di Starfield relativo alle cpu, e di come tra un Intel Core i9-13900k e un Amd ryzen 7950x ci siano ben 28 fps di differenza a vantaggio di Intel. E anzi persino l'economico 13600k polverizza letteralmente le cpu Amd:

https://www.pcgameshardware.de/Starfield-Spiel-61756/Specials/cpu-benchmark-requirements-anforderungen-1428119/

La supremazia di Intel lato cpu desktop all around rimane indiscussa. La serie 14 non farà altro che confermare questa tendenza

Per me c'è qualche problema di comprensione del testo.

Perché è esattamente il contrario di quello che hai detto :muro:

elune
05-09-2023, 17:27
Praticamente un 13900KS dissipato meglio. Continuate ad aspettare.

Fos
05-09-2023, 19:26
io ho solo detto che come fps sono praticamente alla pari per rispondere all'altro utente che diceva che "ne fa di più" ed inoltre ho appoggiato solo il fatto che su starfield va di più intel visto che è un dato di fatto
ed infine ho solo detto che non esiste solo il pc da usare a mo di console
io non ho parlato nè di consumi nè di costi l'hai tirato fuori tu per difendere AMD altro che si capisce dove pendo io :asd:Già, hai risposto a uno che parlava pure di consumi e di gaming, sorvolando del tutto i consumi (e 2), il prezzo, e dicendo che non esiste solo il gaming.
Comprensione del contesto: Chiaro, obiettivo e disinteressato.

Quindi secondo te il 7800X3D in gaming è ni, perché va più del 13900K solo in gaming (che era solo quello di cui si stava parlando), consuma solo 3 volte di meno in gaming, e costa solo 200€ in meno, quindi prima di parlare d'altro dovresti sapere che parli d'altro...

In altri termini, visto che probabilmente 2 non bastano:
In gaming il 7800X3D va di più, consumando un terzo e costando 200€ meno del 13900K. Ma per te è ni perché a te non piace Intel...

Immagino che ad uno che compra il procio per altro, gli dici di prendere l'X3D perché esiste pure il gaming, eh, come no...

Dicendo che gli asini volano grazie alle correnti ascensionali, saresti stato più credibile.

no_side_fx
06-09-2023, 09:02
Già, hai risposto a uno che parlava pure di consumi e di gaming, sorvolando del tutto i consumi (e 2), il prezzo, e dicendo che non esiste solo il gaming.
Comprensione del contesto: Chiaro, obiettivo e disinteressato.
Quindi secondo te il 7800X3D in gaming è ni, perché va più del 13900K solo in gaming (che era solo quello di cui si stava parlando), consuma solo 3 volte di meno in gaming, e costa solo 200€ in meno, quindi prima di parlare d'altro dovresti sapere che parli d'altro...

evidentemente hai problemi di comprendonio
te lo ripeto nuovamente: il "ni" era riferito al fatto che dovrebbe fare più fps (e 2) io non ho parlato di altro
sui consumi dovresti rispondere quantomeno all'altro utente non a me che non ho nemmeno accennato questo argomento stessa cosa sui prezzi (e 2)
sul resto non meriti neanche risposta visto che hai tirato fuori una montagna di seghe mentali tue di cui io sempre non ho nemmeno accennato (e 3)

In altri termini, visto che probabilmente 2 non bastano:
In gaming il 7800X3D va di più, consumando un terzo e costando 200€ meno del 13900K. Ma per te è ni perché a te non piace Intel...

io non ho mai scritto che a me non piace intel
la smetti di inventarti le cose o devi andare avanti ancora per molto?

Immagino che ad uno che compra il procio per altro, gli dici di prendere l'X3D perché esiste pure il gaming, eh, come no...
Dicendo che gli asini volano grazie alle correnti ascensionali, saresti stato più credibile.

un'altra affermazione uscita dalla tua fantasia di cose che io non ho mai scritto
casomai saresti più credibile se evitassi di inventarti risposte finte a cose che io non ho mai scritto

abbiamo finito o devi continuare la tua polemica verso il nulla?

Dracula1975
06-09-2023, 09:55
È sì, e si pesante, visto che in gaming lo bastona consumando mediamente meno di 50 watt. In mezzo quqella media ci sono casi più eclatanti di Starfield, ed è innegabile.

Produttività del 13900K vs il 7800X3D? Per chi compra quel processore esistono i giochi in primis, e il 13900k costa pure 200€ in più.
Sai che gliene frega all'utente tipo, se 3 volte all'anno ci mette 10 secondi in più a fare altre cose, per altro consumando x2 comodo anche in quello.

Si parla di gaming, lì è si con gl iinteressi, ed è si consumando un terzo. Se chiami ni quello, si capisce dove pendi...
Tra l'altro ne parli rispondendo ad uno che a sua volta rispondeva all'altro che sparava a zero e basta, eppure hai sentito il bisogno di appoggiarlo.

Basta fare una tara... zero contro anche nei giochi (per me è ni), senza parlare dei costi e dei consunmi, contro pesanti a dir poco.
Che poi per il 13900k ci sarebbe il 7950X3D, ma che te lo dico a fare...

Ti sei dimenticato di aggiungere *non in IDLE

perche' in IDLE il 7800x3d consuma decisamente di piu' del 13900k

sai meglio dirla completa e non parziale come fa comodo

satomiz
06-09-2023, 13:12
A mio parere AMD è ancora superiore, se vi fate fregare dai forni intel solo perchè fanno 30fps in più su un gioco programmato col culo misà che vi conviene cambiare hobby/mestiere.

no_side_fx
06-09-2023, 14:23
Ti sei dimenticato di aggiungere *non in IDLE

perche' in IDLE il 7800x3d consuma decisamente di piu' del 13900k

sai meglio dirla completa e non parziale come fa comodo

se vogliamo dirla tutta nonostante i consumi ha anche temperature altissime in idle (basta farsi un giro su reddit ci sono decine di post in merito)
ma tanto poi lo dice lui agli altri
Comprensione del contesto: Chiaro, obiettivo e disinteressato

non si può discutere con i fanboy

paolo.oliva2
06-09-2023, 14:25
Ti sei dimenticato di aggiungere *non in IDLE

perche' in IDLE il 7800x3d consuma decisamente di piu' del 13900k

sai meglio dirla completa e non parziale come fa comodo

:eek:

Io sapevo che Intel consumava +10W in idle... però c'è caso che la cache 3D aumenti i consumi (*)
A parte questo, facciamo un piccolo calcolo.

Giochiamo? Intel +100W l'ora (solo CPU), il che vorrebbe dire che se giochiamo 3h, Intel avrà consumato +300W/h. Quanto consumerebbe AMD in idle? +5W/h? Diciamo che il sistema Intel lo dovremmo spegnere subito e quello AMD lo possiamo lasciare acceso per 60h, 2,5 giorni perchè si torni con un consumo pari.

Facciamo una conversione video cazzuta a 4K in H265? 13900K consuma sopra i 250W/h, il 7950X meno della metà (120W/h). La conversione con tutti i crismi ci impiega 8h.. Intel 2KW/h, AMD 0,96KW/h... possiamo lasciare acceso il sistema AMD in idle per 208h (~8 giorni) affinchè pareggi i consumi Intel.

In poche parole, con un utilizzo di 4h posso lasciare un sistema AMD acceso 24h e non arriverà MAI a consumare quanto un sistema Intel tenuto acceso per il solo tempo di carico.

Eh, si, il consumo in idle è molto importante.
Non so se leggete i post, ma si arriva a dire che 200W in più di CPU non vogliono dire nulla perchè tanto con VGA da 400W non si guarda al consumo, poi andiamo a contare i W (le dita di una mano) in IDLE per giustificare il consumo Intel dicendo che in idle consuma meno di quello AMD.

Possiamo andare a vendere il ghiaccio agli eschimesi e la sabbia ai beduini, allora.

(*) per dove ho messo l'asterisco. Faccio notare un punto. Il consumo viene rilevato (e confrontaro) come consumo/prestazioni e quanto viene offerto.
Per spiegarmi meglio, una mobo X670E consumerà in idle di più di una A650, perchè la X670E ha n° 2 chipset vs 1 della A650 e ha il PCI5 fool contro il solo PCI4 della A650.
Non si leggerà MAI un articolo che osanna una A650 perchè... consuma meno di una X670E, perchè ovviamente la "carrozzeria" in dotazione ad una X670E è tutt'altra cosa rispetto ad una A650.

Lo stesso è per le CPU. Il consumo idle (vale sia per Intel che per AMD) non viene MAI preso in considerazione perchè +/-10W (sto largo) all'ora vogliono dire +/- 0,20€ (20 centesimi di €) in 100h. Anche a tenerlo 8h al giorno acceso in IDLE, sarebbe una spesa di ~ 25 centesimi al mese..

Fede
06-09-2023, 14:51
Praticamente un 13900KS dissipato meglio. Continuate ad aspettare.

tutto da vedere ancora!

Comunque non capisco tutto questo astio nei confronti di intel.
Sono cpu che scalano bene, e bene davvero verso il basso.
Nell' uso di tutti i giorni sono cpu eccellenti, che tengono i cavalli ben a bada.
Consumano troppo? Tagliate il tdp, o riducete di un 20% le frequenze, e i consumi saranno tagliati di un 50% almeno, per temperature ridicole e per la potenza ancora a disposizione. (Ho un profilo sul bios in cui castro le frequenze dei p core a 4.2Ghz e potrei restare passivo con un noctuone anche sotto prime 95, se avessi un case ben ventilato).





Sono passato dalla 11th alla 13th e ho gridato al miracolo, come non mi succedeva da tanto tempo (forse lo stesso wow di quando ho visto quake su una 3dfx).
Dei 6Ghz mi interessa relativamente, nel senso che dopo aver visto il numerino sul benchmark, ho trovato la pace dei sensi, e ho capito sulla mia pelle che l'80% delle prestazioni hanno un rapporto consumi/prestazioni da gridare al miracolo (confrontando le precedenti gen in mio possesso).

Diciamo che Intel, nella gara penifera, ha semplicemente spremuto lo spremibile,e questo lo condivido meno, ma ripeto, la soluzione c'è, scendendo a compromessi tutto sommato più che accettabili...
32 threads con meno di 100W sono assolutamente possibili ormai, e probabilmente nel confronto dei flop la differenza con AMD si assottiglia molto, a parità di consumi.



Ormai sono cpu che tempo f... anzi, voglio sbilanciarmi: sono cpu tranquillamente in grado di gestire carichi enormi da server, su un pc consumer, con costi da pc consumer (si, vabbè ci siamo capiti, il confronto col passato è impietoso a prescindere).
Ce ne sono per tutte le tasche, e per giocare senza compromessi non serve andare sugli I9.





Un tempo si overcloccava, oggi si combatte per tenerli a frequenza stock.

Magari vado controcorrente, ma ogni volta leggere che "intel consuma troppo" mi fa venire voglia di rispondere che è vero in parte.

satomiz
06-09-2023, 15:09
Faccio fatica a prendere sul serio possessori di Intel serie 11.

tutto da vedere ancora!

Comunque non capisco tutto questo astio nei confronti di intel.
Sono cpu che scalano bene, e bene davvero verso il basso.
Nell' uso di tutti i giorni sono cpu eccellenti, che tengono i cavalli ben a bada.
Consumano troppo? Tagliate il tdp, o riducete di un 20% le frequenze, e i consumi saranno tagliati di un 50% almeno, per temperature ridicole e per la potenza ancora a disposizione. (Ho un profilo sul bios in cui castro le frequenze dei p core a 4.2Ghz e potrei restare passivo con un noctuone anche sotto prime 95, se avessi un case ben ventilato).





Sono passato dalla 11th alla 13th e ho gridato al miracolo, come non mi succedeva da tanto tempo (forse lo stesso wow di quando ho visto quake su una 3dfx).
Dei 6Ghz mi interessa relativamente, nel senso che dopo aver visto il numerino sul benchmark, ho trovato la pace dei sensi, e ho capito sulla mia pelle che l'80% delle prestazioni hanno un rapporto consumi/prestazioni da gridare al miracolo (confrontando le precedenti gen in mio possesso).

Diciamo che Intel, nella gara penifera, ha semplicemente spremuto lo spremibile,e questo lo condivido meno, ma ripeto, la soluzione c'è, scendendo a compromessi tutto sommato più che accettabili...
32 threads con meno di 100W sono assolutamente possibili ormai, e probabilmente nel confronto dei flop la differenza con AMD si assottiglia molto, a parità di consumi.



Ormai sono cpu che tempo f... anzi, voglio sbilanciarmi: sono cpu tranquillamente in grado di gestire carichi enormi da server, su un pc consumer, con costi da pc consumer (si, vabbè ci siamo capiti, il confronto col passato è impietoso a prescindere).
Ce ne sono per tutte le tasche, e per giocare senza compromessi non serve andare sugli I9.





Un tempo si overcloccava, oggi si combatte per tenerli a frequenza stock.

Magari vado controcorrente, ma ogni volta leggere che "intel consuma troppo" mi fa venire voglia di rispondere che è vero in parte.

aqua84
06-09-2023, 15:10
Ma poi, a parte questi benchmark studiati ad hoc, quanti software sono davvero ottimizzati per sfruttare a fondo una cpu?
Che sia Intel o Amd, se poi il codice è scritto "male", non vedró nessuna differenza tra usarlo su uno o sull altro.

Fede
06-09-2023, 15:12
In poche parole, con un utilizzo di 4h posso lasciare un sistema AMD acceso 24h e non arriverà MAI a consumare quanto un sistema Intel tenuto acceso per il solo tempo di carico.



ma che confronto è, scusa?
Sarebbe curioso, e credo che ci siano bench con tdp limitati per entrambi, vedere le differenze a parità di consumi.
Magari il punto di massima efficienza (flop/W) sarà diverso per i due, ma sarei curioso di vederlo, perchè potrebbe essere un vero confronto tra le architetture e le efficienze raggiunte.
Quando il consumo smette di essere proporzionale alle prestazioni, secondo me, non ha senso spingersi oltre...
...proprio perchè di cavalli sotto il cofano, ormai, ce ne sono davvero tanti a prescindere, per qualsiasi attività "umana", giochi compresi.

Fede
06-09-2023, 15:19
Faccio fatica a prendere sul serio possessori di Intel serie 11.

No, io no francamente. Con la stessa logica ho cercato il punto di massima efficienza, ed era migliore rispetto alla 10th, che a sua volta era migliore rispetto alla 9th e cosi' via...
...ebbene il salto con la 13th è stato assurdo. Non saprei quantificartelo, ma posso dirti che per carichi multithread spintarelli (reti neurali per forecast energetico) ho raggiunto le medesime prestazioni SPEGNENDO la ventola della cpu.
Un test sulle armoniche che mi chiedeva circa 490Wh, lo chiudo ora con meno di 80Wh a parità di tempo.

E' ovvio che poi abbia premuto sull' acceleratore per dare un senso all' upgrade, ma questo test mi ha fornito la prova provata del lavorone fatto dagli ingegneri intel.

paolo.oliva2
06-09-2023, 20:18
@Fede.

Non è questione di astio o meno verso Intel... è il famboismo che "rompe".

Io sono nei PC da oltre 40 anni, e il mio utilizzo con le CPU è sempre stato simile nel tempo, ed idem il giudizio, ma nell'area "blu" il metro di giudizio cambia in base a come cambia la caratteristica della CPU "blu".

Vuoi qualche esempio?

La prestazione massima si paga, è ovvio, questo quando Intel costava di più, oggi tutti con il 13400 a fare ragionieri, ma nessuno ricorda più quando AMD proponeva sempre e comunque il miglior prezzo/prestazioni, ma "Intel è meglio".
Con BD gli intellisti tutti preoccupati per gli orsi polari, pire Intel che disse che CPU da 220W NON LE AVREBBERO MAI COMMERCIALIZZATE. Oggi dei consumi se ne fregano... e se si parla di consumi, tutti in downclock, però ovviamente postando i risultati in PL2/PL4, perchè un 7950X a 105W TDP perde dallo 0% a max il 10% rispetto a 170W TDP, mentre un 13900K a 142W lo sappiamo tutti quanto perde che è ben più del -10%.
Quando AMD vendeva il 1700 X8 a 300€ ed Intel gli X4 a 350€, lo spot era "ma l'MT non frega nulla a nessuno, tutti giocano e basta"... oggi si prende il 7800X3D per giocare, ma no, non va bene perchè ha un MT inferiore al 13900K.
Chissà perchè, quando si parla di FPS, si prende il 13900K come metro di prestazione FPS, poi siccome costa in tot in più del 7800X3D, si scala al 13700K/13600K che costano meno come se avessero gli stessi FPS del 13900K.

Mi fermo qui perchè altrimenti farei un papiro.

Non è questione di astio nei confronti di Intel, ma diciamo che tolto l'efficienza e la gestione assurda carico dell'ibrido con determinati carichi, possiamo pure dire che siano "simili", ma addirittura che Intel sia superiore...

paolo.oliva2
06-09-2023, 20:33
ma che confronto è, scusa?
Sarebbe curioso, e credo che ci siano bench con tdp limitati per entrambi, vedere le differenze a parità di consumi.
Magari il punto di massima efficienza (flop/W) sarà diverso per i due, ma sarei curioso di vederlo, perchè potrebbe essere un vero confronto tra le architetture e le efficienze raggiunte.
Quando il consumo smette di essere proporzionale alle prestazioni, secondo me, non ha senso spingersi oltre...
...proprio perchè di cavalli sotto il cofano, ormai, ce ne sono davvero tanti a prescindere, per qualsiasi attività "umana", giochi compresi.

Guarda, se prendi la curva silicio del 5nm TSMC e quella di Intel7, quella TSMC ha una curva che inizia sui 5,2/5,4GHz, mentre quella Intel comincia una curva sopra i 5,5Ghz.
Ovviamente si parla dell'efficienza PP, che è tutt'altra cosa rispetto all'efficienza assoluta del nodo nanometria.

Detto in poche parole... il 7950X a 230W performa da 0% a max +10% rispetto che a 142W, proprio perchè, come mostra la curva silicio, aumentano molto i consumi e poco la frequenza.
Diversamente Intel, con una linea silicio più "dritta", se diminuisci il consumo incide di più sullla frequenza.

Basta che prendi qualsiasi recensione del consumo/prestazioni degli X3D e dei lisci e vedrai paro paro quello che ti ho scritto.

A memoria mi pare che il 13900K a 125W PL1 (reale) perda un 30% (il 7950X il 10%)

Fede
06-09-2023, 21:54
Guarda, se prendi la curva silicio del 5nm TSMC e quella di Intel7, quella TSMC ha una curva che inizia sui 5,2/5,4GHz, mentre quella Intel comincia una curva sopra i 5,5Ghz.
Ovviamente si parla dell'efficienza PP, che è tutt'altra cosa rispetto all'efficienza assoluta del nodo nanometria.

Detto in poche parole... il 7950X a 230W performa da 0% a max +10% rispetto che a 142W, proprio perchè, come mostra la curva silicio, aumentano molto i consumi e poco la frequenza.
Diversamente Intel, con una linea silicio più "dritta", se diminuisci il consumo incide di più sullla frequenza.

Basta che prendi qualsiasi recensione del consumo/prestazioni degli X3D e dei lisci e vedrai paro paro quello che ti ho scritto.

A memoria mi pare che il 13900K a 125W PL1 (reale) perda un 30% (il 7950X il 10%)

Grazie mille, proprio questo ero curioso di leggere!
Vado a curiosare un po'

Fede
06-09-2023, 22:06
@Fede.

Non è questione di astio o meno verso Intel... è il famboismo che "rompe".

Io sono nei PC da oltre 40 anni, e il mio utilizzo con le CPU è sempre stato simile nel tempo, ed idem il giudizio, ma nell'area "blu" il metro di giudizio cambia in base a come cambia la caratteristica della CPU "blu".

Vuoi qualche esempio?

La prestazione massima si paga, è ovvio, questo quando Intel costava di più, oggi tutti con il 13400 a fare ragionieri, ma nessuno ricorda più quando AMD proponeva sempre e comunque il miglior prezzo/prestazioni, ma "Intel è meglio".




Con BD gli intellisti tutti preoccupati per gli orsi polari, pire Intel che disse che CPU da 220W NON LE AVREBBERO MAI COMMERCIALIZZATE. Oggi dei consumi se ne fregano... e se si parla di consumi, tutti in downclock, però ovviamente postando i risultati in PL2/PL4, perchè un 7950X a 105W TDP perde dallo 0% a max il 10% rispetto a 170W TDP, mentre un 13900K a 142W lo sappiamo tutti quanto perde che è ben più del -10%.
Quando AMD vendeva il 1700 X8 a 300€ ed Intel gli X4 a 350€, lo spot era "ma l'MT non frega nulla a nessuno, tutti giocano e basta"... oggi si prende il 7800X3D per giocare, ma no, non va bene perchè ha un MT inferiore al 13900K.
Chissà perchè, quando si parla di FPS, si prende il 13900K come metro di prestazione FPS, poi siccome costa in tot in più del 7800X3D, si scala al 13700K/13600K che costano meno come se avessero gli stessi FPS del 13900K.

Mi fermo qui perchè altrimenti farei un papiro.

Non è questione di astio nei confronti di Intel, ma diciamo che tolto l'efficienza e la gestione assurda carico dell'ibrido con determinati carichi, possiamo pure dire che siano "simili", ma addirittura che Intel sia superiore...

Chiaro anche questo, infatti mi dissociavo dalla menata dell'fps in più o in meno, come da quella del benchmark e del punto in più. Sono il primo a divertirmi a benchare (pensa ho tutt'ora 3dmark 2001 installato, per un mero valore affettivo e un ricordo di tempi più belli e sani), ma, appena finito, ricarico il profilo "castrato" sul bios.
Semplicemente non ha senso, moralmente e razionalmente, se non in ambiti time critical che potrebbero rappresentare forse l'un per diecimila dei casi d'uso

Di fatto arrivo alla tua stessa conclusione: intel (e amd) è ormai ad un'efficienza quasi fantascientifica se confrontata con il passato.
Se il divario tra le due fosse stato molto superiore, non sarebbe stato necessario ricorrere al"raschiamento del fondo", a colpi di centinaia di watt, per poter primeggiare nelle recensioni.
Volevo solo dire che quello che oggi si può fare con 100w e anche meno, era fantascienza fino a un paio di generazioni fa, e io questo lo chiamo progresso. Il resto sono giocattoli, o appunto necessità molto rare.

Fos
07-09-2023, 05:15
evidentemente hai problemi di comprendonio
te lo ripeto nuovamente: il "ni" era riferito al fatto che dovrebbe fare più fps (e 2) io non ho parlato di altro
sui consumi dovresti rispondere quantomeno all'altro utente non a me che non ho nemmeno accennato questo argomento stessa cosa sui prezzi (e 2)
sul resto non meriti neanche risposta visto che hai tirato fuori una montagna di seghe mentali tue di cui io sempre non ho nemmeno accennato (e 3) Sarebbe si anche se facesse 0.5% di media in più, che diventa Sì con gli interessi perché costa 200€ in meno e consuma un terzo in gaming.

Ti quadra meglio così, o devo usare altri riassunti utili a tirare fuori il tuo intento?
Che costava meno e consumava meno lo aveva già detto lui, ma non t'è bastato!

io non ho mai scritto che a me non piace intel
la smetti di inventarti le cose o devi andare avanti ancora per moltoNo, solo finché non smetti di negare l'evidenza. :)
Che non ti piace Intel era sarcasmo dichiarato. Già leggi male, non sforzarti troppo...

https://i.postimg.cc/25CWps7G/Screenshot-2023-09-07-050031.png

A proposito di inventarsi le cose: Mi dici a cosa stavi rispondendo, visto che non aveva detto che AMD va meglio di Intel su Starfield, e gli altri ambiti non c'entravano nulla?
Certo che non parli dei consumi, non conviene ad Intel, ci mancherebbe...


un'altra affermazione uscita dalla tua fantasia di cose che io non ho mai scritto
casomai saresti più credibile se evitassi di inventarti risposte finte a cose che io non ho mai scrittoNon sei in un processo a difenderti per diffamazione. Mi pare chiaro che non dici sono un fan Intel, così parli del fuori contesto e salti ciò che non conviene.
L'inbuto hai cercato di metterlo tu, e a ben vedere lo hai messo pure male. Il problema è che credi di essere invisibile.

se vogliamo dirla tutta nonostante i consumi ha anche temperature altissime in idle (basta farsi un giro su reddit ci sono decine di post in merito)
ma tanto poi lo dice lui agli altri

https://i.postimg.cc/pTMhRgvy/consumi-idle.png

Era meglio se continuavi a non parlare di consumi, basta un pelo sbagliato per partire, eh...
Non è, ma anche consumasse 10 watt in più in idle, sai il problemone in un PC da gaming, a meno che non ti fai il 7800X3D per giocare un'ora al mese.
Gli Intel vanno in TT appena alzano la cresta con un dissi più che sufficiente per il 7800X3D, ma basta un pelo e alzano la cresta pure gli estimatori.

Sei arrivato a parlare di reddit? Temp problematiche documentate come dato di fatto, dove? :rolleyes:
Anche quì, ti pare il caso di cercare i 10 gradi in idle, quando in tiro col 7800X3D basta un dissi ad aria?
Gli Intel, prevedibilmente hanno temperature superiori dovute ai consumi stronomici, e tu cerchi l'idle per gli spicci dei gradi e dei consumi?
Ma veramente non ti rendi conto che si vede che cerchi gli slalom per dare contro ad AMD, e manco ci prendi?

Aggiungo la scelta del test non casuale, la ciliegina sulla torta:

https://i.postimg.cc/rynV9vHW/relative-performance-games-1920-1080.png

A 1080p il collo della GPU diminuisce, quelli bisogna prendere per le prestazioni prevedibili nel futuro.
C'è un po' di più di differenza, eh, che dici... diventa si, o serve il 50%?

Dopodiché in gaming dovresti prendere il 13700K per avvicinarti al prezzo, benche stia ancora 50€ sopra quello da battere.
Anche lì sarà ni, così sarà ni anche tra il 7600 e il 13700k, immagino, no? Son tutti uguali, se Intel va peggio basta che il gioco parte... :D
Il metodo del contraltare funziona sempre, in teoria. Ne ho pronto un altro:

https://i.postimg.cc/pLSrWy8s/cpu.png

Non esistono solo i giochi, perché altrove Intel è Sione.
In game fa tipo 4 volte in più che in app, se vuoi prendi il 7950X3D, continuando col vantaggio netto dei consumi.
Costerà un po' di più, ma se 200€ su 370 non sono niente, che vuoi che sia quel peletto.

Fuori dal gaming puoi prendere il 7950X, oppure lì la media del 2% diventa determinate? Aspetto la parentesi delle mb da 600€, è giunta l'ora.
In pratica in ogni dove bisognerebbe solo consumare di più perché Intel non piace (ci riprovo), e perché i gfanboy sono gli altri. :O


non si può discutere con i fanboyCome no, lo sto facendo adesso. Il brutto è che nascondono la testa, o almeno ci provano...

Fos
07-09-2023, 05:19
Ti sei dimenticato di aggiungere *non in IDLE

perche' in IDLE il 7800x3d consuma decisamente di piu' del 13900k

sai meglio dirla completa e non parziale come fa comodoDecisamente di più?

https://i.postimg.cc/pTMhRgvy/consumi-idle.png

Decisamente quando è uguale, mentre in gaming il 13900K può arrivare a 200 watt, contro i 50 scarsi del 7800X3D?
Lì a posto di decisamente che ci metiamo, i pianeti di Starfield?
Certo che cercare il pelo proprio sul contro più pesante, è roba da harakiri.

Ti sei ricordato di dichiararti anche tu. :)

no_side_fx
07-09-2023, 13:25
-

paolo.oliva2
09-09-2023, 00:13
Chiaro anche questo, infatti mi dissociavo dalla menata dell'fps in più o in meno, come da quella del benchmark e del punto in più. Sono il primo a divertirmi a benchare (pensa ho tutt'ora 3dmark 2001 installato, per un mero valore affettivo e un ricordo di tempi più belli e sani), ma, appena finito, ricarico il profilo "castrato" sul bios.
Semplicemente non ha senso, moralmente e razionalmente, se non in ambiti time critical che potrebbero rappresentare forse l'un per diecimila dei casi d'uso

Di fatto arrivo alla tua stessa conclusione: intel (e amd) è ormai ad un'efficienza quasi fantascientifica se confrontata con il passato.
Se il divario tra le due fosse stato molto superiore, non sarebbe stato necessario ricorrere al"raschiamento del fondo", a colpi di centinaia di watt, per poter primeggiare nelle recensioni.
Volevo solo dire che quello che oggi si può fare con 100w e anche meno, era fantascienza fino a un paio di generazioni fa, e io questo lo chiamo progresso. Il resto sono giocattoli, o appunto necessità molto rare.

Condivido, ma in realtà non è che abbiano fatto questo gran passo, o perlomeno non come avrebbero potuto (qui mi riferisco principalmente ad AMD).

Fino al 14nm, Intel con il suo 14nm e AMD con il 14nm di GF, avevamo l'efficienza e la prestazione, ed un core-count "onesto" (nel senso quello che permetteva la densità del silicio.

Poi c'è stato il salto AMD al 7nm TSMC, e qui abbiamo avuto il raddoppio dei core, da X8 a X16.
Intel non poteva reggere il passo, e fece 10 core con il 14nm e visto che Intel7 non poteva "reggere" 16 core P quanto il 7nm TSMC, si spostò sull'ibrido, ma visto i grandi limiti della sua implementazione ibrida, alla fin fine con carichi corposi, si ritrovava a lottare vs AMD con i soli core P, che ovviamente avrebbero potuto fare ben poco alle stesse frequenze dei core Zen3 AMD, di qui l'unica soluzione farli lavorare a frequenze superiori e boom con i consumi.

E qui viene il problema.

AMD capotalizza e non aumenta il core-count come permetterebbe la maggiore densità del 5nm (Epyc ha incrementato del 50% i core, passando da X64 a X96, e perfino raddoppiato con Zen4C passando a 128 core), Intel dalla sua aumenta la densità di Intel7 e in 254mm2 tira fuori il 13900k.

Il punto è qui. AMD con il 7950X utilizza 2 chiplet X8 da 72mm2 prodotti sul 5nm TSMC, poi c'è l'IOD prodotto sull'economico 6nm. Se fosse prodotto tutto su base 5nm, non arriveremmo manco a 190mm2, con rese superiori ad un monolitico 254mm2 (Intel). AMD fa 2 conti, sa che a 230W comunque ottiene un consumo/prestazioni migliore di Intel, e CAPITALIZZA.
Ma se AMD avesse realizzato un X24 aumentando del 50% il core count, oggi avremmo un 7950X X24 ai consumi (142W) del 5950X X16 Zen3.

Cioè, oggi abbiamo si un 7950X e 13900K che performano uguale, ma il 13900K a 254W c'è perchè Intel non poteva fare diversamente se voleva quelle performances, mentre AMD ha segato l'efficienza Zen4 + 5nm perchè commercializzare una CPU X16 con 144mm2 di silicio 5nm (2 chiplet) costa meno rispetto a 216mm2 X24 (3 chiplet).

Prima del discorso solito che "tanto nessuno utilizza 24 core", faccio riflettere su un punto. Se consideriamo la prestazione CPU per quanti FPS fa e la prestazione ST, benissimo, ma se aggiungiamo la prestazione MT (e lo facciamo), se con CB23 al posto di fare 40.000 faccio 50.000 vuol dire no? E se ottengo 50.000 con 150W al posto di 40.000 con 230W vuol dire uguale no? E allora?
AMD con l'MCM ottiene la massima prestazione ST/FPS con il 1° chiplet, il 2° serve unicamente per l'MT per abbasare le frequenze/consumi ed ottenere comunque il risultato. Quindi se al posto di 2 chiplet ne ho 3, vuol dire aumenatre efficienza e prestazioni, lasciando ST/FPS inalterati, come fosse un X8/X16.

sertopica
09-09-2023, 06:41
Intel è la numero uno nelle cpu desktop gaming. Mi ha shockato vedere il benchmark di Starfield relativo alle cpu, e di come tra un Intel Core i9-13900k e un Amd ryzen 7950x ci siano ben 28 fps di differenza a vantaggio di Intel. E anzi persino l'economico 13600k polverizza letteralmente le cpu Amd:

https://www.pcgameshardware.de/Starfield-Spiel-61756/Specials/cpu-benchmark-requirements-anforderungen-1428119/

La supremazia di Intel lato cpu desktop all around rimane indiscussa. La serie 14 non farà altro che confermare questa tendenza

Silva' vai a giocare coi playmobil e lascia ste cose ad altri