PDA

View Full Version : Intel Core i7-14700K contro 13700K: quanta differenza fanno 4 E-core in più?


Redazione di Hardware Upg
01-11-2023, 15:21
Link all'Articolo: https://www.hwupgrade.it/articoli/cpu/6655/intel-core-i7-14700k-contro-13700k-quanta-differenza-fanno-4-e-core-in-piu_index.html

Abbiamo provato il nuovo Intel Core i7-14700K, l'unico in questa prima infornata di CPU Raptor Lake Refresh a distinguersi per un incremento nel numero di E-core rispetto al predecessore. In questa prova vediamo quanta differenza con il Core i7-13700K e se l'aumento del numero di core incide molto su prestazioni e consumi.

Click sul link per visualizzare l'articolo.

demon77
01-11-2023, 15:51
Le prestazioni extra ci sono, nulla da dire.
Ma cazzarola stiamo a QUATTROCENTO WATT di consumo in full load.
Cioè.. porca troia! :eek:

Qui non è più pisciare fuori dal vaso.. qui è andare in giro per i corridoi col c*azzo di fuori. :stordita:

Paganetor
01-11-2023, 17:16
ma i consumi "a pieno carico" includono la scheda video? Solo quella da sola è data per 350 W (quindi i 350/420 W dei due sistemi mi sembrano strani...).

comunque concordo con demon77 :stordita: ok le prestazioni, ma il rapporto consumi/prestazioni è decisamente sbilanciato!

h.rorschach
01-11-2023, 17:21
Tra l'1 e il 3% effettivo in gaming, qualcosa in più in all-core workload. Non vale la pena manco per scherzo. Unico motivo per prendere un 14700K piuttosto di un 13700K è trovarne uno ad un prezzo inferiore rispetto l'equivalente di serie 13

Max Power
01-11-2023, 17:21
La peggiore gen di sempre.
Almeno dalla 10 alla 11 si è guadagnato il PCI-E gen 4.
D'ogni modo il più interessante è il 14100 un (qui non recensito) un boost in frequenza significativo, il più grande per Intel degli ultimi anni.
In qualunque caso per il gaming:
7600X 225€ o 7500F 180€
+ B650 125€ + 32GB DDR5 5600 80€.
BEST BUY ASSOLUTO 2023 (€/perf)

demon77
01-11-2023, 17:29
ma i consumi "a pieno carico" includono la scheda video?

Il grafico titola "TOTALE CONSUMI ALLA PRESA DI CORRENTE"
Si noti comunque che è il test della CPU di cinebench che quindi coinvolge la sola CPU.
I consumi sono quindi relativi all'intero sistema con la CPU in full load ma la GPU è in IDLE.

Paganetor
01-11-2023, 17:51
ah ok, non sapevo che Cinebench testasse la sola CPU... allora è tutto più chiaro!

Certo che 420 W tra CPU, ram, disco e circuiteria MB è comunque parecchio...

frankie
01-11-2023, 18:18
ma infatti i più interessanti saranno i 14100, 14400, 14600.

VirusITA
01-11-2023, 18:23
Sarebbe interessante anche un grafico performance/euro.

Zappz
01-11-2023, 19:00
Le prestazioni extra ci sono, nulla da dire.
Ma cazzarola stiamo a QUATTROCENTO WATT di consumo in full load.
Cioè.. porca troia! :eek:

Qui non è più pisciare fuori dal vaso.. qui è andare in giro per i corridoi col c*azzo di fuori. :stordita:

Sono consumi che nell'uso reale non si toccano mai, forse solo a fare render di cpu, ma che ormai e' cosa rara visto che si fanno con la gpu.

paolo.oliva2
01-11-2023, 19:10
Pare a me o il 14700K è in pratica un 13900K con 6 core E in meno agli stessi consumi?

paolo.oliva2
01-11-2023, 19:27
Sono consumi che nell'uso reale non si toccano mai, forse solo a fare render di cpu, ma che ormai e' cosa rara visto che si fanno con la gpu.

Non sono d'accordo.

Quale sarebbe l'utilizzo di un 14900K?

Io ho un 7950X e l'ho preso per conversioni video H265, perchè vero che le conversioni video la VGA è più prestante, ma la differenza è che a pari qualità la CPU produce un file nettamente inferiore in dimensioni.
L'unica che comprime decentemente è una 4090, ma costa 1600€ almeno, che se uno l'ha per giocare, bene, ma se la deve comprare appositamente, col cacchio, mi tengo i video anche a grandezza nativa 10X, e spendo con tanto piacere 220€ per ogni HD da 20TB senza dover convertire nulla.

Comunque la serie 14 in game consuma da 2X a 5X rispetto ad un Zen4, il che è ancora peggio, perchè consumare 400W/h in una conversione, te ne puoi anche fregare se fai 2 conversioni al mese.... ma se giochi 4h al giorno, in un mese i KW/h in più sono tanti ma tanti, e per cosa? Visto che i 3D Zen4 non sono da meno in FPS e consumano meno della metà?

Non è insultare Intel, perchè la colpa è ovviamente del silicio... però un attimino di umiltà da parte di Intel... se hai un silicio che consuma minimo il doppio rispetto alla concorrenza, la soluzione è fermarsi ad un core-count metà della concorrenza, non ha senso rincorrere AMD nelle prestazioni MT e poi tanti accrocchi per oscurare una efficienza imbarazzante, ivi compreso valori PL1 da sbandierare e nella realtà settaggi DEF da parte degli OEM mobo che sforano beatamente alla grande il PL2 all'insaputa del cliente.

totalblackuot75
01-11-2023, 22:17
veramente una cpu da scaffale,un +15% in piu' sulla precendente nn giustifica un consumo da centrale nucleare,veramente Intel oramai spinge solo sulle frequenze,bisogna solo aspettare la nuova generazione con il nuovo processo produttivo

demon77
01-11-2023, 23:19
Sono consumi che nell'uso reale non si toccano mai, forse solo a fare render di cpu, ma che ormai e' cosa rara visto che si fanno con la gpu.

Si ok, la cpu in full load non ci va praticamente mai se non magari per brevi periodi, ma resta il fatto che siamo arrivati a livelli fuori scala.
Una manciata di anni fa consumi simili erano solo per CPU e GPU in full load o workstaion di fascia alta con doppio processore..
Se andiamo avanti su questa strada tra un paio di generazion arriviamo a pc che consumano come una lavatrice a pieno carico..

r1348
02-11-2023, 00:19
Intel sconta il ritardo nel processo produttivo e, per mantenere prestazioni competitive, deve alzare i consumi. La situazione è ancora più nera se si fa il confronto con i consumi di piattaforme AMD di pari potenza.
A questo giro poi, Intel non aveva nulla di nuovo da proporre, ed ha essenzialmente riproposto la serie 13000 con un po' di overclock e qualche e-core in più per il 14700K.
In aggiunta, questa è l'ultima serie che userà il socket LGA 1700, quindi evitare assolutamente se si deve acquistare anche la scheda madre, visto che non avrà opzioni di upgrade future.

h.rorschach
02-11-2023, 08:09
A questo giro poi, Intel non aveva nulla di nuovo da proporre, ed ha essenzialmente riproposto la serie 13000 con un po' di overclock e qualche e-core in più per il 14700K.

Fortunatamente la serie 13 è un'ottima scelta; il 13600k è il miglior processore per prestazioni/prezzo uscito nell'ultimo decennio (e più, ultimo comparabile il 2500k). La 14 è palesemente una presa per il culo ma finché ci sono i 13 sul mercato non è un problema. Quando i 13 saranno tolti dal commercio i 14 saranno scesi allo stesso prezzo e sarà più coerente sceglierli. Probabilmente, per allora, la serie 15 sarà uscita e i 14 non se li filerà più nessuno.

harlock10
02-11-2023, 08:13
Nel frattempo L’M3 max di Apple consuma 30 watts con cpu e gpu a palla.

mattia.l
02-11-2023, 09:23
Nel frattempo L’M3 max di Apple consuma 30 watts con cpu e gpu a palla.

si ma questa è una cpu utile, l'M3 è tutta fuffa esaltata da chi pensa che il computer funziona per magia

-Vale-
02-11-2023, 09:46
Amd si deve dare una svegliata

StylezZz`
02-11-2023, 09:48
Amd si deve dare una svegliata

:rotfl:

harlock10
02-11-2023, 09:51
si ma questa è una cpu utile, l'M3 è tutta fuffa esaltata da chi pensa che il computer funziona per magia

Sinceramente il tuo commento è senza senso, questa cpu è l’esempio di come x86 sia su un binario che lo porta ad avere consumi e calore sempre più insostenibili mentre esistono architetture molto più efficienti, in grado di consumare 1/10 di corrente e avere prestazioni simili se non migliori.

r1348
02-11-2023, 11:10
Amd si deve dare una svegliata

Eh già, tipo fare il 7800X3D e farlo pure pagare 50€ in meno del 14700K...

davide155
02-11-2023, 12:37
perchè vero che le conversioni video la VGA è più prestante, ma la differenza è che a pari qualità la CPU produce un file nettamente inferiore in dimensioni.


Questa ce la devi spiegare.
A pari qualità il risultato non cambia. Cambia il tempo di conversione, ma la grandezza rimane identica.

Di che programma stiamo parlando?

leddlazarus
02-11-2023, 13:00
Sinceramente il tuo commento è senza senso, questa cpu è l’esempio di come x86 sia su un binario che lo porta ad avere consumi e calore sempre più insostenibili mentre esistono architetture molto più efficienti, in grado di consumare 1/10 di corrente e avere prestazioni simili se non migliori.

mahh i chip M1-M2-M3 non sono magici.
vanno bene ma vai incontro ad un sacco di compromessi e di certo non è una CPU all-purpose.

solo che la Apple sa vendere bene la loro roba. e comunque il fatto che hai un SOC in un computer, gia a me suona molto male. specialmente quando vuoi vendere un prodotto come PRO.

AlexSwitch
02-11-2023, 13:17
mahh i chip M1-M2-M3 non sono magici.
vanno bene ma vai incontro ad un sacco di compromessi e di certo non è una CPU all-purpose.

solo che la Apple sa vendere bene la loro roba. e comunque il fatto che hai un SOC in un computer, gia a me suona molto male. specialmente quando vuoi vendere un prodotto come PRO.

Sarebbero i compromessi? In che cosa non sarebbero CPU " all purpose "?

maxsin72
02-11-2023, 14:09
Amd si deve dare una svegliata

In che senso? Devono alzare anche loro i consumi a 500W ? :D :sofico:

maxsin72
02-11-2023, 14:14
Questa ce la devi spiegare.
A pari qualità il risultato non cambia. Cambia il tempo di conversione, ma la grandezza rimane identica.

Di che programma stiamo parlando?

Anni fa sapevo che la qualità della conversione con cpu era nettamente migliore di quella con gpu a parità di dimensione del file (va da se quindi che per aver la stessa qualità con la gpu dovevi aumentare la dimensione del file), non so se adesso la situazione sia cambiata.

Marci
02-11-2023, 14:55
:rotfl:

Intende nell'ambito delle stufette elettriche, con l'inverno alle porte non hanno molto tempo:fagiano:

davide155
02-11-2023, 15:28
Anni fa sapevo che la qualità della conversione con cpu era nettamente migliore di quella con gpu a parità di dimensione del file (va da se quindi che per aver la stessa qualità con la gpu dovevi aumentare la dimensione del file), non so se adesso la situazione sia cambiata.

Ma di che programmi parliamo? Di che impostazioni? Quali codec?
Non si può parlare così tanto per sentito dire.
Nel rendering 3d il risultato non cambia, cambia solo il tempo che impiega la macchina per arrivarci.
Se poi c'è qualche programma particolare che usa un codice diverso allora parliamone, ma senza dettagli a parer mio son solo chiacchere da bar che possono forviare chi legge.

blackshard
02-11-2023, 15:31
Questa ce la devi spiegare.
A pari qualità il risultato non cambia. Cambia il tempo di conversione, ma la grandezza rimane identica.

Di che programma stiamo parlando?

Nono, non è così. Dipende da quanto è "buono" l'encoder che usi

Anni fa sapevo che la qualità della conversione con cpu era nettamente migliore di quella con gpu a parità di dimensione del file (va da se quindi che per aver la stessa qualità con la gpu dovevi aumentare la dimensione del file), non so se adesso la situazione sia cambiata.

Vera la prima, mentre adesso pare che con le GPU la qualità di conversione sia nettamente migliorata, al punto che sulle fasce medio-alte sono anche migliori delle implementazioni software. Dai benchmark che avevo visto qualche tempo fa, le Intel ARC sono le migliori sia come feature (hanno un encoder AV1 molto performante), che come performance, qualità e supporto (vanno benissimo anche su Linux).

Difatti uno dei pochissimi motivi nel preferire le CPU Intel è proprio la presenza del Quick Sync che nelle ultime generazioni è quasi equivalente alle implementazioni software, ma decisamente più performante

maxsin72
02-11-2023, 16:32
Ma di che programmi parliamo? Di che impostazioni? Quali codec?
Non si può parlare così tanto per sentito dire.
Nel rendering 3d il risultato non cambia, cambia solo il tempo che impiega la macchina per arrivarci.
Se poi c'è qualche programma particolare che usa un codice diverso allora parliamone, ma senza dettagli a parer mio son solo chiacchere da bar che possono forviare chi legge.

Handbrake h264 con doppio passaggio che, se non ricordo male, era supportato solo dalle cpu.
Se hai presente di cosa si parla bene altrimenti lascia perdere, di sicuro non è per sentito dire visto che ho fatto delle prove. Si parla però di circa 6 anni fa almeno.

maxsin72
02-11-2023, 16:33
Nono, non è così. Dipende da quanto è "buono" l'encoder che usi



Vera la prima, mentre adesso pare che con le GPU la qualità di conversione sia nettamente migliorata, al punto che sulle fasce medio-alte sono anche migliori delle implementazioni software. Dai benchmark che avevo visto qualche tempo fa, le Intel ARC sono le migliori sia come feature (hanno un encoder AV1 molto performante), che come performance, qualità e supporto (vanno benissimo anche su Linux).

Difatti uno dei pochissimi motivi nel preferire le CPU Intel è proprio la presenza del Quick Sync che nelle ultime generazioni è quasi equivalente alle implementazioni software, ma decisamente più performante

Grazie!:)

davide155
02-11-2023, 17:27
Nono, non è così. Dipende da quanto è "buono" l'encoder che usi



Vera la prima, mentre adesso pare che con le GPU la qualità di conversione sia nettamente migliorata, al punto che sulle fasce medio-alte sono anche migliori delle implementazioni software. Dai benchmark che avevo visto qualche tempo fa, le Intel ARC sono le migliori sia come feature (hanno un encoder AV1 molto performante), che come performance, qualità e supporto (vanno benissimo anche su Linux).

Difatti uno dei pochissimi motivi nel preferire le CPU Intel è proprio la presenza del Quick Sync che nelle ultime generazioni è quasi equivalente alle implementazioni software, ma decisamente più performante

Esatto, un tempo c'era tutta questa differenza, ma si parla di almeno 5 anni fa. Con le ultime gpu non c'è più questa differenza qualitativa.

\_Davide_/
02-11-2023, 23:45
si ma questa è una cpu utile, l'M3 è tutta fuffa esaltata da chi pensa che il computer funziona per magia

E la magia funziona anche bene :asd:

mahh i chip M1-M2-M3 non sono magici.
vanno bene ma vai incontro ad un sacco di compromessi e di certo non è una CPU all-purpose.

Quali sarebbero i compromessi? Il mbp M1 penso sarebbe l'ultimo device della lunga lista che mi accompagna a cui rinuncerei. (Lista che include un po' di tutto, da un NUC 13th gen ed un T440 dual xeon per la virtualizzazione, un Microserver Gen10 con CPU AMD, un nas con Intel, uno con ARM, una valanga di dispositivi basati su ESP32 ed ESP8266 e tanto altro ancora)

pierpox
04-11-2023, 09:25
Un piccolo appello alla redazione:è possibile avere di tanto in tanto anche test su cpu che non siano consumer?Tipo la famiglia di Xeon W,o i Threadripper di AMD,che sarebbe anche interessante metterli a confronto con quelli consumer di pari core count,grazie.

MikDic
04-11-2023, 14:54
Si piepox , era la stessa cosa che stavo per scrivere, i consumi sono spaventosi, con l'architettura buona ma leggermente inferiore a (oggi) ad amd per cui sono stati costretti a caricare la cpu di steroidi per guadagnare il primo posto, ma per il consumo dovrebbero confrontarlo con Threadripper.

Xiphactinus
04-11-2023, 15:49
...mentre adesso pare che con le GPU la qualità di conversione sia nettamente migliorata, al punto che sulle fasce medio-alte sono anche migliori delle implementazioni software.

ma anche no! proprio no! Non facciamo disinformazione....
Test fatti con le ultime schede video (con la 7800XT fatti da me e 4090 da wulff73)

puoi vederli qui (https://www.hwupgrade.it/forum/showpost.php?p=48321354&postcount=83672) (e nei post precedenti)
(la differenza è palese nelle zone d'ombra)

Le cose non sono cambiate, e servono MOLTO PIU' DEL DOPPIO, a occhio il TRIPLO dei bit/s in una conversione fatta dalla gpu , per eguagliare qualitativamente quella fatta da una cpu.

Non so con le schede Intel, ma non credo nei miracoli... ci sono schede di conversione DEDICATE solo alla conversione video (2500€) che ancora non eguagliano una cpu..... figuriamoci le schede video per i giochi.....



Si piepox , era la stessa cosa che stavo per scrivere, i consumi sono spaventosi, con l'architettura buona ma leggermente inferiore a (oggi) ad amd per cui sono stati costretti a caricare la cpu di steroidi per guadagnare il primo posto, ma per il consumo dovrebbero confrontarlo con Threadripper.

Anche un TR 32/64 consuma meno degli Intel consumer! :rolleyes::muro:

demon77
04-11-2023, 16:12
ma anche no! proprio no! Non facciamo disinformazione....
Test fatti con le ultime schede video (con la 7800XT fatti da me e 4090 da wulff73)

puoi vederli qui (https://www.hwupgrade.it/forum/showpost.php?p=48321354&postcount=83672) (e nei post precedenti)
(la differenza è palese nelle zone d'ombra)

Le cose non sono cambiate, e servono MOLTO PIU' DEL DOPPIO, a occhio il TRIPLO dei bit/s in una conversione fatta dalla gpu , per eguagliare qualitativamente quella fatta da una cpu.

Non so con le schede Intel, ma non credo nei miracoli... ci sono schede di conversione DEDICATE solo alla conversione video (2500€) che ancora non eguagliano una cpu..... figuriamoci le schede video per i giochi.....


Notevole questa cosa.
Ero convinto che un render video da GPU fosse qualitativamente pari ad uno fatto dalla CPU se le impostazioni fossero corrette.
Cioè.. un conto fosse la qualità di un render fatto dalla GPU per lavorare "in real time" e altro discorso fosse l'elaborazione fatta dalla GPU "con tutta calma" allo scopo di ottenere l'output perfetto.

Xiphactinus
04-11-2023, 19:03
Magari ci fosse possibilità di manovra...... l'encoder fatto dalle schede video è quello e così te lo tieni! Scegli ovviamente i Mbit/s , ma di aumentare la qualità con elaborazione maggiore per avere un miglior risultato a parità di bitrate, non se ne parla! :(

Final50
05-11-2023, 09:22
E la magia funziona anche bene :asd:



Quali sarebbero i compromessi? Il mbp M1 penso sarebbe l'ultimo device della lunga lista che mi accompagna a cui rinuncerei. (Lista che include un po' di tutto, da un NUC 13th gen ed un T440 dual xeon per la virtualizzazione, un Microserver Gen10 con CPU AMD, un nas con Intel, uno con ARM, una valanga di dispositivi basati su ESP32 ed ESP8266 e tanto altro ancora)

Il compromesso degli Apple Silicon è la dimensione del soc, sono più grandi di CPU x86 e non di poco e questo rappresenta un limite notevole alla loro evoluzione... se non scali con il pp il core count non puoi alzarlo. Prova ne è l'M2 Ultra del Mac Pro che è praticamente grande quando una piastrella del bagno e viene completamente outclassato da un TR (siamo in ambito pro quindi il confronto va fatto li) certo poi consuma molto meno ma su sistemi desktop il cui scopo è la velocità di elaborazione è un non fattore

\_Davide_/
05-11-2023, 18:48
Il compromesso degli Apple Silicon è la dimensione del soc, sono più grandi di CPU x86 e non di poco e questo rappresenta un limite notevole alla loro evoluzione... se non scali con il pp il core count non puoi alzarlo. Prova ne è l'M2 Ultra del Mac Pro che è praticamente grande quando una piastrella del bagno e viene completamente outclassato da un TR (siamo in ambito pro quindi il confronto va fatto li) certo poi consuma molto meno ma su sistemi desktop il cui scopo è la velocità di elaborazione è un non fattore

Io probabilmente ho un modo di vedere l'hardware diverso dalle altre persone che scrivono qui: non mi interessano i nm, la dimensione dei chip, il numero di core, la frequenza o la dimensione del chip.

Mi interessa cosa ci riesco a fare, e quanto consuma per farlo (sia per la durata della batteria, sia per il costo di tenere una macchina accesa in casa).

Quando sono "tornato" in Apple passando dal T480 con Intel 8th gen all'M1 mi sono accorto di avere un pc che resta acceso 12 ore senza problemi (contro le 3-4 dell'altro con due batterie), e che mi permette anche di editare video ad alta risoluzione senza apparente difficoltà quando sono in viaggio, cosa che sul T480 non potevo fare. Qualsiasi altra operazione richieda potenza di calcolo non la faccio sul portatile.
Ieri mi sono trovato con un'amica designer che ha un VivoBook con Ryzen di nuova generazione e la situazione non è diversa dal mio T480 se si parla di batteria.

blackshard
05-11-2023, 20:55
ma anche no! proprio no! Non facciamo disinformazione....
Test fatti con le ultime schede video (con la 7800XT fatti da me e 4090 da wulff73)

puoi vederli qui (https://www.hwupgrade.it/forum/showpost.php?p=48321354&postcount=83672) (e nei post precedenti)
(la differenza è palese nelle zone d'ombra)

Le cose non sono cambiate, e servono MOLTO PIU' DEL DOPPIO, a occhio il TRIPLO dei bit/s in una conversione fatta dalla gpu , per eguagliare qualitativamente quella fatta da una cpu.

Non so con le schede Intel, ma non credo nei miracoli... ci sono schede di conversione DEDICATE solo alla conversione video (2500€) che ancora non eguagliano una cpu..... figuriamoci le schede video per i giochi.....

Beh questi benchmark non sono poi così impietosi:
https://www.techpowerup.com/293494/gpu-hardware-encoders-benchmarked-on-amd-rdna2-and-nvidia-turing-architectures

Si parla di una o due generazioni fa, alla fine prendendo come riferimento la RTX2090 con il profilo veryfast di x264 sta poco sopra, con il profilo veryslow sta da poco a un bel po' sotto. Quello che dici tu, che ha bisogno del doppio o del triplo del bitrate, è un caso asintotico che probabilmente non ha senso tenere in considerazione, visto che rappresenta una condizione di marginalità dove l'encoder semplicemente ha raggiunto i suoi limiti.

Poi è bene precisare anche che io parlavo di compressione nei range "consumer" fra i 2 e i 10mbit/s per la trasmissione; se uno sale con il bitrate probabilmente l'uso a cui è destinato è per archiviazione, e chiaramente sono cose diverse...

Poi c'è anche questo: https://www.tomshardware.com/news/amd-intel-nvidia-video-encoding-performance-quality-tested

che però non spiega alcun dettaglio sui parametri di qualità utilizzati per l'encoding software e quindi va' preso con le pinze

Xiphactinus
05-11-2023, 23:16
Sui test che vedo si punta infatti alla qualità migliore possibile con bitrate "bassi", adatti più alla trasmissione in streaming.
Il punto è che con quello stesso bitrate, la codifica fatta dalla cpu resta visibilmente superiore, e la stessa qualità si ha circa con bitrate dimezzato.

... Quello che dici tu, che ha bisogno del doppio o del triplo del bitrate, è un caso asintotico che probabilmente non ha senso tenere in considerazione, visto che rappresenta una condizione di marginalità dove l'encoder semplicemente ha raggiunto i suoi limiti.
Concordo, probabilmente con bitrate abbastanza più elevati di quelli classici per lo streaming, l'efficacia delle schede video va a farsi friggere sempre di più senza riuscire mai ad avvicinarsi, se non dover avere quasi bitrate per compressione loseless (tipo l'encoder MagicYUV o HUFFYUV).... quindi comunque troppo elevata.

Magari andando sempre più giù con il bitrate, una scheda video eguaglierà le capacità di un encoder software.... ma se parliamo di 2Mb/s non è proprio il caso che intendevo far notare, anzi, l'esatto contrario! Io tendo a confrontare i 2 mondi (CPU e GPU) per avere un risultato che più si deve avvicinare al girato originale, preservando qualsiasi dettaglio.
Oltretutto, anche negli ultimi test che mi hai linkato, si parla sempre di compressione per lo streaming in tempo reale di GIOCHI, quindi di un video alla stessa stregua di un cartone animato in CG , che sappiamo benissimo aver bisogno di bitrate molto più bassi per avere comunque un'ottima qualità, rispetto ad un filmato reale.... dove a seconda delle situazioni, si arriva anche nei casi limite di avere una enormità di dettagli magari con scene di riprese con messa a fuoco fissa su tutta l'inquadratura con vegetazione rigogliosa ovunque e ad alto frame-rate:
pensiamo all'utilizzo delle action cam .... perchè raggiungono anche 120Mb/s ? Perchè per i tipi di riprese per cui sono nate, sono necessari! Ogni volta che io vado a montare un video del genere e rifare la codifica, spesso mi piange già il cuore dover perdere quella qualità per renderlo solo 1/4 più piccolo.... allo stesso bitrate (comunque elevato di 40Mb/s) fatto con la gpu è INGUARDABILE ! (rispetto all'originale)

Final50
06-11-2023, 09:15
Io probabilmente ho un modo di vedere l'hardware diverso dalle altre persone che scrivono qui: non mi interessano i nm, la dimensione dei chip, il numero di core, la frequenza o la dimensione del chip.

Mi interessa cosa ci riesco a fare, e quanto consuma per farlo (sia per la durata della batteria, sia per il costo di tenere una macchina accesa in casa).

Quando sono "tornato" in Apple passando dal T480 con Intel 8th gen all'M1 mi sono accorto di avere un pc che resta acceso 12 ore senza problemi (contro le 3-4 dell'altro con due batterie), e che mi permette anche di editare video ad alta risoluzione senza apparente difficoltà quando sono in viaggio, cosa che sul T480 non potevo fare. Qualsiasi altra operazione richieda potenza di calcolo non la faccio sul portatile.
Ieri mi sono trovato con un'amica designer che ha un VivoBook con Ryzen di nuova generazione e la situazione non è diversa dal mio T480 se si parla di batteria.

Non centra cosa vedi tu o non vedi, se la dimensione del soc è enorme il costo di produzione è alto e se non scendi di pp non puoi aumentare il core count... a te può anche non interessare ma tecnologicamente è un limite. Difatti se vedi M3 anche beneficiando di un pp migliore ha avuto un incremento prestazionale del 10% se va bene e con lo stesso core count. Su x86 se da una gen all'altra si parla del 10% di incremento diciamo che è una gen fallimentare fai tu

\_Davide_/
06-11-2023, 18:38
Non centra cosa vedi tu o non vedi, se la dimensione del soc è enorme il costo di produzione è alto e se non scendi di pp non puoi aumentare il core count... a te può anche non interessare ma tecnologicamente è un limite. Difatti se vedi M3 anche beneficiando di un pp migliore ha avuto un incremento prestazionale del 10% se va bene e con lo stesso core count. Su x86 se da una gen all'altra si parla del 10% di incremento diciamo che è una gen fallimentare fai tu

Continua a non interessarmi: il Mac mi è costato meno dell'X1 Carbon che stavo per comprare al suo posto (o Dell XPS in seconda scelta).

Il giorno in cui non stanno più al passo con Intel (o AMD) cambio lido, ma non vedo il motivo di dire ora che sono processori "finti".

PapaStreamer
07-11-2023, 13:47
ah ok, non sapevo che Cinebench testasse la sola CPU... allora è tutto più chiaro!

Certo che 420 W tra CPU, ram, disco e circuiteria MB è comunque parecchio...

Cavolo se lo associo ad una ciuccia elettroni RX6750XT mi serve un PSU da 1000W!