Intel Core i7-14700K contro 13700K: quanta differenza fanno 4 E-core in più?

Abbiamo provato il nuovo Intel Core i7-14700K, l'unico in questa prima infornata di CPU Raptor Lake Refresh a distinguersi per un incremento nel numero di E-core rispetto al predecessore. In questa prova vediamo quanta differenza con il Core i7-13700K e se l'aumento del numero di core incide molto su prestazioni e consumi.
di Manolo De Agostini pubblicato il 01 Novembre 2023 nel canale ProcessoriRaptor LakeCoreIntelgaming hardware
45 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoTest fatti con le ultime schede video (con la 7800XT fatti da me e 4090 da wulff73)
puoi vederli https://www.hwupgrade.it/forum/showpost.php?p=48321354&postcount=83672"]qui[/URL] (e nei post precedenti)
(la differenza è palese nelle zone d'ombra)
Le cose non sono cambiate, e servono MOLTO PIU' DEL DOPPIO, a occhio il TRIPLO dei bit/s in una conversione fatta dalla gpu , per eguagliare qualitativamente quella fatta da una cpu.
Non so con le schede Intel, ma non credo nei miracoli... ci sono schede di conversione DEDICATE solo alla conversione video (2500€) che ancora non eguagliano una cpu..... figuriamoci le schede video per i giochi.....
Beh questi benchmark non sono poi così impietosi:
https://www.techpowerup.com/293494/...g-architectures
Si parla di una o due generazioni fa, alla fine prendendo come riferimento la RTX2090 con il profilo veryfast di x264 sta poco sopra, con il profilo veryslow sta da poco a un bel po' sotto. Quello che dici tu, che ha bisogno del doppio o del triplo del bitrate, è un caso asintotico che probabilmente non ha senso tenere in considerazione, visto che rappresenta una condizione di marginalità dove l'encoder semplicemente ha raggiunto i suoi limiti.
Poi è bene precisare anche che io parlavo di compressione nei range "consumer" fra i 2 e i 10mbit/s per la trasmissione; se uno sale con il bitrate probabilmente l'uso a cui è destinato è per archiviazione, e chiaramente sono cose diverse...
Poi c'è anche questo: https://www.tomshardware.com/news/a...-quality-tested
che però non spiega alcun dettaglio sui parametri di qualità utilizzati per l'encoding software e quindi va' preso con le pinze
Il punto è che con quello stesso bitrate, la codifica fatta dalla cpu resta visibilmente superiore, e la stessa qualità si ha circa con bitrate dimezzato.
Concordo, probabilmente con bitrate abbastanza più elevati di quelli classici per lo streaming, l'efficacia delle schede video va a farsi friggere sempre di più senza riuscire mai ad avvicinarsi, se non dover avere quasi bitrate per compressione loseless (tipo l'encoder MagicYUV o HUFFYUV).... quindi comunque troppo elevata.
Magari andando sempre più giù con il bitrate, una scheda video eguaglierà le capacità di un encoder software.... ma se parliamo di 2Mb/s non è proprio il caso che intendevo far notare, anzi, l'esatto contrario! Io tendo a confrontare i 2 mondi (CPU e GPU) per avere un risultato che più si deve avvicinare al girato originale, preservando qualsiasi dettaglio.
Oltretutto, anche negli ultimi test che mi hai linkato, si parla sempre di compressione per lo streaming in tempo reale di GIOCHI, quindi di un video alla stessa stregua di un cartone animato in CG , che sappiamo benissimo aver bisogno di bitrate molto più bassi per avere comunque un'ottima qualità, rispetto ad un filmato reale.... dove a seconda delle situazioni, si arriva anche nei casi limite di avere una enormità di dettagli magari con scene di riprese con messa a fuoco fissa su tutta l'inquadratura con vegetazione rigogliosa ovunque e ad alto frame-rate:
pensiamo all'utilizzo delle action cam .... perchè raggiungono anche 120Mb/s ? Perchè per i tipi di riprese per cui sono nate, sono necessari! Ogni volta che io vado a montare un video del genere e rifare la codifica, spesso mi piange già il cuore dover perdere quella qualità per renderlo solo 1/4 più piccolo.... allo stesso bitrate (comunque elevato di 40Mb/s) fatto con la gpu è INGUARDABILE ! (rispetto all'originale)
Mi interessa cosa ci riesco a fare, e quanto consuma per farlo (sia per la durata della batteria, sia per il costo di tenere una macchina accesa in casa).
Quando sono "tornato" in Apple passando dal T480 con Intel 8th gen all'M1 mi sono accorto di avere un pc che resta acceso 12 ore senza problemi (contro le 3-4 dell'altro con due batterie), e che mi permette anche di editare video ad alta risoluzione senza apparente difficoltà quando sono in viaggio, cosa che sul T480 non potevo fare. Qualsiasi altra operazione richieda potenza di calcolo non la faccio sul portatile.
Ieri mi sono trovato con un'amica designer che ha un VivoBook con Ryzen di nuova generazione e la situazione non è diversa dal mio T480 se si parla di batteria.
Non centra cosa vedi tu o non vedi, se la dimensione del soc è enorme il costo di produzione è alto e se non scendi di pp non puoi aumentare il core count... a te può anche non interessare ma tecnologicamente è un limite. Difatti se vedi M3 anche beneficiando di un pp migliore ha avuto un incremento prestazionale del 10% se va bene e con lo stesso core count. Su x86 se da una gen all'altra si parla del 10% di incremento diciamo che è una gen fallimentare fai tu
Continua a non interessarmi: il Mac mi è costato meno dell'X1 Carbon che stavo per comprare al suo posto (o Dell XPS in seconda scelta).
Il giorno in cui non stanno più al passo con Intel (o AMD) cambio lido, ma non vedo il motivo di dire ora che sono processori "finti".
Certo che 420 W tra CPU, ram, disco e circuiteria MB è comunque parecchio...
Cavolo se lo associo ad una ciuccia elettroni RX6750XT mi serve un PSU da 1000W!
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".