PDA

View Full Version : Processori Intel Skylake: online le specifiche delle prime 10 versioni


Redazione di Hardware Upg
27-04-2015, 07:31
Link alla notizia: http://www.hwupgrade.it/news/cpu/processori-intel-skylake-online-le-specifiche-delle-prime-10-versioni_57002.html

Debutto previsto non prima di Settembre per le prime soluzioni Intel Skylake per schede madri socket 1151 LGA, soluzioni a 14 nanometri che puntano tutto sull'efficienza della nuova microarchitettura

Click sul link per visualizzare la notizia.

Mparlav
27-04-2015, 08:15
Niente di particolare come prestazioni:
http://www.expreview.com/40180.html

mi auguro che almeno in overclock ci sia un po' di soddisfazione, il PC prima o poi devo cambiarlo :/

coschizza
27-04-2015, 08:30
Niente di particolare come prestazioni:
http://www.expreview.com/40180.html

mi auguro che almeno in overclock ci sia un po' di soddisfazione, il PC prima o poi devo cambiarlo :/

Niente di particolare ? sembrerebbe piu veloce del top precedente e pure con una frequenza massima inferiore. E questo per il modello iniziale con quindi molti margini di miglioramento. I primi modelli non sono certo spinti al massimo come per la cpu 4790K che è davvero una cpu selezionata rispetto ai modelli che la hanno preceduto.

roccia1234
27-04-2015, 08:46
Niente di particolare ? sembrerebbe piu veloce del top precedente e pure con una frequenza massima inferiore. E questo per il modello iniziale con quindi molti margini di miglioramento. I primi modelli non sono certo spinti al massimo come per la cpu 4790K che è davvero una cpu selezionata rispetto ai modelli che la hanno preceduto.

Insomma...

4790k gira a 3,6ghz
6700k gira a 4ghz

Quindi non ha una frequenza massima inferiore, anzi, è l'esatto contrario.

Non mi tornano i punteggi di cinebench R15. QUel tipo di punteggi me lo ricordo in versioni più vecchie. L'R15 adotta un sistema diverso, come si vede qui:
http://www.hwupgrade.it/forum/showthread.php?t=2621048

Forse un pentium 3 farebbe 10 punti a cinebench R15 :stordita:

Fake? :stordita:

ironman72
27-04-2015, 08:47
Niente di particolare come prestazioni:
http://www.expreview.com/40180.html

mi auguro che almeno in overclock ci sia un po' di soddisfazione, il PC prima o poi devo cambiarlo :/

Mah...sei sicuro di aver letto bene i grafici? ha prestazioni sempre superiori ad un 4790k e di poco inferiori al 5820k....

coschizza
27-04-2015, 08:50
Insomma...

4790k gira a 3,6ghz
6700k gira a 4ghz


ma anche no direi le specifiche non si possono inventare

MiKeLezZ
27-04-2015, 08:50
Insomma...

4790k gira a 3,6ghz
6700k gira a 4ghz

Quindi non ha una frequenza massima inferiore, anzi, è l'esatto contrario.

Non mi tornano i punteggi di cinebench R15. QUel tipo di punteggi me lo ricordo in versioni più vecchie. L'R15 adotta un sistema diverso, come si vede qui:
http://www.hwupgrade.it/forum/showthread.php?t=2621048

Forse un pentium 3 farebbe 10 punti a cinebench R15 :stordita:

Fake? :stordita:
Il 4790k gia a 4/4,4GHz, quindi pure di più

Questi Skylake promettono benone, altroché

Spero siano prezzati in modo popolare, non posso spendere 200 euro di processore

roccia1234
27-04-2015, 08:52
Scusate, ho sbagliato a leggere le specifiche, errore mio :stordita:

mik91
27-04-2015, 08:52
Insomma...

4790k gira a 3,6ghz
6700k gira a 4ghz

Quindi non ha una frequenza massima inferiore, anzi, è l'esatto contrario.


l'i7 4790k va a 4 GHz e in turbo a 4.4 GHz...

grosso999
27-04-2015, 09:07
A me non sembrano nulla di che. Il 6700k fa un 14% in più del 4790k con 3dmark e cinebench a parità di frequenza e i consumi mi pare siano circa gli stessi. Considerando che che il 4790k appartiene a due generazioni fa direi che non è un grande risultato, anzi...

paolox86
27-04-2015, 09:21
Peccato che le versioni esa/octa core siano ancora appannaggio delle piattaforme enthusiast, con il cambio di processo produttivo ci speravo veramente

overclock80
27-04-2015, 09:27
A me non sembrano nulla di che. Il 6700k fa un 14% in più del 4790k con 3dmark e cinebench a parità di frequenza e i consumi mi pare siano circa gli stessi. Considerando che che il 4790k appartiene a due generazioni fa direi che non è un grande risultato, anzi...

In effetti nulla di eccezionale come miglioramento di prestazioni.

Svantaggi (per i consumatori) della scarsa concorrenza nella fascia alta delle cpu. Si possono permettere di fare piccole migliorie tra una nuova famiglia e l'altra.

Da notare poi il TDP massimo del 6700k a 95W contro gli 88W del "vecchio" 4790k, almeno sulla carta l'efficienza per watt sarebbe migliorata pochissimo.

emanuele83
27-04-2015, 09:33
La cosa più interessante sono le 20 lane PCIe: 16 x la GPU e 4 x SSD M.2

Sembra interessante, hai spec in più a proposito?

Peccato che le versioni esa/octa core siano ancora appannaggio delle piattaforme enthusiast, con il cambio di processo produttivo ci speravo veramente

mah nemmeno il 6700k ha 8 core. 4 core e 8 thread non è la stessa cosa.

In ogni caso a parte conversioni h264 io i miei 4 core di un q6600 a 2.4 Ghz tutti al 100% li ho visti andare solo (in verità all 85%) con wolfenstein the new order. Per un utente senza grosse necessità videoludiche u i5 4400k tirato su a 4ghz con un kit intel di raffreddamento a liquido pattone (al lavoro ne abbiamo uno su a 4.4ghz) è un best buy che duerà almeno 10 anni.

°FalcoPellegrino°
27-04-2015, 09:34
A me non sembrano nulla di che. Il 6700k fa un 14% in più del 4790k con 3dmark e cinebench a parità di frequenza e i consumi mi pare siano circa gli stessi. Considerando che che il 4790k appartiene a due generazioni fa direi che non è un grande risultato, anzi...

Neanche a me stupiscono più di tanto.
Mha!

Mparlav
27-04-2015, 09:38
Niente di particolare ? sembrerebbe piu veloce del top precedente e pure con una frequenza massima inferiore. E questo per il modello iniziale con quindi molti margini di miglioramento. I primi modelli non sono certo spinti al massimo come per la cpu 4790K che è davvero una cpu selezionata rispetto ai modelli che la hanno preceduto.

In quei test dubito che il Turbo 4.4 vs 4.2 GHz faccia una grossa differenza.

Potrebbero uscire modelli con clock base maggiorato di 200Mhz tra 6 mesi/1 anno, che ha un'utilità relativa per un modello "K", più importante è il margine di overclock che migliorerà col tempo.

Mah...sei sicuro di aver letto bene i grafici? ha prestazioni sempre superiori ad un 4790k e di poco inferiori al 5820k....

Che fossero superiori al 4790K non è forse scontato?
A parte il Willamette, non ricordo di aver mai visto il contrario :)

Lombo91
27-04-2015, 09:45
Ragazzi sapete dirmi cosa siano le DDR3L? Cioè queste CPU sarebbero compatibili sia con le DDR4 che con le care vecchie DDR3 che già abbiamo, risparmiandoci così un po' di dindini?
E se sì, ci perderemo in prestazioni?

Mparlav
27-04-2015, 09:46
Sembra interessante, hai spec in più a proposito?

http://cdn4.wccftech.com/wp-content/uploads/2014/11/SkylakeS.jpg

16 pci-e 3.0 dalla cpu e le altre 4 tipo 3.0 dal southbridge, passando dal dmi 3.0.

Quest'ultimo non dovrebbe castrare le prestazioni di un Samsung XP951, ma tocca vedere come configurano le Mb.

D3stroyer
27-04-2015, 09:51
ot: ma perchè i cinesi hanno sempre i primi leak?

non sono impressionato nemmeno io. Sto aspettando e vivendo da "poveraccio" con un notebook con HD3000 per skylake...e mi tirano fuori un incremento prestazionale così lieve? A sto punto potrei davvero lanciarmi su un broadwell o addirittura un haswell (anche se non penso proprio ci sarà alcun vantaggio economico a prendere un 4790 ora rispetto ad un broadwell O skylake, quando uscirà.

roccia1234
27-04-2015, 09:54
Ragazzi sapete dirmi cosa siano le DDR3L? Cioè queste CPU sarebbero compatibili sia con le DDR4 che con le care vecchie DDR3 che già abbiamo, risparmiandoci così un po' di dindini?
E se sì, ci perderemo in prestazioni?

Sono delle DDR3 a basso consumo:
http://www.tomshw.it/news/ddr3l-le-ddr3-consumano-di-meno-17244

Imho, non ci saranno differenze prestazionali "pratiche" sensibili.

Cioè, se ti metti a fare bench sintetici magari la differenza c'è... poi fai bench reali e vedi che vanno uguali come qualunque ddr3 da 1333/1600mhz in su (APU a parte, dove la parte grafica ha grandi benefici da ram veloci)

paolox86
27-04-2015, 09:56
mah nemmeno il 6700k ha 8 core. 4 core e 8 thread non è la stessa cosa.



Per enthusiast intendevo le versioni extreme -e, i 3770k, 4770k etc, non li ho mai considerati tali ma come top della fascia mainstream

Mparlav
27-04-2015, 10:05
Ragazzi sapete dirmi cosa siano le DDR3L? Cioè queste CPU sarebbero compatibili sia con le DDR4 che con le care vecchie DDR3 che già abbiamo, risparmiandoci così un po' di dindini?
E se sì, ci perderemo in prestazioni?

Sulle prestazioni noteresti la differenza usando la grafica integrata, ammesso che ciò faccia la differenza (del tipo 25fps vs 20fps :D

In poche rare applicazioni, tipo Winrar/Winzip, vedresti qualche punto percentuale.

Non mancheranno le recensioni di confronto DDR3 vs DDR4

Lombo91
27-04-2015, 10:07
Sono delle DDR3 a basso consumo:
http://www.tomshw.it/news/ddr3l-le-ddr3-consumano-di-meno-17244

Imho, non ci saranno differenze prestazionali "pratiche" sensibili.

Cioè, se ti metti a fare bench sintetici magari la differenza c'è... poi fai bench reali e vedi che vanno uguali come qualunque ddr3 da 1333/1600mhz in su (APU a parte, dove la parte grafica ha grandi benefici da ram veloci)

Ti ringrazio! Quindi però su queste nuove CPU si potranno solo usare DDR3L e non DDR3, corretto?

A me benefici reali servono nei tempi di render con Maya, Nuke e After Effects… Dei bench interessa poco :P
È che ho notato che con un iMac con CPU Intel i tempi di render (in mentalray, che usa purtroppo solo la CPU) sono dimezzati rispetto alla mia piattaforma, e stavo considerando un passaggio a 4790k + mobo discreta, e senza dover cambiare le RAM starei sui 500€.

Aspettare queste nuove CPU potrebbe avere senso? Il divario prestazionale, dati cinesi alla mano, sembra basso, se ci aggiungiamo che dovrei spendere parecchio di più per ricomprare le RAM la cosa non conviene più, no?

EDIT: Grazie anche a te Mparlav, quindi il discorso DDR4vs3 lo ridurrei semplicemente a una questione di costi :)

roccia1234
27-04-2015, 10:23
Ti ringrazio! Quindi però su queste nuove CPU si potranno solo usare DDR3L e non DDR3, corretto?

A me benefici reali servono nei tempi di render con Maya, Nuke e After Effects… Dei bench interessa poco :P
È che ho notato che con un iMac con CPU Intel i tempi di render (in mentalray, che usa purtroppo solo la CPU) sono dimezzati rispetto alla mia piattaforma, e stavo considerando un passaggio a 4790k + mobo discreta, e senza dover cambiare le RAM starei sui 500€.

Aspettare queste nuove CPU potrebbe avere senso? Il divario prestazionale, dati cinesi alla mano, sembra basso, se ci aggiungiamo che dovrei spendere parecchio di più per ricomprare le RAM la cosa non conviene più, no?

EDIT: Grazie anche a te Mparlav, quindi il discorso DDR4vs3 lo ridurrei semplicemente a una questione di costi :)

Se non hai tantissima fretta, io aspetterei bench più affidabili, che quelli mi sanno di fake (vedi punteggi di cinebench R15), che comunque usciranno insieme alle cpu.

Non conosco nel dettaglio quei programmi, ma molto probabilmente sono estremamente cpu-dipendenti, quindi della ram più veloce non te ne faresti nulla.

Si, penso solo DDR3L, probabilmente perchè hanno limitato la tensione a 1,35v.
Poi, penso, che se hai ddr3 "lisce" che non hanno problemi a 1,35v... tu le possa usare comunque, ma sarebbe un azzardo...

dado1979
27-04-2015, 10:23
Mah...sei sicuro di aver letto bene i grafici? ha prestazioni sempre superiori ad un 4790k e di poco inferiori al 5820k....
E ci mancherebbe solo che le prestazioni fossero inferiori ad un 4790k... niente da fare... siamo tornati a quando non c'era concorrenza tra Intel e AMD, nuove generazioni di cpu senza la benché minima necessità.

roccia1234
27-04-2015, 10:25
E ci mancherebbe solo che le prestazioni fossero inferiori ad un 4790k... niente da fare... siamo tornati a quando non c'era concorrenza tra Intel e AMD, nuove generazioni di cpu senza la benché minima necessità.

È da un po' che non c'è concorrenza, eh :stordita: .
L'ultimo barlume di concorrenza c'è stato con i phenom II, da lì in avanti il nulla...

Mparlav
27-04-2015, 10:37
avevo letto di 20 lane direttamente dalla CPU ma evidentemente era sbagliato. Certo che potevano anche sprecarsi e metterle 4 lane in più

Per quelle linee aggiuntive occorre rivolgersi alla piattaforma superiore.
Nell'ipotesi sli/crossfire + Ultra m.2, avresti:
slot 1: pcie 3.0 8x
slot 2: pcie 3.0 4x
ultra m.2: pcie 3.0 x4

come sulle Z97

In una Mb come la Asrock Z150 Extreme6, questa volta il secondo slot m.2 invece di essere 4x 2.0 sarà 4x 3.0 passando dal DMI 3.0 (4GBs ma suddiviso anche con sata 6GBs e usb 3.1)
Se così fosse, ci dovrebbe essere una penalizzazione prestazionale rispetto all'Ultra m.2, ma i primi due slot andrebbero ad 8x + 8x.

Io probabilmente continuerei ad usare un ultra m.2 come sullo Z97: la penalizzazione su 3.0 4x vs 8x con una scheda video non è cosi evidente.

scorpion73
27-04-2015, 12:56
io spero solo che non ci sia la pasta del capitano, altrimenti farà la fine di haswell: un forno crematorio

LucaLindholm
27-04-2015, 13:04
Salve a tutti e buon inizio di settimana; ho un'informazione da chiedere.

Ho deciso di aggiornare il mio i7 965 EE (del novembre 2008), non perché abbia problemi prestazionali ma perché la relativa scheda madre è un po' "castrata" in connessioni:

- L'SSD Samsung 850 Pro non va al massimo con il Sata 2;
- La Radeon R9 290X non sembra dare il meglio di sé con il PCIe 2.0;
- È snervante utilizzare l'USB 2.0 per trasferire file di grandi dimensioni.


Quello che volevo chiedere è se il gioco valga la candela, cioè se ottenessi dei miglioramenti con un 6700 (il processore più adatto per me) con le vari componenti e con il processore stesso, oppure se mi convenga aspettare CannonLake nel 2017, o addirittura i primi processori dell'era post-Silicio nel 2020 (e non sono ironico).

VI ringrazio in anticipo per le delucidazioni.

emanuele83
27-04-2015, 15:30
Salve a tutti e buon inizio di settimana; ho un'informazione da chiedere.

Ho deciso di aggiornare il mio i7 965 EE (del novembre 2008), non perché abbia problemi prestazionali ma perché la relativa scheda madre è un po' "castrata" in connessioni:

- L'SSD Samsung 850 Pro non va al massimo con il Sata 2;
- La Radeon R9 290X non sembra dare il meglio di sé con il PCIe 2.0;
- È snervante utilizzare l'USB 2.0 per trasferire file di grandi dimensioni.


Quello che volevo chiedere è se il gioco valga la candela, cioè se ottenessi dei miglioramenti con un 6700 (il processore più adatto per me) con le vari componenti e con il processore stesso, oppure se mi convenga aspettare CannonLake nel 2017, o addirittura i primi processori dell'era post-Silicio nel 2020 (e non sono ironico).

VI ringrazio in anticipo per le delucidazioni.


scusa ma aspettare 2 anni ammesso che la roadmap sia rispettata a me sembra sbagliato a prescindere se già adesso hai problemi prestazionali. 2 anni di frustrazioni per cosa, quando tra due anni le tue componenti saranno tutte obsolete? Io dico meglioc ambiare ora enel caso tra due anni fare un upgrade di ssd e scheda video ammessoc he ne avrai bisogno. e il tuo pc lo usi fino al 2020 se prendi un intel K che tra 5 anni overclokki

marchigiano
27-04-2015, 16:13
scusate ma va quasi quanto un esacore haswell che ha 4channel una marea di cache e 20 linee pcie... :eek: vi lamentate pure??????

marchigiano
27-04-2015, 16:17
- L'SSD Samsung 850 Pro non va al massimo con il Sata 2;
- La Radeon R9 290X non sembra dare il meglio di sé con il PCIe 2.0;
- È snervante utilizzare l'USB 2.0 per trasferire file di grandi dimensioni.


aggiungi pure che ti consuma come una bestia :D

per l'usb hai una soluzione con un controller pcie, per il resto puoi solo cambiare, la 290x a pcie2 non si può vedere... :D




Quello che volevo chiedere è se il gioco valga la candela, cioè se ottenessi dei miglioramenti con un 6700 (il processore più adatto per me) con le vari componenti e con il processore stesso, oppure se mi convenga aspettare CannonLake nel 2017, o addirittura i primi processori dell'era post-Silicio nel 2020 (e non sono ironico).

VI ringrazio in anticipo per le delucidazioni.

vai tranquillo col 6700 a patto che non ti servano una marea di connessioni pcie usb e ram

roccia1234
27-04-2015, 17:14
scusa ma aspettare 2 anni ammesso che la roadmap sia rispettata a me sembra sbagliato a prescindere se già adesso hai problemi prestazionali. 2 anni di frustrazioni per cosa, quando tra due anni le tue componenti saranno tutte obsolete? Io dico meglioc ambiare ora enel caso tra due anni fare un upgrade di ssd e scheda video ammessoc he ne avrai bisogno. e il tuo pc lo usi fino al 2020 se prendi un intel K che tra 5 anni overclokki

Concordo.

NODREAMS
27-04-2015, 17:51
Non vedo l'ora di mettere le mani su un i5 6600k o i7 6700k...sto aspettando per farmi una nuova postazione.

Ginopilot
27-04-2015, 18:13
Salve a tutti e buon inizio di settimana; ho un'informazione da chiedere.

Ho deciso di aggiornare il mio i7 965 EE (del novembre 2008), non perché abbia problemi prestazionali ma perché la relativa scheda madre è un po' "castrata" in connessioni:

- L'SSD Samsung 850 Pro non va al massimo con il Sata 2;
- La Radeon R9 290X non sembra dare il meglio di sé con il PCIe 2.0;
- È snervante utilizzare l'USB 2.0 per trasferire file di grandi dimensioni.


Quello che volevo chiedere è se il gioco valga la candela, cioè se ottenessi dei miglioramenti con un 6700 (il processore più adatto per me) con le vari componenti e con il processore stesso, oppure se mi convenga aspettare CannonLake nel 2017, o addirittura i primi processori dell'era post-Silicio nel 2020 (e non sono ironico).

VI ringrazio in anticipo per le delucidazioni.

Per l'ssd ti cambia qualcosa solo nei benchmark. Stesso discorso per la r9. Usb3 ci metti una schedina da 20 euro e hai risolto.
Chi ti dice dei consumi, immagino che non userai il pc piu' di 6-8 ore al giorno. Per cui anche li, non ne vale la pena.
E' incredibile come in tanti anni non ci sia stato un apprezzabile aumento delle prestazioni, tranne che per utilizzi molto particolari.

emanuele83
27-04-2015, 19:07
Per l'ssd ti cambia qualcosa solo nei benchmark. Stesso discorso per la r9. Usb3 ci metti una schedina da 20 euro e hai risolto.
Chi ti dice dei consumi, immagino che non userai il pc piu' di 6-8 ore al giorno. Per cui anche li, non ne vale la pena.
E' incredibile come in tanti anni non ci sia stato un apprezzabile aumento delle prestazioni, tranne che per utilizzi molto particolari.

è incredibile come nesuno o quasi ancora ottimizzi per il 64 bit multicore. Anche solo Chrome, ho 36 schede aperte ora, tutte processi a 32 bit. firefox, il multithreading manco sa cosa sia.

cdimauro
27-04-2015, 19:31
E' incredibile come in tanti anni non ci sia stato un apprezzabile aumento delle prestazioni, tranne che per utilizzi molto particolari.
Purtroppo è un problema di supporto. Già da parecchi anni Intel ha tirato fuori le estensioni SIMD AVX, e un paio dopo le AVX-2, ma il software che le usa è raro. Figuriamoci quando arriverà quello che supporterà le AVX-512 che arriveranno proprio con Skylake...
è incredibile come nesuno o quasi ancora ottimizzi per il 64 bit multicore. Anche solo Chrome, ho 36 schede aperte ora, tutte processi a 32 bit. firefox, il multithreading manco sa cosa sia.
Non tutto il software è ottimizzabile per sfruttare il multi-threading.

Il supporto ai 64-bit è, invece, di gran lunga più semplice (per le normali applicazioni; per i driver è un altro paio di maniche), e in genere è sufficiente una banale ricompilazione. Se non ci sono ancora tante applicazioni a 64-bit, è un problema dei produttori di software che sono troppo pigri.

homoinformatico
27-04-2015, 21:00
Vediamo se ci sono differenze interessanti con il 2500k (mai visto cpu mainstream più longeva). Certo che se bisogna spendere 6/700 euro (cpu/mb/ram) per avere un 30% di prestazioni in più, non so se la scimmia riesce a convincermi a fare la spesa

homoinformatico
27-04-2015, 21:07
Purtroppo è un problema di supporto. Già da parecchi anni Intel ha tirato fuori le estensioni SIMD AVX, e un paio dopo le AVX-2, ma il software che le usa è raro. Figuriamoci quando arriverà quello che supporterà le AVX-512 che arriveranno proprio con Skylake...

Non tutto il software è ottimizzabile per sfruttare il multi-threading.

Il supporto ai 64-bit è, invece, di gran lunga più semplice (per le normali applicazioni; per i driver è un altro paio di maniche), e in genere è sufficiente una banale ricompilazione. Se non ci sono ancora tante applicazioni a 64-bit, è un problema dei produttori di software che sono troppo pigri.

non è necessariamente vero.

Molti gestionali (purtroppo usiamo quel virus dell' e-bridge) hanno una serie di problemi che dipendono dal fatto che sono stati scritti male fin dall'inizio e che dovrebbero essere riscritti da zero, fra l'altro facendo infuriare l'utenza che normalmente si limita a conoscere a memoria le schermate che gli interessano. Per cui finisce che le applicazioni restano a 32 bit

cdimauro
27-04-2015, 21:13
non è necessariamente vero.

Molti gestionali (purtroppo usiamo quel virus dell' e-bridge) hanno una serie di problemi che dipendono dal fatto che sono stati scritti male fin dall'inizio e che dovrebbero essere riscritti da zero, fra l'altro facendo infuriare l'utenza che normalmente si limita a conoscere a memoria le schermate che gli interessano. Per cui finisce che le applicazioni restano a 32 bit
Il codice scritto coi piedi non era chiaramente contemplato in ciò che avevo scritto prima.

Sì, nella realtà purtroppo c'è pure questo, perché tanta gente è passata troppo velocemente dalla zappa alla tastiera...

ilario3
28-04-2015, 06:46
A me non sembrano nulla di che. Il 6700k fa un 14% in più del 4790k con 3dmark e cinebench a parità di frequenza e i consumi mi pare siano circa gli stessi. Considerando che che il 4790k appartiene a due generazioni fa direi che non è un grande risultato, anzi...

Ma ormai é consuetudine che le nuove architetture fanno c.a un 15% in più delle precedenti, non é poco, uno deve considerare poi cosa usa attualmente e i benefici di migrare su nuova piattaforma con DDR4 , nuovo chipset, cpu valutando prestazioni/consumo/temperature ecc. Io ho cambiato tutto a dicembre 2014 e sono felicissimo così e non metto mani al portafogli nuovamente per un 15% in più generale, ma chi invece deve rifare tutto puó essere interessato. Cmq come ha scritto qualcuno le specifiche non si inventano, il 4790K viaggia di default a 4ghz, in inverno lo porto a 4.7 ad aria, d'estate lo lascio a default, anche perché lo uso meno, cmq ruzza di brutto :p

ilario3
28-04-2015, 07:02
scusa ma aspettare 2 anni ammesso che la roadmap sia rispettata a me sembra sbagliato a prescindere se già adesso hai problemi prestazionali. 2 anni di frustrazioni per cosa, quando tra due anni le tue componenti saranno tutte obsolete? Io dico meglioc ambiare ora enel caso tra due anni fare un upgrade di ssd e scheda video ammessoc he ne avrai bisogno. e il tuo pc lo usi fino al 2020 se prendi un intel K che tra 5 anni overclokki



Concordo.

Quoto!!! Unica cosa, la RAM DDR4 per me é ancora troppo cara, costa quanto una buona mobo, è appena esce questa piattaforma ci andranno a nozze con i prezzi, però se hai necessità di cambiare e hai il budget per poterlo fare, fallo, una config del genere te la porti per almeno 5/6 anni.

GTKM
28-04-2015, 07:17
Il codice scritto coi piedi non era chiaramente contemplato in ciò che avevo scritto prima.

Grave errore tuo. Il codice scritto coi piedi è diffusissimo, a qualsiasi livello! :D

emanuele83
28-04-2015, 07:35
Quoto!!! Unica cosa, la RAM DDR4 per me é ancora troppo cara, costa quanto una buona mobo, è appena esce questa piattaforma ci andranno a nozze con i prezzi, però se hai necessità di cambiare e hai il budget per poterlo fare, fallo, una config del genere te la porti per almeno 5/6 anni.

Mah personalmente io sono fermo ai 65 nanometri e non sento il bisogno di passare a nuove architetture. ho un sata 2 con samsung pro 250 gb e che senso ha aspettare 5 secondi per entrare nel SO quando la schermata del bios più controller raid ce ne mettono 15. Mi caccontento di 15 di bios e 10 per il ssitema operativo (tra l'altro con un hdd meccanico occorreva formattare 1 volta l'anno üper mantenere le prestazioni, ora sono 3 anni che non formatto/reinstallo windows e avrò avuto un decremento prestazionale in ingresso al SO diel 10%)
SATA 3 inutile, ho un backup in raid 1 e un po di hdd per un paio di tera su hdd meccanici, che faccio spendo 1000 euro se va bene per rifare tutto SSD e andare come una F1 per vedere 4 divx ogni tanto?. Poi chi dice USB 3 mah io non ho periferiche usb3, il mio WD portatile da 250gb è USB2, quando ci copio 100GB di backup lo apro, lo attacco alSATA(2) e copio in 15 minuti quello che dovevo copiare in 1 ora (più o meno)
Ho ancora le DDR2 e 8 GB in dual channel in effettic ominciano ad essere pochini, ma solo quando gioco. Ho fatto un upgrade conuna scheda video usata una AMD7770 credo o roba simile (da una geforce 6800GT) solo per giocare a wolfenstein the new order, ma ora tirerà altri 5 anni.
Alla fine se cambiassi mobo boh a parte la spesa, quello di cui avrei bisogno sono più porte sata e un controller raid fatto bene (perché gli intel cazzeggiano parecchio) di modo da usare i milel HDD da 300-500 gb che ho in giro altrimenti spendo 100 euro per due HDD da un paio di tera e sono a posto. discorso DDR2 vs DDR3/4, credo che si ci siano incrementi prestazionali ma il vero passo avanti per me sarebbero 16 GB. Per la velocità del processore ho cominciato ora a notare la differenza. Ormai che il codec h264 è alla portata di tutti i programmi freeware, e gli smartphone fanno filmati fullhd o oltre, la conversione in downsampling a 720 o SD per snellire il traffico in upload occupa sempre tutti i thread e core al 100% e li la differenza si vede. ma A meno di non mettermi a rippare BR come un matto io credo che aspetterò ancora qualche anno (o qualche guasto) a cambiare architettura e passare da 65nm a qualcosa sotto i 22.
Capitolo consumo, non vale la pena parlarne; lasciando perdere il TDP, il mio q6600 in idle consuma 200W doppio monitor (vecchia tecnologia pure quello datata 2008) compreso.
Si ok un processore non di fascia altissima ha 65W di TDP, ma poi MOBO nuova, memorie nuove consumano veramente meno della vecchia? Che poi la gran parte del consumo deriva dagli HDD meccanici e dalla scheda video che non cambierei comunque.

Dimenticavo: sono fuori dal giro delle MOBO da un annetto ma all'alba del 2016 vogliono mettere un caxxo di controller WLAN integrato su OGNI dannata scheda madre? mi sono rotto di avere in giro pennette USB wlan da tutte le parti. Niente, due porte LAN di una inutilità estrema per il 99% degli utenti consumer, se uno vuole una seconda LAN si compra una scheda PCI/PCIe
Stesso discorso per i monitor. ma vogliono mettere webcam anche da 2Mp di default in ogni monitor? invece no, cavi su cavi e poi apple vende milioni di mac.

Toshia
28-04-2015, 09:04
Ci sarà la pasta del capitano o la saldatura fluxless?

grosso999
28-04-2015, 09:41
Ma ormai é consuetudine che le nuove architetture fanno c.a un 15% in più delle precedenti, non é poco, uno deve considerare poi cosa usa attualmente e i benefici di migrare su nuova piattaforma con DDR4 , nuovo chipset, cpu valutando prestazioni/consumo/temperature ecc. Io ho cambiato tutto a dicembre 2014 e sono felicissimo così e non metto mani al portafogli nuovamente per un 15% in più generale, ma chi invece deve rifare tutto puó essere interessato. Cmq come ha scritto qualcuno le specifiche non si inventano, il 4790K viaggia di default a 4ghz, in inverno lo porto a 4.7 ad aria, d'estate lo lascio a default, anche perché lo uso meno, cmq ruzza di brutto :p

Mi pare che sia solo da qualche anno che è così, e il punto è che non fa +15% rispetto alla generazione precedente, ma rispetto a quella di DUE generazioni fa.
E i consumi mi sembrano più o meno li stessi, sempre rispetto a due generazioni fa

emanuele83
28-04-2015, 10:07
Mi pare che sia solo da qualche anno che è così, e il punto è che non fa +15% rispetto alla generazione precedente, ma rispetto a quella di DUE generazioni fa.
E i consumi mi sembrano più o meno li stessi, sempre rispetto a due generazioni fa

beh ma da un mercato praticamente monopolista cosa vi aspettate? Speriamo che AMD riesca a recuperare in questo lasso di tempo.

ironman72
28-04-2015, 13:34
Mah personalmente io sono fermo ai 65 nanometri e non sento il bisogno di passare a nuove architetture. ho un sata 2 con samsung pro 250 gb e che senso ha aspettare 5 secondi per entrare nel SO quando la schermata del bios più controller raid ce ne mettono 15. Mi caccontento di 15 di bios e 10 per il ssitema operativo (tra l'altro con un hdd meccanico occorreva formattare 1 volta l'anno üper mantenere le prestazioni, ora sono 3 anni che non formatto/reinstallo windows e avrò avuto un decremento prestazionale in ingresso al SO diel 10%)
SATA 3 inutile, ho un backup in raid 1 e un po di hdd per un paio di tera su hdd meccanici, che faccio spendo 1000 euro se va bene per rifare tutto SSD e andare come una F1 per vedere 4 divx ogni tanto?. Poi chi dice USB 3 mah io non ho periferiche usb3, il mio WD portatile da 250gb è USB2, quando ci copio 100GB di backup lo apro, lo attacco alSATA(2) e copio in 15 minuti quello che dovevo copiare in 1 ora (più o meno)
Ho ancora le DDR2 e 8 GB in dual channel in effettic ominciano ad essere pochini, ma solo quando gioco. Ho fatto un upgrade conuna scheda video usata una AMD7770 credo o roba simile (da una geforce 6800GT) solo per giocare a wolfenstein the new order, ma ora tirerà altri 5 anni.
Alla fine se cambiassi mobo boh a parte la spesa, quello di cui avrei bisogno sono più porte sata e un controller raid fatto bene (perché gli intel cazzeggiano parecchio) di modo da usare i milel HDD da 300-500 gb che ho in giro altrimenti spendo 100 euro per due HDD da un paio di tera e sono a posto. discorso DDR2 vs DDR3/4, credo che si ci siano incrementi prestazionali ma il vero passo avanti per me sarebbero 16 GB. Per la velocità del processore ho cominciato ora a notare la differenza. Ormai che il codec h264 è alla portata di tutti i programmi freeware, e gli smartphone fanno filmati fullhd o oltre, la conversione in downsampling a 720 o SD per snellire il traffico in upload occupa sempre tutti i thread e core al 100% e li la differenza si vede. ma A meno di non mettermi a rippare BR come un matto io credo che aspetterò ancora qualche anno (o qualche guasto) a cambiare architettura e passare da 65nm a qualcosa sotto i 22.
Capitolo consumo, non vale la pena parlarne; lasciando perdere il TDP, il mio q6600 in idle consuma 200W doppio monitor (vecchia tecnologia pure quello datata 2008) compreso.
Si ok un processore non di fascia altissima ha 65W di TDP, ma poi MOBO nuova, memorie nuove consumano veramente meno della vecchia? Che poi la gran parte del consumo deriva dagli HDD meccanici e dalla scheda video che non cambierei comunque.

Dimenticavo: sono fuori dal giro delle MOBO da un annetto ma all'alba del 2016 vogliono mettere un caxxo di controller WLAN integrato su OGNI dannata scheda madre? mi sono rotto di avere in giro pennette USB wlan da tutte le parti. Niente, due porte LAN di una inutilità estrema per il 99% degli utenti consumer, se uno vuole una seconda LAN si compra una scheda PCI/PCIe
Stesso discorso per i monitor. ma vogliono mettere webcam anche da 2Mp di default in ogni monitor? invece no, cavi su cavi e poi apple vende milioni di mac.

Effettivamente come dici sei fuori dal giro delle motherboard, tutte le case propongono modelli con wlan integrata, da molto più di un 'anno, e la doppia lan l'hanno quasi dismessa.
Le tue considerazioni sull'inutilità delle nuove piattaforme... su sata 3 usb3 ( aggiungo m2 etc.), forse le cambieresti totalmente dopo aver provato con mano quanta acqua sotto i ponti sia passata dal glorioso q6600 g0 ad oggi.
Quanto importanti siano alla fine della giornata quei secondi/ minuti/ore risparmiate grazie ad un ssd sata 3 su controller sata 3 a quel hdd usb3 su usb3, a quei 10/12 sata a disposizione !

emanuele83
28-04-2015, 14:01
Effettivamente come dici sei fuori dal giro delle motherboard, tutte le case propongono modelli con wlan integrata, da molto più di un 'anno, e la doppia lan l'hanno quasi dismessa.
Le tue considerazioni sull'inutilità delle nuove piattaforme... su sata 3 usb3 ( aggiungo m2 etc.), forse le cambieresti totalmente dopo aver provato con mano quanta acqua sotto i ponti sia passata dal glorioso q6600 g0 ad oggi.
Quanto importanti siano alla fine della giornata quei secondi/ minuti/ore risparmiate grazie ad un ssd sata 3 su controller sata 3 a quel hdd usb3 su usb3, a quei 10/12 sata a disposizione !

Ad un anno fa occorreva andare sulle top di gamma asus per avere WLAN integrata, le cercai per lavoro e in una fascia di prezzo media asus/msi non ne offriva.

certo che con un PC sata3 con SSD sata3 con usb3 e periferiche usb3 allroa noto la differenza ma questo significherebbe dovere fare un upgrade totale. imho il gicoo non vale la candela ora. a fronte di guasti allora valuterò se varrà la pena cambiare anche mobo procio e ram.

Ginopilot
28-04-2015, 16:47
percepire differenze tra sata2 e 3 e' una bella sfida. Usb3 ok, ma non e' di fondamentale importanza e poi basta una schedina da pochi euro.

MiKeLezZ
28-04-2015, 16:53
Mah personalmente io sono fermo ai 65 nanometri e non sento il bisogno di passare a nuove architetture. ho un sata 2 con samsung pro 250 gb e che senso ha aspettare 5 secondi per entrare nel SO quando la schermata del bios più controller raid ce ne mettono 15. Mi caccontento di 15 di bios e 10 per il ssitema operativo (tra l'altro con un hdd meccanico occorreva formattare 1 volta l'anno üper mantenere le prestazioni, ora sono 3 anni che non formatto/reinstallo windows e avrò avuto un decremento prestazionale in ingresso al SO diel 10%)
SATA 3 inutile, ho un backup in raid 1 e un po di hdd per un paio di tera su hdd meccanici, che faccio spendo 1000 euro se va bene per rifare tutto SSD e andare come una F1 per vedere 4 divx ogni tanto?. Poi chi dice USB 3 mah io non ho periferiche usb3, il mio WD portatile da 250gb è USB2, quando ci copio 100GB di backup lo apro, lo attacco alSATA(2) e copio in 15 minuti quello che dovevo copiare in 1 ora (più o meno)
Ho ancora le DDR2 e 8 GB in dual channel in effettic ominciano ad essere pochini, ma solo quando gioco. Ho fatto un upgrade conuna scheda video usata una AMD7770 credo o roba simile (da una geforce 6800GT) solo per giocare a wolfenstein the new order, ma ora tirerà altri 5 anni.
Alla fine se cambiassi mobo boh a parte la spesa, quello di cui avrei bisogno sono più porte sata e un controller raid fatto bene (perché gli intel cazzeggiano parecchio) di modo da usare i milel HDD da 300-500 gb che ho in giro altrimenti spendo 100 euro per due HDD da un paio di tera e sono a posto. discorso DDR2 vs DDR3/4, credo che si ci siano incrementi prestazionali ma il vero passo avanti per me sarebbero 16 GB. Per la velocità del processore ho cominciato ora a notare la differenza. Ormai che il codec h264 è alla portata di tutti i programmi freeware, e gli smartphone fanno filmati fullhd o oltre, la conversione in downsampling a 720 o SD per snellire il traffico in upload occupa sempre tutti i thread e core al 100% e li la differenza si vede. ma A meno di non mettermi a rippare BR come un matto io credo che aspetterò ancora qualche anno (o qualche guasto) a cambiare architettura e passare da 65nm a qualcosa sotto i 22.
Capitolo consumo, non vale la pena parlarne; lasciando perdere il TDP, il mio q6600 in idle consuma 200W doppio monitor (vecchia tecnologia pure quello datata 2008) compreso.
Si ok un processore non di fascia altissima ha 65W di TDP, ma poi MOBO nuova, memorie nuove consumano veramente meno della vecchia? Che poi la gran parte del consumo deriva dagli HDD meccanici e dalla scheda video che non cambierei comunque.

Dimenticavo: sono fuori dal giro delle MOBO da un annetto ma all'alba del 2016 vogliono mettere un caxxo di controller WLAN integrato su OGNI dannata scheda madre? mi sono rotto di avere in giro pennette USB wlan da tutte le parti. Niente, due porte LAN di una inutilità estrema per il 99% degli utenti consumer, se uno vuole una seconda LAN si compra una scheda PCI/PCIe
Stesso discorso per i monitor. ma vogliono mettere webcam anche da 2Mp di default in ogni monitor? invece no, cavi su cavi e poi apple vende milioni di mac.Così come puoi mettere la schedina PCI-E LAN puoi anche mettere una schedina PCI-E WIFI eh.
Per la webcam vale lo stesso discorso, perché metterla su tutti i monitor se serve solo a te?
Comprati una webcam (magari più decente dei cessetti sui portatili) e così potrai usarla su tutti i pc che avrai.

Toshia
28-04-2015, 18:28
Trovato in un sito d' oltralpe un rumor secondo cui skylake dovrebbe essere un ritorno al fluxless. Sul sito attestano anche che questa sarebbe stata una decisione conseguente ad una petizione. Interessante è il fatto che si metta in evidenza come la differenza tra il costo di produzione con la pasta del capitano e la fluxless non sia più di qualche dollaro.
Vien veramente da chiedersi allora perchè sia stata adottata quella pasta tra ihs e die delle generazioni precendenti. sarà stato solamente perchè, come alcuni asseriscono, la fluxless avrebbe causato la rottura del procio per quelle dimensioni o sarà forse l' ennesima trovata truffaldina, sulla scia di tanti altri prodotti, di immettere sul mercato prodotti ad obsolescenza intrinseca programmata?

Il sito in questione è http://www.chw.net/2014/08/rumor-cpus-intel-core-de-sexta-generacion-skylake-dt-podrian-tener-un-ihs-unido-con-soldadura-flux-less/

Attendiamo tests da parte della redazione e possibilmente foto con tanto di procio scoperchiato mostrante la benedetta fluxless.

ironman72
28-04-2015, 21:57
percepire differenze tra sata2 e 3 e' una bella sfida. Usb3 ok, ma non e' di fondamentale importanza e poi basta una schedina da pochi euro.

Basta fare un copia incolla di qualche centinaio di gb e la differenza si nota eccome...!!!
Mah tra usb3 intel e schede add-on c'e' un abisso....

Ginopilot
29-04-2015, 15:20
Vabbe', stai scherzando.

ilario3
29-04-2015, 16:51
Mah personalmente io sono fermo ai 65 nanometri e non sento il bisogno di passare a nuove architetture. ho un sata 2 con samsung pro 250 gb e che senso ha aspettare 5 secondi per entrare nel SO quando la schermata del bios più controller raid ce ne mettono 15. Mi caccontento di 15 di bios e 10 per il ssitema operativo (tra l'altro con un hdd meccanico occorreva formattare 1 volta l'anno üper mantenere le prestazioni, ora sono 3 anni che non formatto/reinstallo windows e avrò avuto un decremento prestazionale in ingresso al SO diel 10%)
SATA 3 inutile, ho un backup in raid 1 e un po di hdd per un paio di tera su hdd meccanici, che faccio spendo 1000 euro se va bene per rifare tutto SSD e andare come una F1 per vedere 4 divx ogni tanto?. Poi chi dice USB 3 mah io non ho periferiche usb3, il mio WD portatile da 250gb è USB2, quando ci copio 100GB di backup lo apro, lo attacco alSATA(2) e copio in 15 minuti quello che dovevo copiare in 1 ora (più o meno)
Ho ancora le DDR2 e 8 GB in dual channel in effettic ominciano ad essere pochini, ma solo quando gioco. Ho fatto un upgrade conuna scheda video usata una AMD7770 credo o roba simile (da una geforce 6800GT) solo per giocare a wolfenstein the new order, ma ora tirerà altri 5 anni.
Alla fine se cambiassi mobo boh a parte la spesa, quello di cui avrei bisogno sono più porte sata e un controller raid fatto bene (perché gli intel cazzeggiano parecchio) di modo da usare i milel HDD da 300-500 gb che ho in giro altrimenti spendo 100 euro per due HDD da un paio di tera e sono a posto. discorso DDR2 vs DDR3/4, credo che si ci siano incrementi prestazionali ma il vero passo avanti per me sarebbero 16 GB. Per la velocità del processore ho cominciato ora a notare la differenza. Ormai che il codec h264 è alla portata di tutti i programmi freeware, e gli smartphone fanno filmati fullhd o oltre, la conversione in downsampling a 720 o SD per snellire il traffico in upload occupa sempre tutti i thread e core al 100% e li la differenza si vede. ma A meno di non mettermi a rippare BR come un matto io credo che aspetterò ancora qualche anno (o qualche guasto) a cambiare architettura e passare da 65nm a qualcosa sotto i 22.
Capitolo consumo, non vale la pena parlarne; lasciando perdere il TDP, il mio q6600 in idle consuma 200W doppio monitor (vecchia tecnologia pure quello datata 2008) compreso.
Si ok un processore non di fascia altissima ha 65W di TDP, ma poi MOBO nuova, memorie nuove consumano veramente meno della vecchia? Che poi la gran parte del consumo deriva dagli HDD meccanici e dalla scheda video che non cambierei comunque.

Dimenticavo: sono fuori dal giro delle MOBO da un annetto ma all'alba del 2016 vogliono mettere un caxxo di controller WLAN integrato su OGNI dannata scheda madre? mi sono rotto di avere in giro pennette USB wlan da tutte le parti. Niente, due porte LAN di una inutilità estrema per il 99% degli utenti consumer, se uno vuole una seconda LAN si compra una scheda PCI/PCIe
Stesso discorso per i monitor. ma vogliono mettere webcam anche da 2Mp di default in ogni monitor? invece no, cavi su cavi e poi apple vende milioni di mac.


Dipende dalle esigenze che ognuno di noi ha, però, la mia vecchia config era:
Un Q9450- 8GB di Ram- 1ssd 60GB Sata2+ 500Gb HDD- ATI 280X
Ora con un I7- 16GB di RAM- SATA3 ecc... fidati, è un altro mondo. Io l'ho provato ed è cosi, ma ripeto, poi dipende da quello che ognuno di noi vuole. Mia mamma va ancora avanti con un portatile Toshiba con 2gb di RAM ed uno dei primi dual core usciti, quindi...... Tutto è relativo

Nui_Mg
29-04-2015, 17:41
Vabbe', stai scherzando.
No, Iron ha detto giusto: su grossi file contigui la differenza tra sata 2 e 3 è notevole, ed è errato pure per l'usb 3 che basta una schedina, visto che quando non c'è il controller intel integrato iniziano le rogne di incompatibilità tra i controller usb 3 di vari produttori inseriti nel pc (quindi senza usb3 by intel) e lo specifico chipset utilizzato nei box usb3 di tanti produttori.
Avere un usb3 intel integrato è anche una benedizione per le operazione ad OS offline sul pc (per esempio varie iso, per i più disparati motivi, vari os inclusi, fatte partire da pendrive usb3), soprattutto prestazionali.

emanuele83
29-04-2015, 17:53
Dipende dalle esigenze che ognuno di noi ha, però, la mia vecchia config era:
Un Q9450- 8GB di Ram- 1ssd 60GB Sata2+ 500Gb HDD- ATI 280X
Ora con un I7- 16GB di RAM- SATA3 ecc... fidati, è un altro mondo. Io l'ho provato ed è cosi, ma ripeto, poi dipende da quello che ognuno di noi vuole. Mia mamma va ancora avanti con un portatile Toshiba con 2gb di RAM ed uno dei primi dual core usciti, quindi...... Tutto è relativo

Ma sicuramente! Lavoro con un 4770k e SSD840Evo su mobo sata3 con usb3 etc etc, è un fulmine (peccato che le toolsuite xilinx vadano meglio a 32bit e su singolo core piuttosto che a 64 in multicore, roba da matti) ma al momanto penso: spendere 600 euro per un ex novo o aspettare un guasto? Io aspetto ;)

Ginopilot
29-04-2015, 17:54
No, Iron ha detto giusto: su grossi file contigui la differenza tra sata 2 e 3 è notevole,


Fammi capire, spostare centinaia di GB su ssd e' una cosa di tutti i giorni con dischi che mediamente sono da 250GB? Non mi parlare di dischi meccanici perche' li non c'entra proprio nulla, neanche i miei sas 15k riescono a saturare il sata2.


ed è errato pure per l'usb 3 che basta una schedina, visto che quando non c'è il controller intel integrato iniziano le rogne di incompatibilità tra i controller usb 3 di vari produttori inseriti nel pc (quindi senza usb3 by intel) e lo specifico chipset utilizzato nei box usb3 di tanti produttori.
Avere un usb3 intel integrato è anche una benedizione per le operazione ad OS offline sul pc (per esempio varie iso, per i più disparati motivi, vari os inclusi, fatte partire da pendrive usb3), soprattutto prestazionali.

Questo e' un discorso diverso.

Nui_Mg
29-04-2015, 18:02
Fammi capire, spostare centinaia di GB su ssd e' una cosa di tutti i giorni con dischi che mediamente sono da 250GB?
Tu stai facendo un esempio specifico, io ho risposto al tuo concetto assolutistico del "non vi è differenza". Per la cronaca, la differenza la noti anche con pochissimi GB, quello che per esempio succede a me quando riverso/sposto le videolezioni in h264 (e se non sono h264 è ancora peggio) prese all'uni.

Questo e' un discorso diverso.
No, è lo stesso discorso perché implica che l'usb3 su schedina ha dei chiarissimi svantaggi (e a volte parecchio insidiosi soprattutto per i neofiti) su un controller integrato, specificatamente by intel (che sono i migliori sui pc).

Ginopilot
29-04-2015, 18:06
Tu stai facendo un esempio specifico, io ho risposto al tuo concetto assolutistico del "non vi è differenza". Per la cronaca, la differenza la noti anche con pochissimi GB, quello che per esempio succede a me quando riverso/sposto le videolezioni in h264 (e se non sono h264 è ancora peggio) prese all'uni.


Ho capito, ma non e' roba che si fa generalmente su ssd, viste le dimensioni notevoli in gioco.


No, è lo stesso discorso perché implica che l'usb3 su schedina ha dei chiarissimi svantaggi (e a volte parecchio insidiosi soprattutto per i neofiti) su un controller integrato, specificatamente by intel (che sono i migliori sui pc).

Si parlava di prestazioni. E cmq non ha senso cambiare un sistema non recentissimo, solo perche' privo di usb3 nativo.

Pier2204
29-04-2015, 18:13
7 anni con un Phenom II sono troppi anche per me :D ..la voglia di cambiare fa parte di quella strana cosa inconscia che non riesco a definire, perchè di fatto il vecchio se la cava ancora piuttosto bene e potrei stare fermo.

Ma è un po che volevo fare l'upgrade, veramente da 2 generazioni fa, ma quest'anno ero convinto di farmi un mini ATX con questi Skylake, contando il fattore consumo/prestazioni..

Vedo che il TDP non è tanto diverso dai 47xx riguardo le prestazioni mi bastano.
Da come lo avevano descritto sembrava che questa nuova architettura restasse immutata come prestazioni ma abbassasse di molto il consumo. Mi sembra che non sia proprio così, chiedo consiglio.

Nui_Mg
29-04-2015, 18:17
cHo capito, ma non e' roba che si fa generalmente su ssd, viste le dimensioni notevoli in gioco.[/quote]
Io rispondevo al tuo "percepire differenze tra sata2 e 3 e' una bella sfida", Risposta: no, è facilissimo notarla.
Si parlava di prestazioni.
I controller intel sono anche più veloci (certo, non da far gridare al miracolo) ma anche senza tirare in ballo questo, con i controller non intel è sovente che il tempo nei trasferimenti possa anche più che triplicare e sai perché? Per via di varie disconnessioni della periferica in tutti quei casi in cui non vi sia perfetta compatibilità (come detto, tutt'altro che rari) tra controller e vari chipset box.

E cmq non ha senso cambiare un sistema non recentissimo, solo perche' privo di usb3 nativo.
Mai affermato il contrario.

Mparlav
29-04-2015, 18:19
7 anni con un Phenom II sono troppi anche per me :D ..la voglia di cambiare fa parte di quella strana cosa inconscia che non riesco a definire, perchè di fatto il vecchio se la cava ancora piuttosto bene e potrei stare fermo.

Ma è un po che volevo fare l'upgrade, veramente da 2 generazioni fa, ma quest'anno ero convinto di farmi un mini ATX con questi Skylake, contando il fattore consumo/prestazioni..

Vedo che il TDP non è tanto diverso dai 47xx riguardo le prestazioni mi bastano.
Da come lo avevano descritto sembrava che questa nuova architettura restasse immutata come prestazioni ma abbassasse di molto il consumo. Mi sembra che non sia proprio così, chiedo consiglio.

Non dirlo a me, che vorrei cambiare il 1055T su 890FX preso al dayone ed ora con 16GB di ram (oltre a ssd su 6GBs ed usb 3.0 nativi).
Lo vorrei cambiare per sfizio più che reale necessità (la chiamano scimmia :D ), anche se in realtà lo farei per far fuori un PC ancora più vecchio (un C2D E8400 con 4GB di ram).

Il TDP dovrebbe essere determinato in gran parte dalla gpu: se non si usa quella integrata, sarà interessante confrontare i consumi reali.

emanuele83
29-04-2015, 18:54
Non dirlo a me, che vorrei cambiare il 1055T su 890FX preso al dayone ed ora con 16GB di ram (oltre a ssd su 6GBs ed usb 3.0 nativi).
Lo vorrei cambiare per sfizio più che reale necessità (la chiamano scimmia :D ), anche se in realtà lo farei per far fuori un PC ancora più vecchio (un C2D E8400 con 4GB di ram).

Il TDP dovrebbe essere determinato in gran parte dalla gpu: se non si usa quella integrata, sarà interessante confrontare i consumi reali.

Mah di solito una diminuzione significativa di consumi si ha con un salto a nuova tecnologia (tick?) e non con nuova microarchitettura (tock?)

Pier2204
29-04-2015, 19:18
Non dirlo a me, che vorrei cambiare il 1055T su 890FX preso al dayone ed ora con 16GB di ram (oltre a ssd su 6GBs ed usb 3.0 nativi).
Lo vorrei cambiare per sfizio più che reale necessità (la chiamano scimmia :D ), anche se in realtà lo farei per far fuori un PC ancora più vecchio (un C2D E8400 con 4GB di ram).

Il TDP dovrebbe essere determinato in gran parte dalla gpu: se non si usa quella integrata, sarà interessante confrontare i consumi reali.

L'intenzione è farmi una discreta di media potenza per un case piccolo, niente cose da 300 watt. Quello è il massimo che deve avere l'alimentatore serie gold. ;)

Ginopilot
29-04-2015, 22:35
Io rispondevo al tuo "percepire differenze tra sata2 e 3 e' una bella sfida", Risposta: no, è facilissimo notarla.


Allora hai quotato il messaggio sbagliato. Inoltre col cavolo che e' facilissimo, in pratica devi spostare file di grosse dimensioni tra ssd veloci (molti in scrittura si fermano sui 300MB/s, cioe' praticamente sata2) e cronometrare, una cosa che ha davvero poco senso, praticamente un benchmark.


I controller intel sono anche più veloci (certo, non da far gridare al miracolo) ma anche senza tirare in ballo questo, con i controller non intel è sovente che il tempo nei trasferimenti possa anche più che triplicare e sai perché? Per via di varie disconnessioni della periferica in tutti quei casi in cui non vi sia perfetta compatibilità (come detto, tutt'altro che rari) tra controller e vari chipset box.


Ci sono tanti ctrl usb3 che non si comportano affatto male. E torniamo al discorso di cui sopra, non e' che in usb3 ci attacchi un ssd, normalmente ci metti un disco meccanico, neanche di quelli molto performanti, che gia' in usb2 davano quasi il massimo.
Insomma, a meno di usi molto particolari, non certo mainstream, negli ultimi 5-6 anni i progressi sono stati davvero poco impattanti.

emanuele83
30-04-2015, 06:54
Allora hai quotato il messaggio sbagliato. Inoltre col cavolo che e' facilissimo, in pratica devi spostare file di grosse dimensioni tra ssd veloci (molti in scrittura si fermano sui 300MB/s, cioe' praticamente sata2) e cronometrare, una cosa che ha davvero poco senso, praticamente un benchmark.



Ci sono tanti ctrl usb3 che non si comportano affatto male. E torniamo al discorso di cui sopra, non e' che in usb3 ci attacchi un ssd, normalmente ci metti un disco meccanico, neanche di quelli molto performanti, che gia' in usb2 davano quasi il massimo.
Insomma, a meno di usi molto particolari, non certo mainstream, negli ultimi 5-6 anni i progressi sono stati davvero poco impattanti.

Mah per file contigui anche un meccanico dice la sua 100mb/s non sono i 20-30 che un USB2 permetteva. Vero è che se all'USB3 ci attacchi la trekstor da 8 euro da 16 giga USB3 e ti aspetti 100mb/s in scrittura su pennetta USB allora stai fresco. COme detto prima dipende da che periferica uno ci attacca. Conviene fare un upgrade quando hai SSD che satura il SATA2 (ma non il sata3) e periferiche che non suportano l'USB3? imho no. Altrimenti aggiorni tutto, spendi 1000 euro e il resto che ancora funziona ma non è performante abbastanza secodno i tuoi cnanoni lo butti al macero. viva il consumismo.

Mparlav
30-04-2015, 08:07
Mah di solito una diminuzione significativa di consumi si ha con un salto a nuova tecnologia (tick?) e non con nuova microarchitettura (tock?)

Non mi aspetto nulla di significativo sul fronte consumi, ma un miglioramento ci sarà, ripeto senza l'uso della gpu integrata.

Per quanto mi riguarda questo aspetto è relativo, visto che una cpu "k" la prenderei per l'overclock.
Altrimenti risparmierei quei 40-50 euro per prenderne un "normale" i7-6700

L'intenzione è farmi una discreta di media potenza per un case piccolo, niente cose da 300 watt. Quello è il massimo che deve avere l'alimentatore serie gold. ;)

Penso che non ci saranno problemi per un sistema ITX visto che già ci mettono gli i7-4790K :)

Ginopilot
30-04-2015, 08:36
Mah per file contigui anche un meccanico dice la sua 100mb/s non sono i 20-30 che un USB2 permetteva. Vero è che se all'USB3 ci attacchi la trekstor da 8 euro da 16 giga USB3 e ti aspetti 100mb/s in scrittura su pennetta USB allora stai fresco. COme detto prima dipende da che periferica uno ci attacca. Conviene fare un upgrade quando hai SSD che satura il SATA2 (ma non il sata3) e periferiche che non suportano l'USB3? imho no. Altrimenti aggiorni tutto, spendi 1000 euro e il resto che ancora funziona ma non è performante abbastanza secodno i tuoi cnanoni lo butti al macero. viva il consumismo.

Spetta un attimo, usb2 raggiunge anche 50-60MB/s, i dischi esterni usb, a meno di costruirsene uno su misura con unita' molto veloci, non vanno molto oltre, naturalmente solo con file di grosse dimensioni. Concordo sul resto, non ha molto senso, anche alla luce dei prezzi di sistemi usati anche con cpu i7

roccia1234
30-04-2015, 09:45
Spetta un attimo, usb2 raggiunge anche 50-60MB/s, i dischi esterni usb, a meno di costruirsene uno su misura con unita' molto veloci, non vanno molto oltre, naturalmente solo con file di grosse dimensioni. Concordo sul resto, non ha molto senso, anche alla luce dei prezzi di sistemi usati anche con cpu i7

50-60 MB/s la usb2?? :eek:

Si, nei sogni più bagnati.

Nella realtà si ferma tra 25 e 30 MB/s.

emanuele83
30-04-2015, 10:25
50-60 MB/s la usb2?? :eek:

Si, nei sogni più bagnati.

Nella realtà si ferma tra 25 e 30 MB/s.

Da specifica USB2 il caso miggliore, ovvero best case su trasferimento di 1024 bytes ad una velocità massima di 57344000 BYte/s (tabella 5.5 pag 42 http://sdphca.ucsd.edu/Lab_Equip_Manuals/usb_20.pdf) che per microframe (125µsec) da 7168 byte trasmessi. Che in soldoni in caso ogni microframe sia così fatta da 54MB/s. Lo standard permette questo, la realtà è diversa sia per colpa di controller poco performanti, sia per altri fattori, come le inerzie meccaniche (mac he su file contigui non c'entrano). l'handshaking e tuitto il resto occupano tempo decrementando la banda. Mi sento di poter dire che NESSUN controller USB 2 su hdd meccanico raggiunga più di 35Mb/s ed è conq uesto che ci dobbiamoc onfrontare specialmente perché quando si attacca un hdd mecanico al sata su file contigui si raggiungono velocità più che doppie reali. (testato con WD 250GB 5400 staccato dal conttroller USB 2 da 27 circa si è passati attaccato al SATA a circa 70mb/s su file di grandi dimensioni (>2Gb))

ironman72
30-04-2015, 13:43
Spetta un attimo, usb2 raggiunge anche 50-60MB/s, i dischi esterni usb, a meno di costruirsene uno su misura con unita' molto veloci, non vanno molto oltre, naturalmente solo con file di grosse dimensioni. Concordo sul resto, non ha molto senso, anche alla luce dei prezzi di sistemi usati anche con cpu i7

Usb2 max 35mb/sec,usb3 normalmente sui 90/100(wd elements 1,5tb).

emanuele83
30-04-2015, 13:52
Usb2 max 35mb/sec,usb3 normalmente sui 90/100(wd elements 1,5tb).

in quel caso però la limitazione è imposta dall'HDD meccanico, perché i 133MB/s li tirava anche il vecchio IDE/PATA.

ironman72
30-04-2015, 14:12
in quel caso però la limitazione è imposta dall'HDD meccanico, perché i 133MB/s li tirava anche il vecchio IDE/PATA.

Certo che dipende dall'hdd...!!!

Ginopilot
30-04-2015, 18:47
Vabbe', ho esagerato un po', ma ho visto diversi test segnare sopra i 40MB/s.
Mentre con usb3 anche su scheda pcie si raggiungono e si superano agevolmente i 100MB/s.

PaulGuru
01-05-2015, 11:54
I soliti miglioramenti col contagocce, bah !

cdimauro
02-05-2015, 08:39
Cosa pretenderesti?

Riguardo all'IPC, ci possiamo scordare aumenti consistenti.

L'unico modo di scalare con le prestazioni è con unità SIMD in grado di processare più dati per ciclo di clock. Il problema è che quando arrivano le nuove estensioni ci vogliono ANNI affinché COMINCINO a prender piede, e dunque per toccare con mano gli incrementi prestazionali che ne derivano.

Comunque il forum è pieno di esperti che pontificano, per cui mi aspetto che qualcuno di questi genii incompresi tiri fuori l'uovo di Colombo, magistralmente e TECNICAMENTE spiegato, che dimostri in che modo si possa scalare "ab libidum" con le prestazioni. Grazie.

P.S. Questa bufala fa il paio con quella di Intel che rilascia appositamente prodotti "col freno a mano tirato" perché "non ha concorrenza da AMD".

PaulGuru
02-05-2015, 08:59
Cosa pretenderesti?

Riguardo all'IPC, ci possiamo scordare aumenti consistenti.

L'unico modo di scalare con le prestazioni è con unità SIMD in grado di processare più dati per ciclo di clock. Il problema è che quando arrivano le nuove estensioni ci vogliono ANNI affinché COMINCINO a prender piede, e dunque per toccare con mano gli incrementi prestazionali che ne derivano.

Comunque il forum è pieno di esperti che pontificano, per cui mi aspetto che qualcuno di questi genii incompresi tiri fuori l'uovo di Colombo, magistralmente e TECNICAMENTE spiegato, che dimostri in che modo si possa scalare "ab libidum" con le prestazioni. Grazie.

P.S. Questa bufala fa il paio con quella di Intel che rilascia appositamente prodotti "col freno a mano tirato" perché "non ha concorrenza da AMD".

Ma per favore.
Vuoi che in sti 10 anni di monopolio Intel non abbia già pronta un architettura superiore ?

cdimauro
02-05-2015, 09:26
Primo, Intel non ha mai avuto il monopolio.

Secondo, non esistono nemmeno rumor riguardo a presunte architetture superiori.

Terzo, puoi sempre spiegarmi TECNICAMENTE in cosa dovrebbero superiori?

Il problema sai qual è? Che la gente vede complotti e segreti ovunque, anche quando non ce ne sia nemmeno l'odore.

GTKM
02-05-2015, 09:44
Ma per favore.
Vuoi che in sti 10 anni di monopolio Intel non abbia già pronta un architettura superiore ?

Architettura superiore? Ma in cosa? E come sarebbe possibile, ad oggi, ottenere qualcosa che migliori sensibilmente l'IPC, ad esempio?
Che Intel possa lavorare senza troppa pressione nell'ambito desktop è risaputo, ma non esageriamo troppo.

Ah, ovviamente sempre x86, altrimenti sarebbe totalmente inutile.

Ginopilot
02-05-2015, 09:50
fatto sta che grossi aumenti di prestazioni si sono avuti solo quando la concorrenza era piu' accesa.

GTKM
02-05-2015, 09:52
fatto sta che grossi aumenti di prestazioni si sono avuti solo quando la concorrenza era piu' accesa.

Sì, ma forse c'erano anche margini di miglioramento più ampi. Ad oggi, pure passare ad un nuovo PP inizia a diventare difficile (ci si sta avvicinando ai limiti fisici del Si) e/o enormemente costoso. A livello di architettura, probabilmente, si starà vivendo una situazione analoga.
Poi posso pure sbagliarmi; in tal senso, speriamo che AMD non fallisca anche con Zen.

Ginopilot
02-05-2015, 09:54
Ma perche' la concorrenza non sprona a inventarsi qualcosa di nuovo, ma solo a migliorare quello che c'e'.

GTKM
02-05-2015, 10:01
Ma perche' la concorrenza non sprona a inventarsi qualcosa di nuovo, ma solo a migliorare quello che c'e'.
Evidentemente non è così facile inventare qualcosa di nuovo, in questo settore.

Ginopilot
02-05-2015, 10:07
Evidentemente non è così facile inventare qualcosa di nuovo, in questo settore.

Soprattutto quando manca la concorrenza.

GTKM
02-05-2015, 10:12
Soprattutto quando manca la concorrenza.

Ma perche' la concorrenza non sprona a inventarsi qualcosa di nuovo, ma solo a migliorare quello che c'e'.

Io credo che, dati i risultati finanziari di AMD, questa avrebbe sicuramente interesse nell'inventarsi qualcosa di nuovo al fine di colmare il gap.

Ginopilot
02-05-2015, 10:17
Io credo che, dati i risultati finanziari di AMD, questa avrebbe sicuramente interesse nell'inventarsi qualcosa di nuovo al fine di colmare il gap.

Senza soldi e' un po' difficile.

PaulGuru
02-05-2015, 10:50
Architettura superiore? Ma in cosa? E come sarebbe possibile, ad oggi, ottenere qualcosa che migliori sensibilmente l'IPC, ad esempio?
Che Intel possa lavorare senza troppa pressione nell'ambito desktop è risaputo, ma non esageriamo troppo.

Ah, ovviamente sempre x86, altrimenti sarebbe totalmente inutile.
Scusa ma dove sta scritto che l'architettura X86 è giunta alla fine ?
Da quel che ne so non son nemmeno mai uscite voci a riguardo.

Le architetture un tempo prima che iniziasse il decennio fail di AMD si evolvevano, adesso è da 10 anni che l'architettura attuale è basata su Nehalem o addirittura da Conroe.

Che in questi 10 anni siano rimasti fermi sul piano ricerca e sviluppo è pura utopia, quindi a sto punto AMD è destinata a raggiungere Intel visto che quest'ultima è alla frutta, e ARM destinata a raggiungere entrambi suppongo.
Quindi il tutto si baserebbe sul PP ?
Quindi se AMD avesse saputo rispondere a Intel nel 2006 sarebbero andati entrambi a braccetto con prestazioni simili ? ( entrambi alla frutta ..... )

Pier2204
02-05-2015, 11:16
Evidentemente non è così facile inventare qualcosa di nuovo, in questo settore.

Soprattutto quando manca la concorrenza.

Credo che qualcosa di nuovo comprenda anche abbandonare la compatibilità a tutta la base installata, operazione che ha rischi enormi, ne sa qualcosa Intel quando ha cercato di uscire dal seminato x86.

Ho crei qualcosa di superlativo che giustifichi il salto, oppure è un binario morto, a chi lo fa fare di investire risorse e tempo per una architettura nuova se non porta vantaggi significativi e riscrivere tutto il software?

Poi è chiaro che se mi inventi un processore in grado di sbriciolare tutti gli altri, allora ci sarà la corsa, prima il supporto dei Sistemi Operativi e poi il software a corredo. Ma questo oggi è fattibile con il silicio?

Ginopilot
02-05-2015, 11:27
Sono gli stessi discorsi che si facevano 20 anni fa quando i vari risc sembravano destinati a soppiantare l'architettura x86 in tutti i campi perche' ormai al capolinea.

PaulGuru
02-05-2015, 11:45
Ho crei qualcosa di superlativo che giustifichi il salto, oppure è un binario morto
l'italiano ;)

Sono gli stessi discorsi che si facevano 20 anni fa quando i vari risc sembravano destinati a soppiantare l'architettura x86 in tutti i campi perche' ormai al capolinea.
quoto

GTKM
02-05-2015, 12:46
Scusa
ma dove sta scritto che l'architettura X86 è giunta alla fine ?
Da quel che ne so non son nemmeno mai uscite voci a riguardo.

Non l'ho detto nemmeno io.

Le architetture un tempo prima che iniziasse il decennio fail di AMD si
evolvevano, adesso è da 10 anni che l'architettura attuale è basata su
Nehalem o addirittura da Conroe.

Stiamo parlando di più di un decennio fa, forse c'era anche più margine di miglioramento. Comunque, come ho detto, che Intel lavori in maniera più tranquilla è un dato di fatto. Ma secondo te, se Zen sarà un'ottima architettura, Intel risponderà tirando fuori un nuovo prodotto rivoluzionario, o, semplicemente, abbassando i prezzi? (togliendo l'unico punto a favore di AMD).

Che in questi 10 anni siano rimasti fermi sul piano ricerca e sviluppo è
pura utopia, quindi a sto punto AMD è destinata a raggiungere Intel
visto che quest'ultima è alla frutta, e ARM destinata a raggiungere
entrambi suppongo.
Quindi il tutto si baserebbe sul PP ?
Quindi se AMD avesse saputo rispondere a Intel nel 2006 sarebbero andati
entrambi a braccetto con prestazioni simili ? ( entrambi alla frutta
..... )
Non ho capito questi ragionamenti da cosa derivino. A parte che c'è sempre un miglioramento prestazionale da una generazione all'altra (anche se solo di un 10%, per dire), non è che siano immobili.


E come sarebbe possibile, ad oggi, ottenere qualcosa che migliori sensibilmente l'IPC, ad esempio?

Ancora aspetto una risposta: se avete la soluzione, contattate AMD o Intel, e un contratto non ve lo toglie nessuno! :D

PaulGuru
02-05-2015, 15:46
Ancora aspetto una risposta: se avete la soluzione, contattate AMD o Intel, e un contratto non ve lo toglie nessuno! :D
Per avere la risposta a ciò dovresti chiedere ad AMD di cominciare a lavorare per una volta e sfornare un prodotto che sia classificabile come CPU.

A quel punto vedrai se Intel ha o no degli assi sotto la manica.

cdimauro
02-05-2015, 16:39
fatto sta che grossi aumenti di prestazioni si sono avuti solo quando la concorrenza era piu' accesa.
E' puramente contingente al fatto che si era in piena fase di ricerca di nuove soluzioni, che man mano sono state trovate.

Inoltre l'aumento era dovuto anche al fatto che si saliva in frequenza che era una bellezza, mentre da una dozzina d'anni siamo rimasti ancorati all'incirca alle stesse frequenze.
Sì, ma forse c'erano anche margini di miglioramento più ampi. Ad oggi, pure passare ad un nuovo PP inizia a diventare difficile (ci si sta avvicinando ai limiti fisici del Si) e/o enormemente costoso. A livello di architettura, probabilmente, si starà vivendo una situazione analoga.
Poi posso pure sbagliarmi; in tal senso, speriamo che AMD non fallisca anche con Zen.
Non sbagli affatto: è così. D'altra parte sono stiamo parlando di più di 30 anni di corse alle prestazioni, per cui si è sperimentato di tutto.
Ma perche' la concorrenza non sprona a inventarsi qualcosa di nuovo, ma solo a migliorare quello che c'e'.
Vedi sopra.
Evidentemente non è così facile inventare qualcosa di nuovo, in questo settore.
Esatto.
Soprattutto quando manca la concorrenza.
Assolutamente no: senza nuove idee non si va da nessuna parte, concorrenza o meno, soldi o meno.

Innovazione = idee che cambiano lo status quo, e le idee possono venire a chiunque, anche a un ingegnere che lavora in una piccolissima azienda.
Scusa ma dove sta scritto che l'architettura X86 è giunta alla fine ?
Da quel che ne so non son nemmeno mai uscite voci a riguardo.
Sono voci o sparate che si ripetono periodicamente. Non farci caso.
Le architetture un tempo prima che iniziasse il decennio fail di AMD si evolvevano, adesso è da 10 anni che l'architettura attuale è basata su Nehalem o addirittura da Conroe.
Perché è e rimane un'ottima architettura che rappresenta la sintesi di decenni di ricerche in questo campo.
Che in questi 10 anni siano rimasti fermi sul piano ricerca e sviluppo è pura utopia,
Infatti non siamo fermi, ma si va a piccoli passi, migliorando quanto di già molto buono c'è adesso.

Niente rivoluzioni, insomma.
quindi a sto punto AMD è destinata a raggiungere Intel visto che quest'ultima è alla frutta,
IMO arriverà il momento in cui non ci saranno molto differenze a livello prestazionale. Zen assomiglia molto all'attuale famiglia i3/i7, anche se Intel presenterà a breve Skylake (nuova micro-architettura).
e ARM destinata a raggiungere entrambi suppongo.
ARM è un'architettura completamente diversa, per cui è difficile effettuare confronti sul piano prestazionale. Lo è già con micro-architetture della stessa famiglia, figuriamoci con architetture che non hanno niente in comune.

Si dovrebbero fissare dei paletti e selezionare un certo numero di test.

A parte questo, c'è da notare che i progetti "di punta" attuali sono già estremamente avanzati, per cui non vedo rivoluzioni per ARM, ma un miglioramento dell'attuale, come appunto fa Intel da tempo.
Quindi il tutto si baserebbe sul PP ?
No. Intel andava meglio di AMD anche quando i processi produttivi erano sostanzialmente gli stessi.

E' AMD che ha presentato una nuova idea, e le è andata male. Anche questa è ricerca e un chiaro tentativo di innovazioni, che però non sempre porta i suoi frutti.
Quindi se AMD avesse saputo rispondere a Intel nel 2006 sarebbero andati entrambi a braccetto con prestazioni simili ? ( entrambi alla frutta ..... )
Sì, avrebbero avuto prestazioni simili. E no, non sarebbero alla frutta.
Credo che qualcosa di nuovo comprenda anche abbandonare la compatibilità a tutta la base installata, operazione che ha rischi enormi, ne sa qualcosa Intel quando ha cercato di uscire dal seminato x86.

Ho crei qualcosa di superlativo che giustifichi il salto, oppure è un binario morto, a chi lo fa fare di investire risorse e tempo per una architettura nuova se non porta vantaggi significativi e riscrivere tutto il software?
Questo è possibile farlo, e IMO porterebbe un discreto aumento di prestazioni, anche se non saremmo in presenza di rivoluzioni (leggi: roba tipo il doppio di prestazioni soltanto cambiando architettura).

Ma, come hai detto, ci sarebbe il problema della retrocompatibilità: c'è troppo software già esistente e non si può riscrivere o ricompilare tutto.

Altra cosa, una volta effettuato il passaggio alla nuova architettura, quest'ultima avrà ugualmente le stesse problematiche per salire di IPC, perché non si possono fare magie: il codice è quello che è, con le sue dipendenze fra istruzioni / dati, che non possono essere risolte in via definitiva da nessuna architettura.

E si badi bene: la soluzione non sarebbe presentare una nuova architettura per ottenere un altro miglioramento di prestazioni. Non è così che funziona. La nuova architettura di cui prima servirebbe a sistemare i problemi dell'esistente, ma poi non ci sarebbe più spazio per qualcos'altro.
Poi è chiaro che se mi inventi un processore in grado di sbriciolare tutti gli altri, allora ci sarà la corsa, prima il supporto dei Sistemi Operativi e poi il software a corredo. Ma questo oggi è fattibile con il silicio?
Sì, è fattibile, ma molto costoso a livello di supporto, a causa dell'enorme base software già esistente.
Sono gli stessi discorsi che si facevano 20 anni fa quando i vari risc sembravano destinati a soppiantare l'architettura x86 in tutti i campi perche' ormai al capolinea.
Già. Discorsi triti e ritriti.
Per avere la risposta a ciò dovresti chiedere ad AMD di cominciare a lavorare per una volta e sfornare un prodotto che sia classificabile come CPU.

A quel punto vedrai se Intel ha o no degli assi sotto la manica.
Come già detto altre volte, questo è del tutto indifferente: Intel lavora già, e da sempre, per migliorarsi. Va per la sua strada. Con buona pace dei complottisti.

emanuele83
02-05-2015, 20:08
Evidentemente non è così facile inventare qualcosa di nuovo, in questo settore.

Soprattutto quando manca la concorrenza.

Ahahahah cazzuola non avevo mai considerato che il capitalismo potesse travalicare le leggi della fisica!

NODREAMS
02-05-2015, 20:16
C'è da dire che oltre all'IPC, negli ultimi anni si stanno anche concentrando nella GPU integrata, che forse a noi non interessa un azzo, ma stanno facendo progressi anche in quell'ambito lì...il tutto tenendo sempre gli stessi consumi...ti fanno una CPU con il 10-15% di IPC in più, e un ulteriore 30% di GPU in più, e tutti guardano solo l'IPC, non considerando il lato grafico...

Che magari, con le tanto sbandierate DX12, sarà possibile utilizzare anche la grafica del processore, con le nostre schede video.

PaulGuru
02-05-2015, 21:23
Come già detto altre volte, questo è del tutto indifferente: Intel lavora già, e da sempre, per migliorarsi. Va per la sua strada. Con buona pace dei complottisti.Intel migliora sulla iGPU e sul consumo energetico, roba che ad un vero purista non interessa nemmeno lontanamente, l'inutilità pura e cruda messa in campo giusto per dire che si stanno muovendo.

Ma 3-5% non è un passo avanti, un SB attualmente è competitivo con gli attuali modelli e la cosa è inaccettabile.

L'attuale architettura Intel è buona ? Dopo 10 anni nell'informatica non c'è nulla di buono, dovrebbe essere già obsoleta e sorpassata, se ciò non è accaduto dobbiamo ringraziare la disonorevole AMD.

Pier2204
02-05-2015, 21:36
Intel migliora sulla iGPU e sul consumo energetico, roba che ad un vero purista non interessa nemmeno lontanamente, l'inutilità pura e cruda messa in campo giusto per dire che si stanno muovendo.

Ma 3-5% non è un passo avanti, un SB attualmente è competitivo con gli attuali modelli e la cosa è inaccettabile.

L'attuale architettura Intel è buona ? Dopo 10 anni nell'informatica non c'è nulla di buono, dovrebbe essere già obsoleta e sorpassata, se ciò non è accaduto dobbiamo ringraziare la disonorevole AMD.

Beh.. insomma, è grazie al miglioramento del consumo energetico che oggi abbiamo notebook leggeri, privi di ventola con un'autonomia operativa di svariate ore...

Io non la chiamo inutilità pura e cruda, per me è un utilizzo saggio delle tecnologie disponibili.
Il miglioramento delle prestazioni desktop ultimamente non è così sentito commercialmente, la percentuale di utilizzo si sta spostando verso apparecchiature piccole,
una volta erano praticamente solo desktop, per questo anche in quel campo si sta guardando più al consumo che alle prestazioni pure, visto che non è raro trovare all-in-one sottilissimi e PC microATX.
Cosa impensabile ai tempi di SB se non castrando di brutto le prestazioni...

cdimauro
02-05-2015, 22:19
Intel migliora sulla iGPU
Mi pare ovvio, visto che è il suo punto debole. Tu che faresti al suo posto?
e sul consumo energetico,
Idem come sopra.
roba che ad un vero purista non interessa nemmeno lontanamente, l'inutilità pura e cruda messa in campo giusto per dire che si stanno muovendo.
Premesso che non mi è chiara la definizione di "vero purista", potresti scrivere cosa dovrebbe fare?
Ma 3-5% non è un passo avanti,
Ci sono state percentuali anche maggiori in passato, ma da un tick non puoi aspettarti cambiamenti più sensibili. E' col tock che si migliora la micro-architettura.
un SB attualmente è competitivo con gli attuali modelli e la cosa è inaccettabile.
Non mi pare sia così. Tempo fa qualcuno ha postato un articolo di AnandTech, che mostra gli incrementi prestazionali da Nehalem ad Haswell, che sono ben consistenti.
L'attuale architettura Intel è buona ?
L'attuale è ottima. Ma io sono di parte, come sai. :D
Dopo 10 anni nell'informatica non c'è nulla di buono, dovrebbe essere già obsoleta e sorpassata,
Sorpassata da cosa. Mostra TECNICAMENTE cosa sarebbe dovuto avvenire.

Gli americani usano dire: "talk is cheap". Ed è vero, visto che molte persone si fermano alle chiacchiere in discussioni in cui, invece, servono i fatti.
se ciò non è accaduto dobbiamo ringraziare la disonorevole AMD.
Vedi sopra: assolutamente no. Intel è andata per la sua strada e ha innovato per quel che poteva.

Ma, nuovamente, puoi sempre mostrare in che modo, tecnicamente, avrebbe dovuto innovare.

GTKM
03-05-2015, 08:21
Intel migliora sulla iGPU e sul consumo energetico, roba che ad un vero purista non interessa nemmeno lontanamente, l'inutilità pura e cruda messa in campo giusto per dire che si stanno muovendo.

Cosa si intende per "vero purista"?
Ad Intel, come a qualsiasi azienda, interessa essere competitiva sul mercato; oggi si richiedono chip che consumino poco e, preferibilmente, siano dotati anche di una iGPU in grado di gestire dei carichi "di base".

Ma 3-5% non è un passo avanti, un SB attualmente è competitivo con gli attuali modelli e la cosa è inaccettabile.

Anche un 5% è un passo avanti, anche se "piccolo". A ciò, si aggiunge un consumo energetico basso, e questo fa sempre bene. I cassoni raffreddati ad azoto liquido ed alimentati da centrale nucleare credo non interessino a molte persone.

L'attuale architettura Intel è buona ? Dopo 10 anni nell'informatica non c'è nulla di buono, dovrebbe essere già obsoleta e sorpassata, se ciò non è accaduto dobbiamo ringraziare la disonorevole AMD.
Sulla base di cosa? Se un'architettura continua a rispondere adeguatamente alle esigenze del mercato, allora è buona.

PaulGuru
03-05-2015, 11:26
Cosa si intende per "vero purista"?
Ad Intel, come a qualsiasi azienda, interessa essere competitiva sul mercato; oggi si richiedono chip che consumino poco e, preferibilmente, siano dotati anche di una iGPU in grado di gestire dei carichi "di base".Il purista è l'intenditore, la nicchia che ha realmente bisogno del PC.

Il basso consumo è richiesto sul mobile, parlar di ciò su desktop è ridicolo.
La iGPU è inutile, una vera configurazione per PC ha sempre la discreta o al massimo solo per visualizzare il desktop, ma in quel caso perchè continuare ad ingrossare sempre di più la parte grafica anzichè miniaturizzarla col PP ?

Il mercato ? Il mercato oggi sta sul mobile, ed è lì che devi apportare questo tipo di innovazioni ( che parolone ) non su desktop, che stringessero i prodotti per PC a fasce degne e lasciassero i prodotti mobile all'utonza.

Anche un 5% è un passo avanti, anche se "piccolo".5% forse sarà anche dettato dalla dimensione dei registri o da caratteristiche del PP stesso, non è detto che sia un passo avanti nell'architettura.
5% poi su cosa ? Su ben 2 generazioni fa ( non una ).

A ciò, si aggiunge un consumo energetico basso, e questo fa sempre bene.Si consumo basso su una cpu per risparmiare 5€ l'anno, fra l'altro con HSI dissaldati che costringono ad usare dissipatori sovradimensionati.
Posso capire la ricerca del risparmio su elettrodomestici ma su processori da desktop ( al 99.9% sistemi a singolo processore ) fa veramente ridere i polli.
:rolleyes:

I cassoni raffreddati ad azoto liquido ed alimentati da centrale nucleare credo non interessino a molte persone.
Questo cosa centra ?
I banchi sotto azoto dipendono dalle attività di OC non dai prodotti.
Sotto azoto ci han messo pure un SoC Snapdragon per benchare.

Sulla base di cosa? Se un'architettura continua a rispondere adeguatamente alle esigenze del mercato, allora è buona.Sulla base delle probabilità e statistiche.
Le esigenze di mercato riguardano il primato prestazionale, l'attuale architettura è "buona" perchè il riferimento è AMD.

cdimauro
03-05-2015, 13:17
Il purista è l'intenditore, la nicchia che ha realmente bisogno del PC.
La nicchia non fa il mercato di Intel, che è costituito da alcune centinaia di milioni di processori (o SoC) venduti. E', per l'appunto, nicchia.
Il basso consumo è richiesto sul mobile, parlar di ciò su desktop è ridicolo.
Assolutamente no, visto che il mercato desktop NON è di nicchia, e il basso consumo è certamente apprezzato.

Non confondere desktop con la nicchia che ti è cara: sono due cose completamente diverse.
La iGPU è inutile, una vera configurazione per PC ha sempre la discreta o al massimo solo per visualizzare il desktop, ma in quel caso perchè continuare ad ingrossare sempre di più la parte grafica anzichè miniaturizzarla col PP ?
La parte grafica viene già miniaturizzata QUANDO c'è il passaggio a un nuovo processo produttivo.

A parte questo, Intel offre diverse configurazioni per la GPU, con più o meno unità d'esecuzione, per cui l'area occupata va dal piccolo al consistente. Dunque il tuo discorso non può essere generalizzato.

Infine, avere una GPU integrata è utile ANCHE quando il PC ha una (o più) GPU discreta. Intanto La discreta la usi soltanto quando devi giocare e non sempre. Poi quella integrata potrebbe anche sobbarcarsi una parte dei calcoli se i giochi fossero scritti in modo da sfruttarla, massimizzando le prestazioni del sistema.
Il mercato ? Il mercato oggi sta sul mobile, ed è lì che devi apportare questo tipo di innovazioni ( che parolone ) non su desktop, che stringessero i prodotti per PC a fasce degne e lasciassero i prodotti mobile all'utonza.
Ancora falso, visto che il mercato di Intel è per lo più NON mobile, e NON è costituito da "utonzi". :rolleyes:
5% forse sarà anche dettato dalla dimensione dei registri
Di quale dimensioni parli? Ciò che hai scritto non ha alcun senso. Spiegati meglio, perché è incomprensibile ciò che hai scritto.
o da caratteristiche del PP stesso,
Quello, quando si verifica (cioé una volta ogni due anni: il famoso "Tick"), non incide sulle prestazioni, fatta eccezione per la possibilità di salire leggermente in frequenza. Ovviamente mantenendo tutto il resto esattamente com'è.
non è detto che sia un passo avanti nell'architettura.
L'architettura si evolve aggiungendo istruzioni o unità SIMD avanzate. Ma qui parliamo già della fase di "Tock".

Tick e Tock sono, ovviamente, due cose completamente diverse.
5% poi su cosa ? Su ben 2 generazioni fa ( non una ).
Una. Due generazioni rappresentano un ciclo completo di Tick e Tock, e dunque si sommano i miglioramenti apportati da ambo le fasi.
Si consumo basso su una cpu per risparmiare 5€ l'anno,
Dipende da quel che ci fai e dal carico di lavoro. Inoltre a seconda della CPU impiegata il risparmio può essere ancora maggiore.
fra l'altro con HSI dissaldati che costringono ad usare dissipatori sovradimensionati.
Chi viene costretto? Il 99,9% dell'utenza non si sogna di cambiare il dissipatore. Anzi, generalmente compra il PC "chiavi in mano", per cui non si sogna nemmeno di assemblarselo da sé.
Posso capire la ricerca del risparmio su elettrodomestici ma su processori da desktop ( al 99.9% sistemi a singolo processore ) fa veramente ridere i polli.
:rolleyes:
Oltre ai polli fa ridere anche me: perché l'utente comune dovrebbe stare attento ai consumi degli elettrodomestici, e non dei PC? Se guarda al risparmio energetico, lo fa per qualunque cosa. Dunque anche per il PC, che... è anch'esso un elettrodomestico.
Questo cosa centra ?
I banchi sotto azoto dipendono dalle attività di OC non dai prodotti.
Sotto azoto ci han messo pure un SoC Snapdragon per benchare.
Infatti: è gente che fa parte di una ristrettissima cerchia, che ama smanettare. Nicchia della nicchia degli appassionati.
Sulla base delle probabilità e statistiche.
Riportale pure queste statistiche, così diamo finalmente un'occhiata a dei dati e non a delle vuote parole.
Le esigenze di mercato riguardano il primato prestazionale,
Questo dove sta scritto? O vale soltanto perché lo dice PaulGuru, il rappresentante della nicchia della nicchia di cui sopra che, statistica alla mano che hai citato, si può tranquillamente trascurare in quanto del tutto irrilevante.

Hai presente la legge dei grandi numeri? Tu e quelli come te non ci fate parte.
l'attuale architettura è "buona" perchè il riferimento è AMD.
Da quando Intel prende AMD come riferimento? Hai qualche comunicazione in merito? Perché non mi aver letto nulla del genere da parecchio tempo a questa parte.

Comunque, visto che ti senti così sicuro di quel che scrivi, puoi benissimo dare onore alle ultime quattro lettere del tuo nick. Riporta pure TECNICAMENTE in che modo dovrebbero essere realizzati i processori per ottenere queste fantasmagoriche superprestazioni di cui parli. Vai pure nel dettaglio quanto vuoi.

emanuele83
04-05-2015, 07:25
Si consumo basso su una cpu per risparmiare 5€ l'anno, fra l'altro con HSI dissaldati che costringono ad usare dissipatori sovradimensionati.
Posso capire la ricerca del risparmio su elettrodomestici ma su processori da desktop ( al 99.9% sistemi a singolo processore ) fa veramente ridere i polli.
:rolleyes:




Tu non hai idea di cosa stai parlando. Veramente. Quantificare il risparmio energetico in termini monetari è una delle cose più ignoranti (nel senso che si ignora) che si possono fare. Ti rendi conto che intel vende nell’ordine dei 400 milioni di microprocessori l’anno? http://www.tomshardware.com/news/intel-finance-record-revenue-3q13,27889.html ti rendi conto che un guadagno dell’1% in termini di minore consumo a parità di prestazioni impatta 400 milioni di utenze, 400 milioni di persone, 400 milioni di computer sparsi in giro per il mondo, dove i costi energetici variano da paese a paese ma i costi relativi all’inquinamento di 400 milioni di utenze sono uguali su tutto il pianeta?

Senza contare che ottimizzazioni ad ogni nuovo tick (fino ad ora) sulla tecnologia abbassano le tensioni di lavoro dei core e il guadagno sulla potenza dissipate è praticamente gratuito (a parità di prestazioni) inoltre anche l’introduzione della GPU integrata, con ottimizzazioni di carattere SW (praticamente gratuite rispetto ad ottimizzazioni di carattere produttivo) può aiutare in maniera considerevole a risurre i consumi (a parità di prestazioni), si pensi ad una scheda video integrata che viene usata per applicazioni 2D e la dedicata per applicazioni 3D spinte o per aiutarela CPU su particolari operazioni dove la pipeline è più efficiente (si veda CUDA).

Fa veramente ridere i polli.

PaulGuru
04-05-2015, 08:47
Tu non hai idea di cosa stai parlando. Veramente. Quantificare il risparmio energetico in termini monetari è una delle cose più ignoranti (nel senso che si ignora) che si possono fare. Ti rendi conto che intel vende nell’ordine dei 400 milioni di microprocessori l’anno? http://www.tomshardware.com/news/intel-finance-record-revenue-3q13,27889.html ti rendi conto che un guadagno dell’1% in termini di minore consumo a parità di prestazioni impatta 400 milioni di utenze, 400 milioni di persone, 400 milioni di computer sparsi in giro per il mondo, dove i costi energetici variano da paese a paese ma i costi relativi all’inquinamento di 400 milioni di utenze sono uguali su tutto il pianeta?


Che ragionamento del menga !

Da quando Intel è in affari con ENEL e rispettive ?

Della risparmio energetico globale non gliene frega per niente ! E non è di certo il suo campo.
Fare una cpu che permette di risparmiare energia rispetto ad un altra cambia ( anzi potrebbe cambiare ) solo il lato dissipazione, ma una volta decaduta questa non ha più senso.

Inoltre risparmiare 5€ a utente, moltiplicato per 400 milioni sono 2 miliardi di euro risparmiati globalmente ? Fa ridere !!! Le spese mondiali si aggirano sulle migliaia di miliardi di euro l'anno.
In Giappone ne spendono a centinaia solo per le centrali nucleari.
Solo negli Usa spendono circa 160 miliardi l'anno solo per la lotta al terrorismo.
2 Miliardi in un anno non coprono nemmeno le spese per la carta igienica in Cina per un mese !!!

Senza contare che ottimizzazioni ad ogni nuovo tick (fino ad ora) sulla tecnologia abbassano le tensioni di lavoro dei core e il guadagno sulla potenza dissipate è praticamente gratuito (a parità di prestazioni) inoltre anche l’introduzione della GPU integrata, con ottimizzazioni di carattere SW (praticamente gratuite rispetto ad ottimizzazioni di carattere produttivo) può aiutare in maniera considerevole a risurre i consumi (a parità di prestazioni), si pensi ad una scheda video integrata che viene usata per applicazioni 2D e la dedicata per applicazioni 3D spinte o per aiutarela CPU su particolari operazioni dove la pipeline è più efficiente (si veda CUDA).

Fa veramente ridere i polli.Adesso mi spieghi cosa centrano gli algoritmi di gestione energetica con il PP ! Avanti !!!
Perchè se sforni CPU da 125W anzichè 65W e/o con PP differente non possono essere applicati ?

Per l'integrata, che provassero ad usare la discreta che in modalità idle magari è addirittura più potente della integrata in full.

emanuele83
04-05-2015, 09:28
Che ragionamento del menga !

Da quando Intel è in affari con ENEL e rispettive ?

Della risparmio energetico globale non gliene frega per niente ! E non è di certo il suo campo.
Fare una cpu che permette di risparmiare energia rispetto ad un altra cambia ( anzi potrebbe cambiare ) solo il lato dissipazione, ma una volta decaduta questa non ha più senso.

Inoltre risparmiare 5€ a utente, moltiplicato per 400 milioni sono 2 miliardi di euro risparmiati globalmente ? Fa ridere !!! Le spese mondiali si aggirano sulle migliaia di miliardi di euro l'anno.
In Giappone ne spendono a centinaia solo per le centrali nucleari.
Solo negli Usa spendono circa 160 miliardi l'anno solo per la lotta al terrorismo.
2 Miliardi in un anno non coprono nemmeno le spese per la carta igienica in Cina per un mese !!!

Adesso mi spieghi cosa centrano gli algoritmi di gestione energetica con il PP ! Avanti !!!
Perchè se sforni CPU da 125W anzichè 65W e/o con PP differente non possono essere applicati ?

Per l'integrata, che provassero ad usare la discreta che in modalità idle magari è addirittura più potente della integrata in full.

Vai continua a calcolare il risparmio energetico in ordine monetario. un miliardo di dollari in cina non è lo stesso negli stati uniti. Ti rendi conto che trasportare energia da un posto ad un altro implica dei consumi? ti rendi conto che 5 euro l'anno equivangono a miliardi di KWh all'anno risparmiati che si traducono in tonnellate di CO2 non riversate in atmosfera?
A intel ottesega dell'ambiente ma quando hai una server farm che deve consumare meno allora a intel interessa fare consumare meno i suoi precessori a parità di prestazioni. Ma poi li hai visti i dissipatori intel come sono cambiati da architettura a 65nm ad una a 22? sono la metà con prestazioni migliori e consumo minore.

Una scheda video in idle non fa nulla di nulla, la GPU integrata a parità di prestazioni È sempre più efficiente di una discreta dove devi alimentare memorie, sezioni di alimentazione e tranceiver su linee di trasmissione ad alta velocità a distanza maggiore.

Vai vvai continua a confrontare PP con CPU e CPU+ GPU non aparità di prestazioni. A parità di prestazioni una nuova generazione consuma meno della precedente. A parità di consumi invece un PP più avanzato da più prestazioni ergo SE la tua GPU integrata non riesce a riprodurre un x265 a causa delle poche prestazioni a parità di potenza DEVI usare una scheda discreta (esempio) e il tuo algoritmo di ottimizzazione che si occupad i decidere quando usare una GPU integrata o discreta per riprodurre un X265 non lo potrai applicare (è un esempio)

L'Ottimizzazione dipende sempre dal processo di produzione a parità di potenza dissipata una nuova architettura ha più prestazioni di calcolo disponibili dando maggiore spazio ad ottiizzazioni.

PaulGuru
04-05-2015, 09:33
La nicchia non fa il mercato di Intel, che è costituito da alcune centinaia di milioni di processori (o SoC) venduti. E', per l'appunto, nicchia.Il mercato che ha reso celebre Intel è quello desktop !
I PC intesi come preassemblati sono destinati a morire, rimarranno solo guardacaso i sistemi per gamers e workstations personali ( roba appunto di nicchia ) ed a ciò puoi solo abbinare i prodotti server.

Assolutamente no, visto che il mercato desktop NON è di nicchia, e il basso consumo è certamente apprezzato.Vedo che non leggi gli articoli che parlano di mercato PC sempre più in discesa ......
Fortunamente è la verità, e stanno per essere soppiantati dai mobile caro mio, che ti piaccia oppure no.
Volevi la legge dei grandi numeri ? Eccola ! Queste sono le esigenze di mercato !

Non confondere desktop con la nicchia che ti è cara: sono due cose completamente diverse.Per ora, questione di tempo però.
Il countdown sarà lungo ma intanto è già iniziato.
Gli utenti che ancora comprano i PC lo fanno solo per risparmiare il più possibile.

La parte grafica viene già miniaturizzata QUANDO c'è il passaggio a un nuovo processo produttivo.Si peccato però che lo spazio guadagnato viene reimpiegato per aumentare le unità al loro interno.
Quindi la CPU si rimpicciolisce mentre la iGPU rimane sempre tale e occupa sempre più % all'interno del die.
Il che si traduce in costi di produzione.


Infine, avere una GPU integrata è utile ANCHE quando il PC ha una (o più) GPU discreta. Intanto La discreta la usi soltanto quando devi giocare e non sempre. Poi quella integrata potrebbe anche sobbarcarsi una parte dei calcoli se i giochi fossero scritti in modo da sfruttarla, massimizzando le prestazioni del sistema.Peccato che le discrete in idle consumano molto poco oramai.

Ancora falso, visto che il mercato di Intel è per lo più NON mobile, e NON è costituito da "utonzi". :rolleyes:Il mercato come dici tu non lo decide Intel, o hai già cambiato versione ?
Il mercato adesso si è spostato sul mobile e Intel è lì che deve buttarsi se vuole continuare a fatturare ed infatti è lì che si sta concentrando.
Questi iGPU e questi prodotti a basso consumo su desktop sono solo un banco di test per travasare poi il tutto sugli Atom e sui modelli M.

Di quale dimensioni parli? Ciò che hai scritto non ha alcun senso. Spiegati meglio, perché è incomprensibile ciò che hai scritto.Ogni processore ha dei registri al suo interno e di questi fa parte "anche" la cache ( non solamente questa ).

L'architettura si evolve aggiungendo istruzioni o unità SIMD avanzate. Ma qui parliamo già della fase di "Tock".Quella non è evoluzione ma sono solo refresh.
Quindi secondo te aumentando il numero di unità cambia l'architettura ?
Quindi nelle VGA una 980 e una TitanX hanno architetture differenti ?


Dipende da quel che ci fai e dal carico di lavoro. Inoltre a seconda della CPU impiegata il risparmio può essere ancora maggiore.I 5€ erano già riferiti ad una condizione di full, in idle il divario è quasi inesistente, e le attività svolte su un desktop vede la maggior parte del tempo impiegato in idle mediamente.


Chi viene costretto? Il 99,9% dell'utenza non si sogna di cambiare il dissipatore. Anzi, generalmente compra il PC "chiavi in mano", per cui non si sogna nemmeno di assemblarselo da sé.Il fatto che l'utenza non cambi dissipatore non vuol dire che quello stock di Intel faccia pena e che porti al trottling ! Ovviamente fornire un dissi stock buono aumenta i costi per Intel che quindi non si sogna di farlo.


perché l'utente comune dovrebbe stare attento ai consumi degli elettrodomestici, e non dei PC? Cioè fammi capire !!!
Stai paragonando strumenti da migliaia di Watt ad un PC ? Roba da pazzi !
Sono su 2 piani distanti anni luce, con uno risparmi gli spiccioli, con l'altro i bigliettoni di filigrana.



Da quando Intel prende AMD come riferimento? Hai qualche comunicazione in merito? Perché non mi aver letto nulla del genere da parecchio tempo a questa parte.Da quando il mercato e la concorrenza si basa sulla qualità del prodotto rivale.
Produrre una nuova architettura costa, perchè farlo quando si può tenere la vecchia collaudata che permette costi di sviluppo ridicoli e una resa sempre alta, perchè farlo quando AMD fa pena ?

cdimauro
04-05-2015, 20:31
Il mercato che ha reso celebre Intel è quello desktop !
Ed infatti continua a vendere tantissimo lì.
I PC intesi come preassemblati sono destinati a morire, rimarranno solo guardacaso i sistemi per gamers e workstations personali ( roba appunto di nicchia ) ed a ciò puoi solo abbinare i prodotti server.
Non mi pare proprio che sia questa la tendenza. Tutt'altro.
Vedo che non leggi gli articoli che parlano di mercato PC sempre più in discesa ......
Fortunamente è la verità, e stanno per essere soppiantati dai mobile caro mio, che ti piaccia oppure no.
Volevi la legge dei grandi numeri ? Eccola ! Queste sono le esigenze di mercato !
Eccole qui le esigenze di mercato, fresche fresche: http://www.businessmagazine.it/news/ancora-in-calo-il-mercato-tablet-per-il-primo-trimestre-dell-anno_57098.html

E non si tratta di un caso eccezionale, visto che il mercato dei tablet è in calo già da un pezzo. La bolla s'è sgonfiata.
Per ora, questione di tempo però.
Il countdown sarà lungo ma intanto è già iniziato.
Vedi sopra: non c'è rifugio nel mobile, perché è in calo anch'esso.
Gli utenti che ancora comprano i PC lo fanno solo per risparmiare il più possibile.
O per avere hardware più potente e/o maggior espandibilità e/o possibilità di upgrade, che coi tablet sono quasi del tutto escluse.
Si peccato però che lo spazio guadagnato viene reimpiegato per aumentare le unità al loro interno.
Quindi la CPU si rimpicciolisce mentre la iGPU rimane sempre tale e occupa sempre più % all'interno del die.
Il che si traduce in costi di produzione.
Cosa non ti è chiaro del fatto che esistono diverse versioni delle GPU, da poche a molte unità, e dunque con dimensioni variabili?
Peccato che le discrete in idle consumano molto poco oramai.
Consumano enormemente di più rispetto a una GPU integrata.
Il mercato come dici tu non lo decide Intel, o hai già cambiato versione ?
Chi ha detto che lo decide Intel? Quotami, cortesemente.
Il mercato adesso si è spostato sul mobile e Intel è lì che deve buttarsi se vuole continuare a fatturare ed infatti è lì che si sta concentrando.
Intel ha venduto 44 milioni di tablet, che corrisponde a circa il 10% dei SoC/processori venduti: un'inezia rispetto a tutto il resto.

Intel sta cercando di entrare in questo mercato, ma senza ridurre le sue attenzioni verso i suoi mercati tradizionali.

Ma se hai informazioni diverse le puoi sempre riportare.
Questi iGPU e questi prodotti a basso consumo su desktop sono solo un banco di test per travasare poi il tutto sugli Atom e sui modelli M.
Questa è la prima volta che la sento. Fonte?
Ogni processore ha dei registri al suo interno e di questi fa parte "anche" la cache ( non solamente questa ).
OK, è chiaro che tu ne capisci di processori e architetture quanto io di bricolage, per cui si spiega il perché di certe tue affermazioni.

No, registri e cache sono due cose completamente diverse. Evita di parlare di cose di cui non hai benché minima conoscenza.
Quella non è evoluzione ma sono solo refresh.
Quindi secondo te aumentando il numero di unità cambia l'architettura ?
Quindi nelle VGA una 980 e una TitanX hanno architetture differenti ?
Altro esempio per cui vale quanto detto sopra. Non hai alcuna nozione del significato di "architettura", che non sai distinguere da quello di "micro-architettura" (che è quello di cui hai parlato finora, in realtà).

Nel primo caso parliamo (rozzamente, giusto per semplificare) di come sono fatte le istruzioni e i registri del processore. Nel secondo, invece, ci riferiamo a UNA PARTICOLARE implementazione di una determinata architettura.

Esempi pratici. Architettura = ARMv7 (a 32 bit). Micro-architetture (plurale, perché ce ne possono essere tante della precedente) Cortex-A8, Cortex-A9, ecc. NUOVA architettura = ARMv8 (a 64 bit).

Quindi in precedenza ho parlato correttamente di evoluzione, perché se aggiungi istruzioni a un'architettura, mantenendo il resto così com'è (o, al limite, con minime variazioni), NON ottiene una nuova architettura. E giusto per essere chiari: Skylake NON sarà una nuova architettura x86, ma una nuova micro-architettura.

Per cui, per le domande di cui sopra, vale un doppio no.
I 5€ erano già riferiti ad una condizione di full, in idle il divario è quasi inesistente, e le attività svolte su un desktop vede la maggior parte del tempo impiegato in idle mediamente.
Su questo ha già risposto emanuele, col quale sono in completo accordo, per cui non mi dilungo.
Il fatto che l'utenza non cambi dissipatore non vuol dire che quello stock di Intel faccia pena e che porti al trottling ! Ovviamente fornire un dissi stock buono aumenta i costi per Intel che quindi non si sogna di farlo.
Questo è un discorso completamente diverso rispetto a quello di prima. Perché l'hai cambiato?

Ribadisco: cambiare il dissipatore lo fa la nicchia della nicchia, non il 99,9% dei clienti Intel. Chiaro?
Cioè fammi capire !!!
Stai paragonando strumenti da migliaia di Watt ad un PC ? Roba da pazzi !
Sono su 2 piani distanti anni luce, con uno risparmi gli spiccioli, con l'altro i bigliettoni di filigrana.
Anche qui vale quanto detto sopra: perché cambi discorso? No, non c'è bisogno di paragonare nulla perché il PC, come già detto, E' un elettrodomestico, per cui il consumo è ugualmente importante.
Da quando il mercato e la concorrenza si basa sulla qualità del prodotto rivale.
Produrre una nuova architettura costa, perchè farlo quando si può tenere la vecchia collaudata che permette costi di sviluppo ridicoli e una resa sempre alta, perchè farlo quando AMD fa pena ?
Proporre una nuova architettura, per quanto detto sopra, costa di gran lunga di più che produrre una nuova micro-architettura. Infatti è quest'ultimo che si fa.

Precisato questo, la concorrenza di Intel non è rappresentata da AMD, ma da ARM.

Secondo, Intel va per la sua strada a prescindere dalla qualità dei prodotti di AMD.

Terzo, e non meno importante, se fosse come dici tu nemmeno avrebbe messo in cantiere Skylake, ma avrebbe continuato a riciclare la sua "vecchia e collaudata" famiglia di micro-architetture (con capostipite Nehalem).

Infine, noto che hai accuratamente evitato di mostrare in che modo si dovrebbero costruire micro-architetture con superprestazioni per far felici voi "veri intenditori". Visto che appartieni a questa categoria e saresti pure un guru, in teoria avrei dovuto aspettarmi almeno una bozza in cui illumini i comuni mortali sulle tecniche e metodologie da introdurre per far raddoppiare, a ogni step evolutivo (macché: rivoluzionario!), le prestazioni.

Ma il motivo per cui continua a mancare si è già palesato sopra: tu non hai la benché minima idea di come funzionino le cose di cui continui a riempirti la bocca. Non hai nemmeno le conoscenze di base, elementari.

Nella tua posizione dovresti seguire la regola d'oro: evitare di parlare di ciò di cui non si ha conoscenza.

PaulGuru
04-05-2015, 22:42
Non mi pare proprio che sia questa la tendenza. Tutt'altro.Cos'è un tentativo di negare la verità ?
I PC fra poco non saranno comperati più nemmeno negli uffici, pure da noi stan pian piano soppiantando i Dell Optiplex con i Latitude.
Eccole qui le esigenze di mercato, fresche fresche: http://www.businessmagazine.it/news/ancora-in-calo-il-mercato-tablet-per-il-primo-trimestre-dell-anno_57098.htmlEccole cosa ? Che è la prima notizia del genere che vedo, gli articoli sui cali dei PC va avanti da anni invece. Il mercato tablet ha già raggiunto la sua saturazione e se vengono rimpiazzati non lo fan di certo con un PC ma con uno smartphone o un ultrabook.
E non si tratta di un caso eccezionale, visto che il mercato dei tablet è in calo già da un pezzo. La bolla s'è sgonfiata.
I tablet forse, ma il mobile è formato da molti altri prodotti.
O per avere hardware più potente e/o maggior espandibilità e/o possibilità di upgrade, che coi tablet sono quasi del tutto escluse.Tutte cose che fan solo gli utenti di nicchia, l'utonto classico non è nemmeno capace di aprire lo sportello laterale.
E ancora peggio forse non sà nemmeno che esistono le schede di espansione nè tanto meno sà inserirne una.
Anzi non sà nemmeno usare un sistema operativo senza il tasto start, figurati su un lavoro fisico ......
Consumano enormemente di più rispetto a una GPU integrata.Una discreta attuale di fascia alta in idle consuma pochi Watt, una GTX 980 circa una decina di watt, cos'è adesso ci mettiamo a misurare i risparmi col gontagocce ?
Ti ricordo che stiamo continuando a parlare di desktop dove la macchina è perennemente collegata allo spinotto, tranquillo non si consuma la batteria.
Intel ha venduto 44 milioni di tablet, che corrisponde a circa il 10% dei SoC/processori venduti: un'inezia rispetto a tutto il resto.Appunto ha fallito
E dovrebbe rilanciarsi ...... di nuovo.
Intel sta cercando di entrare in questo mercato, ma senza ridurre le sue attenzioni verso i suoi mercati tradizionali.Eh sì, è per questo che siamo fermi sempre con lo stesso prodotto da anni vero ?
Ah già scusa, dimenticavo, le prestazioni non servono ...... è solo il principale vantaggio che ha il desktop su un mobile.
No, registri e cache sono due cose completamente diverse. Evita di parlare di cose di cui non hai benché minima conoscenza.DEFINIZIONE : Nell'architettura dei calcolatori un registro (o registro del processore) è una piccola parte di memoria utilizzata per velocizzare l'esecuzione dei programmi fornendo un accesso rapido ai valori usati più frequentemente .
Adesso guardati la definizione di cache .... :rolleyes:

E come disse Emilio Fede ......
http://i52.tinypic.com/347k2mw.jpg

Altro esempio per cui vale quanto detto sopra. Non hai alcuna nozione del significato di "architettura", che non sai distinguere da quello di "micro-architettura" (che è quello di cui hai parlato finora, in realtà).Cosa la cache non è un registro ?
Le discrete consumano un botto in idle ?
La micro-architettura NON è un banalissimo refresh ?
Scusi ingegnere !

http://stream1.gifsoup.com/view6/4178768/ma-mi-faccia-il-piacere-o.gif


Quindi in precedenza ho parlato correttamente di evoluzione, perché se aggiungi istruzioni a un'architettura, mantenendo il resto così com'è (o, al limite, con minime variazioni), NON ottiene una nuova architettura. E giusto per essere chiari: Skylake NON sarà una nuova architettura x86, ma una nuova micro-architettura.Ma che differenza vuoi che faccia ?
E' sempre la solita minestra riscaldata.
Ribadisco: cambiare il dissipatore lo fa la nicchia della nicchia, non il 99,9% dei clienti Intel. Chiaro?Certo che non lo fa, e i risultati si vedono.
Anche se a dire la verità il motivo principale è che nemmeno sanno farlo.
No, non c'è bisogno di paragonare nulla perché il PC, come già detto, E' un elettrodomestico per cui il consumo è ugualmente importante.Si certo tutti gli elettrodomestici sono uguale come no.
Fra uno che consuma 3000W e uno che ne fa 200 a stento tu ovviamente dedichi la stessa attenzione e priorità ad entrambi.
Smettere di arrampicarsi sugli specchi sarebbe meglio, sono discorsi che nemmeno un senza tetto farebbe.
:mc:
Proporre una nuova architettura, per quanto detto sopra, costa di gran lunga di più che produrre una nuova micro-architettura. Infatti è quest'ultimo che si fa.Mavà ?
Scoperto l'acqua calda.

La concorrenza di Intel è ARM ? Dimmi un prodotto ARM per desktop dai !
Si appunto la concorrenza sul mercato di punta ( il mobile ) è ARM, e guardacaso tutti sti aspetti che sta innovando sono proprio per travasarli sugli Atom.

in pratica il desktop è oramai solo un banco di collaudi per tecnologie destinate al mobile.
Secondo, Intel va per la sua strada a prescindere dalla qualità dei prodotti di AMD.Si certo e io sono Obama. :rolleyes:
Ma non diciamo fesserie, Intel e AMD sono rivali nel mercato, ed AMD è la concorrenza diretta di intel su desktop, ma cosa stai a dì ?
Terzo, e non meno importante, se fosse come dici tu nemmeno avrebbe messo in cantiere Skylake, ma avrebbe continuato a riciclare la sua "vecchia e collaudata" famiglia di micro-architetture (con capostipite Nehalem).Perchè Skylake è un altra architettura ?
E' solo l'ennesima rivisitazione con supporto alle DDR4.
Quanto sarà a pari clock ? +2-3% ? L'inutilità massima !

cdimauro
05-05-2015, 06:24
Cos'è un tentativo di negare la verità ?
Non ne ho bisogno.
I PC fra poco non saranno comperati più nemmeno negli uffici, pure da noi stan pian piano soppiantando i Dell Optiplex con i Latitude.
Quindi da quello che decidete di fare nel vostro ufficio si delinea l'andamento del mercato desktop. Interessante.
Eccole cosa ? Che è la prima notizia del genere che vedo, gli articoli sui cali dei PC va avanti da anni invece.
Ecco la seconda: http://www.businessmagazine.it/news/aumentano-le-vendite-di-beni-di-elettronica-pur-con-i-tablet-in-calo_56045.html

Il mercato tablet ha già raggiunto la sua saturazione e se vengono rimpiazzati non lo fan di certo con un PC ma con uno smartphone o un ultrabook.
Gli smartphone non sono assolutamente concorrenti dei PC, e non vedo come potrebbero esserlo. Sono i tablet ad aver eroso parte del mercato, ma sono in calo per l'appunto.

Quanto agli Ultrabook sono in crescita perché sono più utili dei tablet, per cui l'utenza li sta preferendo. Finché rimangono sugli Ultrabook, Intel vende le sue CPU, e non si tratta di certo di Atom o Core-M, visto che per lo più sono i3, i5, e perfino i7. Quindi va benissimo così.
I tablet forse, ma il mobile è formato da molti altri prodotti.
Elencali pure, e poi fammi vedere quali di questi sarebbero in grado di rimpiazzare un desktop o un notebook/Ultrabook.
Tutte cose che fan solo gli utenti di nicchia, l'utonto classico non è nemmeno capace di aprire lo sportello laterale.
E ancora peggio forse non sà nemmeno che esistono le schede di espansione nè tanto meno sà inserirne una.
Anzi non sà nemmeno usare un sistema operativo senza il tasto start, figurati su un lavoro fisico ......
Lo fanno fare ai centri di assistenza, quando "il computer non ce la fa più" con l'ultimo gioco.
Una discreta attuale di fascia alta in idle consuma pochi Watt, una GTX 980 circa una decina di watt, cos'è adesso ci mettiamo a misurare i risparmi col gontagocce ?
Dove l'hai letto che consuma 10W (valore comunque enorme rispetto a una GPU integrata)? Hai dei test in cui mostrano quanto consuma un PC in idle con e senza scheda?
Ti ricordo che stiamo continuando a parlare di desktop dove la macchina è perennemente collegata allo spinotto, tranquillo non si consuma la batteria.
Consuma corrente.
Appunto ha fallito
E dovrebbe rilanciarsi ...... di nuovo.
Considerato che l'obiettivo era di 40 milioni, direi che è il contrario di quello che hai detto.
Eh sì, è per questo che siamo fermi sempre con lo stesso prodotto da anni vero ?
Se compri una CPU e poi te la tieni per anni non è colpa di Intel, che ogni ne anno introduce una nuova.
Ah già scusa, dimenticavo, le prestazioni non servono ...... è solo il principale vantaggio che ha il desktop su un mobile.
Chi ha detto che le prestazioni non servono? Ma sarebbe interessante conosce in che modo dovrebbero aumentare a dismisura per soddisfare le esigenze dei "veri intenditori". Magari ce lo può dire il "guru" del forum, che ne dici?
DEFINIZIONE : Nell'architettura dei calcolatori un registro (o registro del processore) è una piccola parte di memoria utilizzata per velocizzare l'esecuzione dei programmi fornendo un accesso rapido ai valori usati più frequentemente .
Adesso guardati la definizione di cache .... :rolleyes:
Ecco qui la tua fonte:
http://it.wikipedia.org/wiki/Registro_(informatica)
http://it.wikipedia.org/wiki/Memoria_cache
Il problema è che ti sei fermato a leggere le prime righe, e ovviamente non hai capito la differenza fra le due cose che, ovviamente, sono diverse.
Se non c'arrivi (com'è probabile, visto che non hai idea di quello di cui parli), prova a leggere questo: http://en.wikipedia.org/wiki/Memory_hierarchy
Con disegnino annesso:
http://upload.wikimedia.org/wikipedia/commons/0/0c/ComputerMemoryHierarchy.svg
E come disse Emilio Fede ......
http://i52.tinypic.com/347k2mw.jpg
Tipico del troll che ha finito gli argomenti.
Cosa la cache non è un registro ?
Direi proprio di no, ma sei liberissimo di dimostrarmi il contrario.
Le discrete consumano un botto in idle ?
Direi di sì.
La micro-architettura NON è un banalissimo refresh ?
No, ma magari mi spieghi tu il significato di micro-architettura. Sì, la trovi anche nella tua fonte preferita.
Scusi ingegnere !

http://stream1.gifsoup.com/view6/4178768/ma-mi-faccia-il-piacere-o.gif
Idem come sopra, visto che sei incapace di argomentare.
Ma che differenza vuoi che faccia ?
E' sempre la solita minestra riscaldata.
Ecco qui la sintesi del PaulGuru-pensiero. D'altra parte se non hai la minima idea di quello di cui stiamo parlando, questo è il massimo "contributo" che puoi fornire alla discussione.

Cosa vuoi che siano gli ingegneri profumatamente pagati da Intel di fronte al genio (incompreso) del forum. Dovrebbero prendere lezioni da lui su come si fa una buona, nuova, performante "minestra"...
Certo che non lo fa, e i risultati si vedono.
Tipo... che... i loro PC... funzionano lo stesso?!?
Anche se a dire la verità il motivo principale è che nemmeno sanno farlo.
O perché non ne hanno alcun bisogno?
Si certo tutti gli elettrodomestici sono uguale come no.
Fra uno che consuma 3000W e uno che ne fa 200 a stento tu ovviamente dedichi la stessa attenzione e priorità ad entrambi.
Se guarda dal frigo alla lampadina da tavolo, non vedo perché si dovrebbe guardare anche al PC che... sta in mezzo.
Smettere di arrampicarsi sugli specchi sarebbe meglio, sono discorsi che nemmeno un senza tetto farebbe.
:mc:
E partono le solite offese dal figlio di Silvio (da sposare, ovviamente).

Ognuno col suo portafogli ci fa quello che ritiene più opportuno. Chiaro?
Mavà ?
Scoperto l'acqua calda.
Detto da te, che fino a ieri nemmeno sapevi la differenza fra architettura e micro-architettura, non so se ridere o piangere.
La concorrenza di Intel è ARM ? Dimmi un prodotto ARM per desktop dai !
Attualmente no, ma lo è nel mercato server e mobile. Non è escluso che possa approdare a quello desktop.

Intel non pensa soltanto all'oggi, ma anche al domani, con piani di lungo termine.
Si appunto la concorrenza sul mercato di punta ( il mobile ) è ARM, e guardacaso tutti sti aspetti che sta innovando sono proprio per travasarli sugli Atom.
Atom è un processore a parte, ben diverso da quelli desktop.

Inoltre la concorrenza non è soltanto mobile, come detto prima.
in pratica il desktop è oramai solo un banco di collaudi per tecnologie destinate al mobile.
Ma assolutamente no, visto che sono ben diversi.
Si certo e io sono Obama. :rolleyes:
Magari se ti abbronzi...
Ma non diciamo fesserie, Intel e AMD sono rivali nel mercato, ed AMD è la concorrenza diretta di intel su desktop, ma cosa stai a dì ?
Una cosa che ripeti anche tu da tempo. Se ti fai un ripassino sulle quote di mercato di entrambe forse ti torna qualcosa alla mente.
Perchè Skylake è un altra architettura ?
Eccolo qui di nuovo. Vabbé, non ti entra proprio in testa il concetto di micro-architettura...

NO, NON E' UN'ALTRA ARCHITETTURA. Definizione alla mano (sì, puoi prenderla anche da Wikipedia).
E' solo l'ennesima rivisitazione con supporto alle DDR4.
ROFL. Non dubito che questa sia la tua opinione, viste le tue "conoscenze" in materia...
Quanto sarà a pari clock ? +2-3% ? L'inutilità massima !
Qualche benchmark è stato pubblicato.

Comunque Patterson & co. aspettano impazientemente di leggere la prossima pietra: "Computer architectures according to me: how to double performance every year - by PaulGuru".

Non farci aspettare troppo, che anche i miei colleghi pendono dalle tue labbra per realizzare i processori processori. Stiamo già cambiando pure le roadmap apposta per te... :asd:

P.S. Non ho tempo di rileggere.

PaulGuru
05-05-2015, 08:09
Ecco la seconda: http://www.businessmagazine.it/news/aumentano-le-vendite-di-beni-di-elettronica-pur-con-i-tablet-in-calo_56045.htmlLa seconda appunto, vai a cercarti da quando va avanti il calo dei PC.
Anche se non ho ben capito se hai o meno compreso che i Tablet sono solo una singola tipologia di prodotti mobile.


Gli smartphone non sono assolutamente concorrenti dei PC, e non vedo come potrebbero esserlo. Sono i tablet ad aver eroso parte del mercato, ma sono in calo per l'appunto.Ma che dici ?
Buona parte dell'utente soppianta il desktop semplicemente perchè non ne ha bisogno.
Per navigare su internet, inviare mail, interagire nei social o vedere video youtube non serve di certo il PC.

Quanto agli Ultrabook sono in crescita perché sono più utili dei tablet, per cui l'utenza li sta preferendo. Finché rimangono sugli Ultrabook, Intel vende le sue CPU, e non si tratta di certo di Atom o Core-M, visto che per lo più sono i3, i5, e perfino i7. Quindi va benissimo così.

Elencali pure, e poi fammi vedere quali di questi sarebbero in grado di rimpiazzare un desktop o un notebook/Ultrabook.Rimpiazzare il desktop ?
Quì si sta parlando di gente che NON ha bisogno del desktop :rolleyes:


Lo fanno fare ai centri di assistenza, quando "il computer non ce la fa più" con l'ultimo gioco.Ma se giocano con le console !

Dove l'hai letto che consuma 10W (valore comunque enorme rispetto a una GPU integrata)? Hai dei test in cui mostrano quanto consuma un PC in idle con e senza scheda?Certo, li vuoi vedere ?
http://www.tomshw.it/articoli/geforce-gtx-980-e-geforce-gtx-970-prestazioni-delle-top-di-gamma-nvidia-61033-p16
E puoi addirittura trovare conferma su Guru3D.
Cos'è rimasto stupito ? :rolleyes:


Chi ha detto che le prestazioni non servono? Ma sarebbe interessante conosce in che modo dovrebbero aumentare a dismisura per soddisfare le esigenze dei "veri intenditori". Magari ce lo può dire il "guru" del forum, che ne dici?Non sono pagato a tal fine.
Io sono un utente, forse non ti sei accorto.
Non sono io che devo dire ad Intel come fare, sono problemi loro.
E soprattutto non sono tenuto a comprendere nessuna difficoltà da parte di nessuno ( qualunque siano le motivazioni dietro questo andazzo a me non frega nulla, nemmeno se venisse fuori che Intel finanziasse la guerra contro l'ISIS ..... ).

Ecco qui la tua fonte:
http://it.wikipedia.org/wiki/Registro_(informatica)
http://it.wikipedia.org/wiki/Memoria_cache
Il problema è che ti sei fermato a leggere le prime righe, e ovviamente non hai capito la differenza fra le due cose che, ovviamente, sono diverse.No il problema è che ti stai arrampicando sugli specchi.
:mc:

No, ma magari mi spieghi tu il significato di micro-architettura. Sì, la trovi anche nella tua fonte preferita.La definizione la sò già e continuo a non capire perchè continui a riproporla.
Cercasi per l'appunto nuove architetture, non refresh della stessa.
Se sono questi i progressi vuol dire che è alla frutta.


Tipo... che... i loro PC... funzionano lo stesso?!?Ma tu credi che io non abbia mai avuto un PC per caso ?
Sai quanti utenti si lamentano del trottling delle CPU ?
Sai quanti ne trovi che han aperto il pannello laterale in estate ?
Sai quanti ne trovi che si lamentano del rumore ?
Te hai mai avuto un dissipatore stock da IB in poi ?

Se guarda dal frigo alla lampadina da tavolo, non vedo perché si dovrebbe guardare anche al PC che... sta in mezzo.Guardare sei libero di farlo ma di certo con ben diversa priorità.
Inutile che cerchi l'assolutismo nel discorso per coprire l'ennesima arrampicata attorno a qualcosa di infimo.
:mc:


E partono le solite offese dal figlio di Silvio (da sposare, ovviamente).
Ognuno col suo portafogli ci fa quello che ritiene più opportuno. Chiaro?Se non arrivi a fine mese che devi conteggiare i centesimi a fine anno dovuti al PC allora è meglio che non lo compri proprio e li spendi per altro.

Intel non pensa soltanto all'oggi, ma anche al domani, con piani di lungo termine.RETTIFICATO :
Intel si adagia sugli allori sfruttando l'incapacità di AMD per portare solo affinamenti alla solita architettura riducendo al minimo le spese di investimento e utilizzare quel poco come investimento direzionato al mobile.
Fregandosene bellamente degli utenti desktop.
Esigenze di mercato ? Amen, nessuno sta criticando da questo punto di vista.
Atom è un processore a parte, ben diverso da quelli desktop.Appunto concorrenza su ARM, oramai è quasi praticamente il prodotto di punta, dove infatti ci sono salti prestazionali marcati molto più frequenti che su qualunque altra serie.

NO, NON E' UN'ALTRA ARCHITETTURA. Definizione alla mano (sì, puoi prenderla anche da Wikipedia).Ma chi accidenti lo ha mai detto che Skylake era un altra architettura ???
LO SAPPIAMO TUTTI CHE E' SEMPRE LA STESSA SOLFA solamente condita con DDR4.
Ero io che lo facevo notare a te che parlavi di Skylake come un evoluzione quando in realtà non lo è !

Certo che non è una nuova architettura, è proprio questo il punto !
Sostanzialmente è l'ennesimo stesso prodotto del 2009 ...... di nuovo.

AlexSwitch
05-05-2015, 08:13
Comunque Patterson & co. aspettano impazientemente di leggere la prossima pietra: "Computer architectures according to me: how to double performance every year - by PaulGuru".

Non farci aspettare troppo, che anche i miei colleghi pendono dalle tue labbra per realizzare i processori processori. Stiamo già cambiando pure le roadmap apposta per te... :asd:

P.S. Non ho tempo di rileggere.

NOVANTASEI MINUTI DI APPLAUSI!!! :D :D :D

Fuori dal, in questo caso, sacrosanto sarcasmo penso proprio che il " Guru " dovrebbe informarsi meglio sui rudimenti di come funziona una Cpu e/o computer!!
Come dovrebbe darsi una bella infarinata su che cosa si compete, da circa 10 anni a questa parte, per le nuove architetture di CPU!!

PaulGuru
05-05-2015, 08:22
Vai continua a calcolare il risparmio energetico in ordine monetario. un miliardo di dollari in cina non è lo stesso negli stati uniti. Ti rendi conto che trasportare energia da un posto ad un altro implica dei consumi? ti rendi conto che 5 euro l'anno equivangono a miliardi di KWh all'anno risparmiati che si traducono in tonnellate di CO2 non riversate in atmosfera?
.
In Cina l'elettricità costerà anche meno se permetti e quindi rispetto agli USA a parità di consumo spenderanno ( e quindi risparmieranno ) molto meno.

si traducono in tonnellate di CO2 non riversate in atmosfera?E questo ad Intel cosa frega ?
Ma soprattutto a me utente cosa frega ?
Sembri uno di quegli ambientalisti estremi.

Come se i problemi principali fossero i processori ...... mai stato in Thailandia, Vietnam e Filippine ?
Facci un giretto va ( fuori dai villaggi turistici ), che c'è così tanto smog nell'aria che se vai in giro in moto sembri uscito da una miniera !

L'inquinamento di cui parli tu fa ridere in confronto, ultimissimo nell'elenco delle priorità.
Come inquinamento siamo anche ovviamente al di sotto dei combustibili fossili ( auto e fabbriche ).


A intel ottesega dell'ambiente ma quando hai una server farm che deve consumare meno allora a intel interessa fare consumare meno i suoi precessori a parità di prestazioni. Ma poi li hai visti i dissipatori intel come sono cambiati da architettura a 65nm ad una a 22? sono la metà con prestazioni migliori e consumo minore.Peccato che server la situazione è ben diversa da quella desktop e no, non cercano affatto il minore consumo assoluto ma il fattore prestazioni / Watt.

Una scheda video in idle non fa nulla di nulla, la GPU integrata a parità di prestazioni È sempre più efficiente di una discreta dove devi alimentare memorie, sezioni di alimentazione e tranceiver su linee di trasmissione ad alta velocità a distanza maggiore.Peccato che la GPU integrata non è MAI a pari prestazioni di una discreta seria.
E sentiamo di quanti W stiamo parlando per alimentare dei chip RAM e un circuito di trasmissione ( implementabile per altro attraverso una piattina ) ?

Vai vvai continua a confrontare PP con CPU e CPU+ GPU non aparità di prestazioni. A parità di prestazioni una nuova generazione consuma meno della precedente. A parità di consumi invece un PP più avanzato da più prestazioni ergo SE la tua GPU integrata non riesce a riprodurre un x265 a causa delle poche prestazioni a parità di potenza DEVI usare una scheda discreta (esempio) e il tuo algoritmo di ottimizzazione che si occupad i decidere quando usare una GPU integrata o discreta per riprodurre un X265 non lo potrai applicare (è un esempio)
Infatti non frega proprio a nessuno di applicare questo algoritmo.
Su server i prodotti si evolvono di più, aumentano i cores e frequenza a parità di consumo, su desktop invece non aumenta quasi nulla, si abbassa solo il consumo e castrano l'overclock ( quindi manco se uno volesse intervenire più direttamente ) con la pasta del capitano sotto l'HSI.

L'Ottimizzazione dipende sempre dal processo di produzione a parità di potenza dissipata una nuova architettura ha più prestazioni di calcolo disponibili dando maggiore spazio ad ottiizzazioni.Cambio il modo di sfruttare la cosa. E' quì che sta il punto del discorso.
O tieni fissi i consumi e aumenti le prestazioni o fai il contrario ( quello che fa intel su desktop ).

GTKM
05-05-2015, 16:50
La
seconda appunto, vai a cercarti da quando va avanti il calo dei PC.
Anche se non ho ben capito se hai o meno compreso che i Tablet sono solo
una singola tipologia di prodotti mobile.


Ma che dici ?
Buona parte dell'utente soppianta il desktop semplicemente perchè non ne
ha bisogno.
Per navigare su internet, inviare mail, interagire nei social o vedere
video youtube non serve di certo il PC.

Quanto agli Ultrabook sono in crescita perché sono più utili dei tablet,
per cui l'utenza li sta preferendo. Finché rimangono sugli Ultrabook,
Intel vende le sue CPU, e non si tratta di certo di Atom o Core-M, visto
che per lo più sono i3, i5, e perfino i7. Quindi va benissimo così.

Rimpiazzare il desktop ?
Quì si sta parlando di gente che NON ha bisogno del desktop :rolleyes:


Ma se giocano con le console !

Quindi Intel fa benissimo a investire nel mobile, risparmiando sul desktop, giusto?

Non sono pagato a tal fine.
Io sono un utente, forse non ti sei accorto.
Non sono io che devo dire ad Intel come fare, sono problemi loro.
E soprattutto non sono tenuto a comprendere nessuna difficoltà da parte
di nessuno ( qualunque siano le motivazioni dietro questo andazzo a me
non frega nulla, nemmeno se venisse fuori che Intel finanziasse la
guerra contro l'ISIS ..... ).

Insomma, scrivi per passare il tempo, ma non hai la più pallida idea di come funzioni il mondo reale. Capito.


La definizione la sò già e continuo a non capire perchè continui a
riproporla.
Cercasi per l'appunto nuove architetture, non refresh della stessa.
Se sono questi i progressi vuol dire che è alla frutta.

No, vuol dire che queste architetture sono sufficienti a soddisfare le richieste di un mercato morente (come, in pratica, lo hai definito tu all'inizio).

Ma tu credi che io non abbia mai avuto un PC per caso ?
Sai quanti utenti si lamentano del trottling delle CPU ?
Sai quanti ne trovi che han aperto il pannello laterale in estate ?
Sai quanti ne trovi che si lamentano del rumore ?
Te hai mai avuto un dissipatore stock da IB in poi ?

Quattro gatti, più o meno.


Guardare sei libero di farlo ma di certo con ben diversa priorità.
Inutile che cerchi l'assolutismo nel discorso per coprire l'ennesima
arrampicata attorno a qualcosa di infimo.
:mc:

Non c'entra niente. Se uno ha un occhio sempre puntato sul risparmio energetico (che incide anche sul fattore emissioni di CO2, come ti è stato fatto notare), lo tiene in considerazione anche in ambito PC.


Se non arrivi a fine mese che devi conteggiare i centesimi a fine anno
dovuti al PC allora è meglio che non lo compri proprio e li spendi per
altro.

Non vedo perché, quando basta avere chip che non consumino quanto un forno industriale. Soprattutto considerando che l'utenza comune non sa che farsene di chip da supercomputer.

RETTIFICATO :
Intel si adagia sugli allori sfruttando l'incapacità di AMD per portare
solo affinamenti alla solita architettura riducendo al minimo le spese
di investimento e utilizzare quel poco come investimento direzionato al
mobile.
Fregandosene bellamente degli utenti desktop.
Esigenze di mercato ? Amen, nessuno sta criticando da questo punto di
vista.

Al mercato va bene così. Sono curioso di capire cosa diavolo faccia tu col PC per farti andare stretta una CPU top di gamma di Intel.


Appunto concorrenza su ARM, oramai è quasi praticamente il prodotto di
punta, dove infatti ci sono salti prestazionali marcati molto più
frequenti che su qualunque altra serie.

Più che altro, stanno correndo perché son partiti in ritardo. E i salti prestazionali ci sono quando i margini di miglioramento lo permettono. D'altronde, va da sé che poi le CPU devono continuare a far entrare soldi, mica Intel può rimetterci per soddisfare 10 "puristi".

cdimauro
05-05-2015, 18:35
La seconda appunto, vai a cercarti da quando va avanti il calo dei PC.
Il peggio è passato, fortunatamente. Comunque è per questo che lavorando anche su altri mercati.
Anche se non ho ben capito se hai o meno compreso che i Tablet sono solo una singola tipologia di prodotti mobile.
Problema tuo se non lo capisci: il mio precedente commento è chiarissimo.
Ma che dici ?
Buona parte dell'utente soppianta il desktop semplicemente perchè non ne ha bisogno.
Per navigare su internet, inviare mail, interagire nei social o vedere video youtube non serve di certo il PC.
Se fosse buona parte il mercato dei PC sarebbe letteralmente crollato. Evidentemente c'è chi vede i limiti dei tablet e preferisce altro: desktop, notebook, ultrabook, 2-in-1.
Rimpiazzare il desktop ?
Quì si sta parlando di gente che NON ha bisogno del desktop :rolleyes:
Si parlava delle "esigenze di mercato". Vedi commento #108 e il tuo precedente a cui avevo risposto.
Ma se giocano con le console !
In quale universo parallelo vivi:

http://www.gamemag.it/news/il-mercato-del-pc-gaming-varra-35-miliardi-di-dollari-entro-il-2018_56296.html

"Dal grafico in questa pagina potete comunque verificare come, da dati Oga, il mercato PC sia costantemente in vantaggio rispetto a quello console per i prossimi anni in termini di unità vendute."

?

Soprattutto:

"Questi consumatori guidano la spesa non solo nel software, ma anche relativamente all'hardware PC, acquistando costose configurazioni per giocare, vedere e registrare il gameplay"

e riguardo i numeri:

"Ora registriamo un potenziale di 86 milioni di giocatori PC fuori dall'Asia"

soltanto fuori dall'Asia. Considerato i circa 400 milioni di pezzi venduti da Intel in un anno, quasi un quarto dei suoi clienti più affezionati è costituito da giocatori. Sì, quelli che "ma se giocano con le console!"...

Hai ancora altre balle da riportare? E pensare che ti spacci come giocatore professionista, dunque qualcosa di questo mercato dovresti conoscerla.
Certo, li vuoi vedere ?

E puoi addirittura trovare conferma su Guru3D.
Cos'è rimasto stupito ? :rolleyes:
Il risultato è ottimo, ma si tratta di UNA sola scheda che finora offre consumi così ridotti in idle.

Consumi che, in ogni caso, sono astronomici rispetto a quelli della GPU integrata.
Non sono pagato a tal fine.
Io sono un utente, forse non ti sei accorto.
Non sono io che devo dire ad Intel come fare, sono problemi loro.
E soprattutto non sono tenuto a comprendere nessuna difficoltà da parte di nessuno ( qualunque siano le motivazioni dietro questo andazzo a me non frega nulla, nemmeno se venisse fuori che Intel finanziasse la guerra contro l'ISIS ..... ).
Questo ormai era più che evidente. In pratica vorresti la patente di sparare balle spaziali su argomenti di cui per tua stessa ammissione non hai la benché minima cognizione, senza essere crocifisso. La patente del cazzaro, insomma.

Non c'è alcun problema: te la puoi tenere, ma il problema è che non c'è nessun campo del tuo profilo del forum in cui quest'informazione possa apparire a bella vista, per far sapere agli altri il tuo speciale status (e dunque per evitare che ti si prenda sul serio). Non so, lo potresti mettere in firma? "official cazzaro award". Te ne puoi anche vantare: magari fa curriculum. :asd:
No il problema è che ti stai arrampicando sugli specchi.
:mc:
Solo perché lo dici tu? L'architettura degli elaboratori secondo PaulGuru. :asd:

Dimostralo pure. Comincia con lo spiegare per quale motivo su Wikipedia ci sarebbero due voci separate se registri e cache sarebbero la stessa cosa...
La definizione la sò già e continuo a non capire perchè continui a riproporla.
Perché subito dopo hai continuato a confonderti. D'altra parte se non conosci l'argomento è facile che ti capiti.
Cercasi per l'appunto nuove architetture, non refresh della stessa.
Cercasi Susan disperatamente... Guarda che non stiamo parlando di un film dove puoi inventarti quello che vuoi.

Suggerimenti per la nuova architettura? Con un minimo di fondamento scientifico ovviamente: le bufale non sono contemplate (tranne per la pizza, dove sono caldamente consigliate).
Se sono questi i progressi vuol dire che è alla frutta.
Allora tieniti il tuo PC, no? Confinati in un eremo e continua a contemplare lo stato dell'arte che hai fra le mani.

Nel frattempo centinaia di milioni di persone si godranno i miglioramenti introdotti ogni anno.
Ma tu credi che io non abbia mai avuto un PC per caso ?
Sai quanti utenti si lamentano del trottling delle CPU ?
Sai quanti ne trovi che han aperto il pannello laterale in estate ?
Sai quanti ne trovi che si lamentano del rumore ?
Mosche bianche.
Te hai mai avuto un dissipatore stock da IB in poi ?
Da quando le CPU vengono vendute con un dissipatore, ho sempre mantenuto quello stock. E... non sono il solo, sai? Io faccio parte della legge dei grandi numeri.
Guardare sei libero di farlo ma di certo con ben diversa priorità.
Grazie per la libertà che mi concedi: ne farò tesoro, maestro (oops: guru!). Accenderò una bacchetta d'incenso per contemplare la tua sommità (a forza di spararle si accumulano, e si crea automaticamente un mausoleo contemplativo per i devoti).
Inutile che cerchi l'assolutismo nel discorso per coprire l'ennesima arrampicata attorno a qualcosa di infimo.
:mc:
Tradotto per i comuni mortali? Sai, abbiamo i nostri limiti nella comprensione del tuo divin pensiero.

Dove sarebbe l'assolutismo, visto che sto parlando da un pezzo con un rappresentate dello spreco incarnato? E cosa sarebbe questo "qualcosa" di "infimo"?
Se non arrivi a fine mese che devi conteggiare i centesimi a fine anno dovuti al PC allora è meglio che non lo compri proprio e li spendi per altro.
E qui dopo le architetture dei calcolatori dimostri di piegare agevolmente anche la logica, con non-sequitur da manuale. Potresti cortesemente riportare da dove avresti tirato fuori le premesse del tuo costrutto "logico"?
RETTIFICATO :
Intel si adagia sugli allori sfruttando l'incapacità di AMD per portare solo affinamenti alla solita architettura riducendo al minimo le spese di investimento e utilizzare quel poco come investimento direzionato al mobile.
Fregandosene bellamente degli utenti desktop.
Con questo abbiamo pure capito che salti a pié pari le notizie con la presentazione dei bilanci trimestrali di Intel, dove vengono riportate dettagliatamente anche le voci degli investimenti in R&D per ogni specifico comparto. Eh, sì, le divisioni sono separate: non sono ammucchiate in un grande calderone, come vorresti farle passare. Ognuna risponde delle investimenti, spese, e ricavi (o perdite, come la sola divisione mobile).

Dunque: ma che stai dire? (cit.)
Esigenze di mercato ? Amen, nessuno sta criticando da questo punto di vista.
ROFL. Ma se non fai che lamentarti che Intel avrebbe abbandonato il settore desktop in favore del mobile. :rofl:
Appunto concorrenza su ARM, oramai è quasi praticamente il prodotto di punta, dove infatti ci sono salti prestazionali marcati molto più frequenti che su qualunque altra serie.
Perché ARM partiva in ritardo su questo fronte, come Intel su quello dei consumi.

Adesso sono messe bene entrambe e dunque non si assisterà a salti marcati, ma saranno contenuti.
Ma chi accidenti lo ha mai detto che Skylake era un altra architettura ???
LO SAPPIAMO TUTTI CHE E' SEMPRE LA STESSA SOLFA solamente condita con DDR4.
Ero io che lo facevo notare a te che parlavi di Skylake come un evoluzione quando in realtà non lo è !
Magari tutti i refresh fossero come questo: http://en.wikipedia.org/wiki/Skylake_(microarchitecture)#Architecture

Ma ha parlato PaulGuru, per cui dobbiamo farcene una ragione: Skylake è la solita solfa. :asd:
Certo che non è una nuova architettura, è proprio questo il punto !
Sostanzialmente è l'ennesimo stesso prodotto del 2009 ...... di nuovo.
Se c'è una cosa che hanno strombazzato i media da tempo è proprio la presentazione di una nuova micro-architettura con Skylake: http://wccftech.com/intel-preparing-dirsuptive-skylake-microarchitecture-morphcore/

Il significato di "disruptive" te lo cerchi da solo, però.
NOVANTASEI MINUTI DI APPLAUSI!!! :D :D :D

Fuori dal, in questo caso, sacrosanto sarcasmo penso proprio che il " Guru " dovrebbe informarsi meglio sui rudimenti di come funziona una Cpu e/o computer!!
Come dovrebbe darsi una bella infarinata su che cosa si compete, da circa 10 anni a questa parte, per le nuove architetture di CPU!!
Danke! :)

@GTKM: concordo.

davo30
05-05-2015, 18:57
Sinceramente mi fanno decisamente ridere questi discorsi sul "risparmio energetico" come obiettivo di vita nella costruzione di un DESKTOP, dove l'impatto è praticamente nullo o di poco conto. Non che sia sbagliato, ma non puo essere l'obiettivo primario. Penso che sia una delle markettate lava-cervello peggiori che abbiamo subito negli ultimi anni
Stiamo vivendo due situazioni al contrario. Si ricerca l'efficenza energetica a discapito delle prestazioni su sistemi desktop, e non su smartphone e tablet, dove avviene proprio il contrario (CPU 8 core su smartphone, mi viene da ridere :muro: )
Io lavoro nel campo del riscaldamento civile centralizzato, vorrei entrare nelle centrali termiche di molti di quelli che si lavano la bocca col "risparmio energetico" delle cpu, per vedere quali "caldaie a lingotti d'oro" hanno ancora.

cdimauro
05-05-2015, 19:57
Sinceramente mi fanno decisamente ridere questi discorsi sul "risparmio energetico" come obiettivo di vita nella costruzione di un DESKTOP, dove l'impatto è praticamente nullo o di poco conto. Non che sia sbagliato, ma non puo essere l'obiettivo primario. Penso che sia una delle markettate lava-cervello peggiori che abbiamo subito negli ultimi anni
Il consumo c'è a prescindere che un sistema sia collegato o meno alla batteria. L'impatto di cui parli è molto importante per un sistema mobile per ovvie ragioni, ma questo NON implica che debba essere trascurato nei desktop.

In ambo i casi l'energia viene consumata e ha un costo, non soltanto economico, ma anche in termini di inquinamento, come già chiaramente spiegato da emanuele.
Stiamo vivendo due situazioni al contrario. Si ricerca l'efficenza energetica a discapito delle prestazioni su sistemi desktop,
Non mi pare che le prestazioni siano compromesse.

Quanto all'efficienza energetica, è un beneficio che deriva dalla ricerca operata in ambito server, HPC, e anche mobile. Perché non dovrebbero beneficiarne anche i prodotti destinati al mercato desktop?
e non su smartphone e tablet, dove avviene proprio il contrario (CPU 8 core su smartphone, mi viene da ridere :muro: )
C'è poco da ridere: l'esigenza dell'utenza è cambiata enormemente dopo l'introduzione di smartphone e tablet, per cui la richiesta di prestazioni è stata direttamente conseguenza di tutto ciò, e come tale è stata soddisfatta, man mano, da SoC sempre più potenti.
Io lavoro nel campo del riscaldamento civile centralizzato, vorrei entrare nelle centrali termiche di molti di quelli che si lavano la bocca col "risparmio energetico" delle cpu, per vedere quali "caldaie a lingotti d'oro" hanno ancora.
Non mi pare che le due cose siano mutuamente esclusive. Cambiare caldaia, poi, non è semplice o fattibile. Gli investimenti possono tranquillamente non essere alla portata dell'utenza.