View Full Version : Intel Skylake: Core i7-6700K e Core i5-6600K in prova
Redazione di Hardware Upg
05-08-2015, 14:10
Link all'Articolo: http://www.hwupgrade.it/articoli/cpu/4428/intel-skylake-core-i7-6700k-e-core-i5-6600k-in-prova_index.html
Al debutto le prime due CPU Intel della famiglia Skylake, nome che identifica la nuova architettura basata su tecnologia produttiva a 14 nanometri. Core i7-6700K e Core i5-6600K si posizionano nel segmento enthusiast delle CPU desktop, andando a prendere il posto dei modelli Devil's Canyon nel cuore degli utenti più appassionati
Click sul link per visualizzare l'articolo.
Più leggo di sto 6700k, e più mi viene voglia di prendere il 5820k.
Peccato non ci sia quest'ultimo nel confronto, imho è li che ci si scontra...
marchigiano
05-08-2015, 14:26
Più leggo di sto 6700k, e più mi viene voglia di prendere il 5820k.
a me invece ha fatto l'effetto contrario: se prima potevo avere una mezza voglia di passare a 2011, skylake me l'ha tolta :D la maggior parte del tempo posso stare senza vga discreta o mettere una cpu iris così per provare... prestazioni single core inarrivabili, multi se la gioca con gli esacore intel più economici...
Direi piuttosto deludente per essere una nuova architettura.
I guadagni in termini di prestazioni sono veramente ma veramente risicati..
Anche dal punto di vista dei consumi non ci sono vantaggi.
Calcolando il calo di prezzo che ci sarà la vecchia guardia resta un best buy.
Nota a margine:
peccato (come sempre) per la GPU integrata che non serve a niente in modelli di fascia alta come questi.
NESSUNO prenderà mai una simile CPU senza affiancarci una scheda discreta come si deve..
a me invece ha fatto l'effetto contrario: se prima potevo avere una mezza voglia di passare a 2011, skylake me l'ha tolta :D la maggior parte del tempo posso stare senza vga discreta o mettere una cpu iris così per provare... prestazioni single core inarrivabili, multi se la gioca con gli esacore intel più economici...
E.. e come fai? mica puoi fare switch a caldo.
O usi una o usi l'altra.
E anche sfruttando quella integrata la discreta resta senmpre accesa consumando corrente, quindi tantovale usare la discreta e ciao
Completamente d'accordo per la GPU integrata, inutile sulle versioni K.
Rispetto alla piattaforma X99:
le schede madri Z170 saranno vicine ai 200 euro, a ridosso delle equivalenti X99
Le DDR4 sono le stesse,
La CPU starà intorno ai 350 euro, a 400 euro c'è il 5820k, che ha 6 core/12 thread e una qualità costruttiva completamente differente. E sale a 4.0 ghz senza batter ciglio..
Scheda grafica discreta serve subito con chipset X99, ma ha senso prendere un 6700k e andare zoppi con la integrata?
Insomma per 100 euro si passa alla piattaforma superiore....
Unico pro di questo Z170 è che le schede madri mi sembrano più "fresche", ovvero molte montano 2 slot m.2, usb 3.1... sebbene ormai sia il festival del tamarro....
Insomma per 100 euro si passa alla piattaforma superiore....
Unico pro di questo Z170 è che le schede madri mi sembrano più "fresche", ovvero molte montano 2 slot m.2, usb 3.1... sebbene ormai sia il festival del tamarro....
Si ok.
però sono tutti corollari.. la cpu in sè onestamente non mi invoglia a mettere cento euro sul tavolo.
elgabro.
05-08-2015, 14:40
il 6700k è una ciofeca, tanto vale prendersi il 4790K
Addirittura i consumi sono aumentati a scapito di un leggerissimo aumento delle prestazioni
Tutta colpa della assenza della concorrenza se intel po' permettersi di fare queste porcate.
CrapaDiLegno
05-08-2015, 14:42
Oh AMD, pensaci tu qui a dare un giro di vite a questi, altrimenti tra 10 anni avremo processori che vanno il 20% più di questi e costeranno il doppio.
Prezzi sempre in leggero aumento ad ogni uscita, prestazioni solo in lievissimo aumento (e questa volta pure i consumi in idle in aumento... 'sti 14nm sono così messi male?).
Va bene che bisogna vendere sempre qualcosa di nuovo, ma sinceramente, c'era bisogno di una architettura nuova per avere degli incrementi così risicati?
Mah, proprio vero che con la concorrenza che c'è Intel può fare quello che vuole.
Aspettiamo fiduciosi Zen. E speriamo che sia davvero buono, così vediamo se è vero che Intel in questi anni si è impegnata a fondo come alcuni sostengono oppure ci ha presi per i fondelli e la roba buona la sta tenendo nel cassetto.
Completamente d'accordo per la GPU integrata, inutile sulle versioni K.
Rispetto alla piattaforma X99:
le schede madri Z170 saranno vicine ai 200 euro, a ridosso delle equivalenti X99
Le DDR4 sono le stesse,
La CPU starà intorno ai 350 euro, a 400 euro c'è il 5820k, che ha 6 core/12 thread e una qualità costruttiva completamente differente. E sale a 4.0 ghz senza batter ciglio..
Scheda grafica discreta serve subito con chipset X99, ma ha senso prendere un 6700k e andare zoppi con la integrata?
Insomma per 100 euro si passa alla piattaforma superiore....
Unico pro di questo Z170 è che le schede madri mi sembrano più "fresche", ovvero molte montano 2 slot m.2, usb 3.1... sebbene ormai sia il festival del tamarro....
esiste una "revision" dei modelli x99 di un pò tutti i brand che montano slot M2 e usb 3.1
sinceramente mi sembra la prima recensione che bene o male in ambito gaming risolleva un pò queste cpu, dalle altre che ho visto velocemente fino ad ora sembrano addirittura peggio delle precedenti...sempre più convinto di aver aspettato fino ad ora per niente (quando mi aspettavo un salto un pò più consistente del solito) di questo passo tra poche settimane rifaccio tutto e passo a X99+5820k anche se 100€ approssimativi in più ci vogliono sicuri, ne varrebbe la pena per una piattaforma che deve durare almeno quanto l'attuale (6 anni) senza rimpianti
A questo punto per essere tranchant:
O uno si prende uno skylake "non k", e un chipset più economico come H170, e ha senso dato che la piattaforma X99 è più costosa, oppure si fa il salto e si passa al chipset X99.
Li in mezzo (6700k + Z170 + DDR4) il risparmio rispetto alla fascia enthusiast X99 + 5820k è talmente risicato che non ha senso.
Tutto assolutamente e rigorosamente IMHO.
EDIT: il prezzo del 5820k sta volando ben oltre i 400 euro.... guarda un pò...
marchigiano
05-08-2015, 14:47
E.. e come fai? mica puoi fare switch a caldo.
O usi una o usi l'altra.
la stacco fisicamente, tanto non è che sto sempre a giocare anzi...
le schede madri Z170 saranno vicine ai 200 euro, a ridosso delle equivalenti X99
no ci sono buone anche a 80-100 sul socket mainstream
La CPU starà intorno ai 350 euro, a 400 euro c'è il 5820k, che ha 6 core/12 thread e una qualità costruttiva completamente differente. E sale a 4.0 ghz senza batter ciglio..
è ovviamente migliore, ma tanto per dire non puoi fare lo sli 16+16 linee perchè ne ha solo 28... a 4ghz ci arriva ma il 6700 ci parte, poi bisogna vedere se c'è la pasta se si scoperchia ecc ecc le solite cavolate che fa intel sulla linea mainstream :rolleyes:
Scheda grafica discreta serve subito con chipset X99, ma ha senso prendere un 6700k e andare zoppi con la integrata?
dipende che ci devi fare ovviamente, il 6700 lo metterei in un case piccolo da salotto, un 2011 non ce la fai o comunque diventa brutto e ingombrante. inoltre più avanti è previsto pure lo skylake con gt4e con 72eu e 128mb di l4
Paolo Corsini
05-08-2015, 14:47
il 6700k è una ciofeca, tanto vale prendersi il 4790K
Addirittura i consumi sono aumentati a scapito di un leggerissimo aumento delle prestazioni
Tutta colpa della assenza della concorrenza se intel po' permettersi di fare queste porcate.
Come indicato chiaramente nel commento alla pagina sui consumi, sono le rilevazioni dell'intero sistema. Oltre alla CPU quindi ci sono anche memoria e soprattutto scheda madre a incidere.
Detto questo, se Intel dichiara un TDP di 91 Watt per queste versioni un motivo ci sarà, non trovi?
MiKeLezZ
05-08-2015, 14:50
Prestazioni pressoché simili alla generazione precedente.
Inutilità totale del processore nei giochi (a meno di confrontare un 2 core contro un 4 core, dove questi ultimi nei giochi più recenti sono finalmente utilizzati).
Inutilità del passaggio a DDR4, che comunque costringe al cambio di scheda madre (quindi si sale sul vagone del "betatesting" e si spende un pacco perché è la novità).
Insomma si guardino i prezzi e si decide, un bel 4690 (magari in declinazione "S") con DDR3L vi durerà comunque un 6 anni e non fornirà nulla di meno (purtroppo i Broadwell non si possono considerare perché Intel ha deciso di ucciderli sia per il server e il desktop, con prezzi folli).
Pensavo a qualcosa in linea con il solito andazzo, cioè un po' di prestazioni in più e un po' di consumi in meno.
Invece i consumi in meno hanno saltato, strano.I consumi in meno non ci sono perché stiamo confrontando mele con pere: 3,5GHz contro 4GHz, e al superamento dei 3GHz è risaputo l'aumento di consumi sia esponenziale (tant'è, se ci fai caso, tutte le CPU sono ferme a circa 2,5/3GHz da anni e anziché aumentarne il base clock han deciso di inserire il "Turbo Boost").
Come sprecare del buon silicio :(
:muro:
Vabbè, ormai il grosso degli investimenti li hanno dirottati nei coreM e negli atom per tablet e smartphone, mentre le prestazioni sono aumentate solo in ambito server. E il desktop è rimasto in mezzo a reggere il moccolo :(
leddlazarus
05-08-2015, 14:56
Come sprecare del buon silicio :(
:muro:
mahh essendo a 14nm forse se ne risparmia
Giorgio G
05-08-2015, 14:59
Avevo da poco comprato un 4790k e pensavo di aver sbagliato con l'imminente uscita di skylake..... mi è andata bene, e ho persino risparmiato i soldini.
no ci sono buone anche a 80-100 sul socket mainstream
è ovviamente migliore, ma tanto per dire non puoi fare lo sli 16+16 linee perchè ne ha solo 28... a 4ghz ci arriva ma il 6700 ci parte, poi bisogna vedere se c'è la pasta se si scoperchia ecc ecc le solite cavolate che fa intel sulla linea mainstream :rolleyes:
dipende che ci devi fare ovviamente, il 6700 lo metterei in un case piccolo da salotto, un 2011 non ce la fai o comunque diventa brutto e ingombrante. inoltre più avanti è previsto pure lo skylake con gt4e con 72eu e 128mb di l4
80 euro per una Z170 uscita oggi la vedo molto molto dura. Su amazzone.com ci sono le prime MSI a 200 dollari..forse tra un pò con chipset H170, ma addio overclock, e allora...
Confermo che c'è la pasta del capitano, almeno così pare dalle prime info.
Se arriverà lo skylake con gt4e, farà la fine di Broadwell, dato che costerà 600 euro!
Boh, ho aspettato anche io questo skylake per cambiare PC, ma mi sembra un esercizio di stile di Intel. Almeno in ambito desktop....
CrapaDiLegno
05-08-2015, 15:01
Detto questo, se Intel dichiara un TDP di 91 Watt per queste versioni un motivo ci sarà, non trovi?
Certo, che consumano più della generazione passata :D
fraussantin
05-08-2015, 15:02
premettendo che i il vero salto di prestzioni lo avremo col 6900k e il 7900k che usciranno con molta calma e pazienza visto che amd non mette furia a nessuno , direy che per adesso sono inutili .
ma soprattutto inutili sono i test che si fanno qui su HWU...
MA COME SI FA A TESTARE UN PROCESSORE CON DEI GIOCHETTI CHE SFRUTTANO MOLTO LA VGA?
cacchio , ma watchdogs , e gta 5 non ve li siete comprati?
marchigiano
05-08-2015, 15:13
80 euro per una Z170 uscita oggi la vedo molto molto dura. Su amazzone.com ci sono le prime MSI a 200 dollari..forse tra un pò con chipset H170, ma addio overclock, e allora...
OGGI ovviamente è folle comprare, bisogna aspettare 1-2 mesi, come sempre usciranno mobo serie Z sui 80-100€ buonine per un OC non estremo e pure i prezzi delle cpu si abbasseranno di un pochino. inoltre usciranno i file inf per il chipset che ottimizzeranno ulteriormente prestazioni e consumi, ho visto dei confronti con win10 e rispetto a 8.1 va molto meglio, figuriamoci quando sarà tutto ottimizzato :eek:
Confermo che c'è la pasta del capitano, almeno così pare dalle prime info.
ma porc... :muro: almeno si scoperchiasse bene e facessero dei kit da applicare il dissi direttamente sul die...
Se arriverà lo skylake con gt4e, farà la fine di Broadwell, dato che costerà 600 euro!
ma broadwell costa 360 circa dai :D e il i5 con pari gpu costa molto meno diventa un bel gingillino gaming...
sarà 1 anno che aspetto 1 o 2 mesi.. porc...:muro:
Sono talmente deluso e inca@@ che quasi quasi adesso esco e compro AMD... :D
Prestazioni leggermente superiori, consumi leggermente superiori, prezzi leggermente superiori, serviva una nuova architettura per ottenere questo?
Per la felicità di chi ha sempre osteggiato AMD, questo è un assaggio dei nuovi standard di progresso tecnologico che ci riserverà il futuro.
Paolo Corsini
05-08-2015, 15:20
premettendo che i il vero salto di prestzioni lo avremo col 6900k e il 7900k che usciranno con molta calma e pazienza visto che amd non mette furia a nessuno , direy che per adesso sono inutili .
ma soprattutto inutili sono i test che si fanno qui su HWU...
MA COME SI FA A TESTARE UN PROCESSORE CON DEI GIOCHETTI CHE SFRUTTANO MOLTO LA VGA?
cacchio , ma watchdogs , e gta 5 non ve li siete comprati?
Se utilizzo risoluzioni basse e impostazioni qualitative non elevate i frames con CPU potenti schizzano verso l'alto, soprattutto se uso una GPU potente. Ma che senso ha analizzare questo scenario quando nessuno lo usa? Spendi 700€ per una scheda video per usarla a 1680 con impostazioni qualitative medium?
Le CPU potenti per il gaming servono, ma l'incidenza è molto ridotta nel momento in cui si hanno delle caratteristiche tecniche base comuni (leggi: core efficienti come lo sono quelli Intel e un numero adeguato di core fisici, che possiamo far coincidere con quello di 4). Detto questo, un paio di verifiche con Watchdogs e GTA5 cerco di farle non appena trovo un po' di tempo
@Paolo Corsini c'è un piccolo errorino nella pagina delle configurazioni:
Memoria scheda madre socket LGA 2011: 2x8Gbytes DDR3-1600 (9-9-9-24)
Memoria scheda madre socket LGA 2011 v3: 4x4Gbytes DDR4-2133 (15-15-15-35)
Memoria scheda madre socket 1150 LGA: 2x8Gbytes DDR3-1600 (9-9-9-24)
Memoria scheda madre socket 1150 LGA: 2x8Gbytes DDR4-2133 (15-15-15-35)
è da correggere con 1151. ;)
comunque:
- clock più basso con consumi un pò superiori
- prestazioni praticamente uguali (un 5% non lo prendo nemmeno in considerazione e comunque potrebbero influire anche le DDR4 rispetto alle DDR3 del 4790K)
a mio avviso è un pò una delusione... dovessi prendere pc nuovo ora mi girerebbero le @@ perchè mi sembra una mezza presa per i fondelli... i 14nm possono dare ben più di questo ma il rilascio con il contagocce è oramai prassi.
macellatore
05-08-2015, 15:25
Hanno concentrato i miglioramenti per fare fuori AMD sul mercato console.
Hanno potenziato l'APU di parecchio, e ora stanno avanti
(senza scomodare le IRIS).
marchigiano
05-08-2015, 15:26
sarà 1 anno che aspetto 1 o 2 mesi.. porc...:muro:
Sono talmente deluso e inca@@ che quasi quasi adesso esco e compro AMD... :D
se ti serve la piattaforma 2011 prendila tranquillamente, di sicuro non è mai stata così conveniente come adesso
CrapaDiLegno
05-08-2015, 15:28
MA COME SI FA A TESTARE UN PROCESSORE CON DEI GIOCHETTI CHE SFRUTTANO MOLTO LA VGA?
Magari perché lo scopo non è fare mille milioni di frames inutili al secondo ma è mostrare che impatto ha la CPU in un sistema di gioco normalmente carrozzato come lo si trova nelle case di tutti i giocatori.
E' più che evidente che molti di voi non hanno le capacità per comprendere un benchmark quando questo non è volto a mostrare la barretta più lunga sempre e comunque.
marchigiano
05-08-2015, 15:31
Per la felicità di chi ha sempre osteggiato AMD, questo è un assaggio dei nuovi standard di progresso tecnologico che ci riserverà il futuro.
a quindi amd smetterebbe di fare cpu schifose se la gente smettesse di osteggiarla? :D
Le CPU potenti per il gaming servono, ma l'incidenza è molto ridotta nel momento in cui si hanno delle caratteristiche tecniche base comuni (leggi: core efficienti come lo sono quelli Intel e un numero adeguato di core fisici, che possiamo far coincidere con quello di 4)
capisco che non è facile ma non si potrebbe fare un test di gaming online? per vedere quanto la comunicazione con il server del gioco incide sulla cpu?
CrapaDiLegno
05-08-2015, 15:33
Prestazioni leggermente superiori, consumi leggermente superiori, prezzi leggermente superiori, serviva una nuova architettura per ottenere questo?
Per la felicità di chi ha sempre osteggiato AMD, questo è un assaggio dei nuovi standard di progresso tecnologico che ci riserverà il futuro.
In verità è da Sandy Bridge che le cose vanno avanti più o meno così... nessuno osteggia AMD, ma è evidente che è inutile stare a incensare un'azienda che non è stata in grado di fare nulla per evitare proprio la situazione in cui ci troviamo.
Bisognava prenderla a calci in :cul0: prima. Magari oggi Zen sarebbe già pronto.
E chi come me ha preso nel 2011 gli i5 2xxx continua a viaggiare alla grande :D soprattutto chi ha preso i k
Speriamo in amd che quel triciclo di 8350 non si può più vedere (8c amd < 4c intel :( )
macellatore
05-08-2015, 15:35
Non mi pare proprio, le integrate degli A10 vanno comunque più di queste, di poco ma sono comunque meglio.
http://www.tomshardware.com/reviews/skylake-intel-core-i7-6700k-core-i5-6600k,4252-9.html
Sono processori disegnati per prendersi il mercato CONSOLE.
marchigiano
05-08-2015, 15:49
Sono l'evoluzione di devil's canyon e basta, qualcosina in più, un miglioramento qua e la... mica cambia dal giorno alla notte.
http://media.bestofmicro.com/5/R/516015/original/adobecc-illustrator.png
AceGranger
05-08-2015, 15:50
http://www.tomshardware.com/reviews/skylake-intel-core-i7-6700k-core-i5-6600k,4252-9.html
Sono processori disegnati per prendersi il mercato CONSOLE.
:mbe: ma se queste CPU costano come una console intera.
marchigiano
05-08-2015, 15:51
http://www.tomshardware.com/reviews/skylake-intel-core-i7-6700k-core-i5-6600k,4252-9.html
Sono processori disegnati per prendersi il mercato CONSOLE.
in effetti fa un po impressione vedere come 24eu senza l4 in alcuni casi vanno solo poco meno di 48eu con l4 :eek: già mi immagino che mostro sarà la versione da 72eu con l4 :sofico:
macellatore
05-08-2015, 15:55
:mbe: ma se queste CPU costano come una console intera.
Mica ci sono solo 6700K e 6600K.
Arriveranno altre CPU, alcune integreranno la 530 e costeranno meno.
Hanno chiaramente puntato sull'APU a questo giro.
Parlare di drivers e di DX12 sarebbe fin troppo facile e non lo faccio.
In verità è da Sandy Bridge che le cose vanno avanti più o meno così... nessuno osteggia AMD, ma è evidente che è inutile stare a incensare un'azienda che non è stata in grado di fare nulla per evitare proprio la situazione in cui ci troviamo.
Bisognava prenderla a calci in :cul0: prima. Magari oggi Zen sarebbe già pronto.
Quoto. Nessuno osteggia AMD, solo gli stupidi lo farebbero. Penso che sul forum un buon 80% degli utenti non aspettano altro che una risposta decente da parte di AMD per poter passare alla concorrenza o quantomeno avere un po di concorrenza reale.
Da Sandy ogni nuova linea Intel ha un aumento ridicolo, AMD non ha approfittato UNA VOLTA di questa lentezza. Eppure stiamo parlando di 3/4 anni, non 6 mesi....
Intel ora gli sta dando involontariamente l'ennesima occasione per ritornare in pista, son curiso di vedere come se la bruciano anche stavolta
Paolo Corsini
05-08-2015, 15:58
http://www.tomshardware.com/reviews/skylake-intel-core-i7-6700k-core-i5-6600k,4252-9.html
Sono processori disegnati per prendersi il mercato CONSOLE.
Anche ipotizzando che tu abbia ragione (e, tanto per essere chiari, IMHO non hai ragione), la cosa ha poco senso per una serie di banalissime considerazioni. La prima: il mercato delle console è estremamente statico, in quanto fissato il design di una generazione questa non viene toccata per svariati anni. Di conseguenza non c'è nessuna architettura attualmente in produzione che anche remotamente possa essere implementata in future generazioni di console.
Seconda considerazione: siamo così sicuri che vi sarà una prossima generazione di console da salotto, alla xBox e Playstation, così come le abbiamo conosciute sino ad oggi?
Paolo Corsini
05-08-2015, 15:58
@Phopho: grazie della segnalazione, corretto il refuso
capisco che non è facile ma non si potrebbe fare un test di gaming online? per vedere quanto la comunicazione con il server del gioco incide sulla cpu?
A sensazione direi che
1) l'incidenza della CPU è poca e
2) la qualità della connessione utilizzata è quella che influenza per la maggiore la qualità del gameplay
Come test comparativo avrebbe quindi molto poco senso. IMHO
a quindi amd smetterebbe di fare cpu schifose se la gente smettesse di osteggiarla? :D
Non l'ho detto ;)
Mi riferivo agli atteggiamenti "ostili" verso un marchio, la cui sopravvivenza è invece essenziale per la concorrenza e di conseguenza per un reale progresso tecnologico. Chi auspicava la disfatta di AMD è accontentato, ma questi sono i risvolti.
Per contro non ho idea di quanto possa aver influito il "fanboysmo", ma sicuramente, anche quando competitiva dal punto di vista prestazionale e/o da quello del rapporto prezzo/prestazioni, AMD ha sempre raccolto meno di quanto meritasse.
fraussantin
05-08-2015, 16:02
Magari perché lo scopo non è fare mille milioni di frames inutili al secondo ma è mostrare che impatto ha la CPU in un sistema di gioco normalmente carrozzato come lo si trova nelle case di tutti i giocatori.
E' più che evidente che molti di voi non hanno le capacità per comprendere un benchmark quando questo non è volto a mostrare la barretta più lunga sempre e comunque.
Si ma uno che è interessato a cabiare processore per gioco , quando cerca la tabella giocho vuol vedere che differenza prestazionale c'ë in un gioco che lo sfrutta a pieno.
O cmq il piu possibile. Imho .poi ovviamente si intuiscw anche da li che cambia poco o niente.
Se utilizzo risoluzioni basse e impostazioni qualitative non elevate i frames con CPU potenti schizzano verso l'alto, soprattutto se uso una GPU potente. Ma che senso ha analizzare questo scenario quando nessuno lo usa? Spendi 700€ per una scheda video per usarla a 1680 con impostazioni qualitative medium?
Le CPU potenti per il gaming servono, ma l'incidenza è molto ridotta nel momento in cui si hanno delle caratteristiche tecniche base comuni (leggi: core efficienti come lo sono quelli Intel e un numero adeguato di core fisici, che possiamo far coincidere con quello di 4). Detto questo, un paio di verifiche con Watchdogs e GTA5 cerco di farle non appena trovo un po' di tempo
No calma non mi rifwrivo alla vga usata , ma al fatto che su un videogioco in cui gia il processore meno potente in test lo elabora al meglio , gli altri avranno meno scarto rispetto ad uno in cui il processore base è messo in difficoltà.
Stop. Niente piu niente meno .
Non l'ho detto ;)
Mi riferivo agli atteggiamenti "ostili" verso un marchio, la cui sopravvivenza è invece essenziale per la concorrenza e di conseguenza per un reale progresso tecnologico. Chi auspicava la disfatta di AMD è accontentato, ma questi sono i risvolti.
Per contro non ho idea di quanto possa aver influito il "fanboysmo", ma sicuramente, anche quando competitiva dal punto di vista prestazionale e/o da quello del rapporto prezzo/prestazioni, AMD ha sempre raccolto meno di quanto meritasse.
I risvolti sono stati causati da AMD stessa che in 4 anni non ha piu sfornato UNA cpu decente. Vai tranquillo che se avesse cpu competitive ci troveremmo in un'altra situazione. Certo che se continua a vendere cpu del 2012 non puo sperare di andare lontano..... :muro:
I risvolti sono stati causati da AMD stessa che in 4 anni non ha piu sfornato UNA cpu decente. Vai tranquillo che se avesse cpu competitive ci troveremmo in un'altra situazione. Certo che se continua a vendere cpu del 2012 non puo sperare di andare lontano..... :muro:
Forse non ti sei accorto che mi riferivo ad un periodo un po' più distante che gli ultimi 4 anni, cioè quando AMD era competitiva sotto il profilo del rapporto prezzo/prestazioni, o quando addirittura le CPU AMD erano superiori in tutto alla controparte Intel. Sicuramente in quel periodo AMD ha raccolto molto meno in rapporto a quanto offerto.
Situazione simile avviene nel campo VGA, ma non soffermarti solo agli ultimi due/tre anni.
E chi come me ha preso nel 2011 gli i5 2xxx continua a viaggiare alla grande :D soprattutto chi ha preso i k
Speriamo in amd che quel triciclo di 8350 non si può più vedere (8c amd < 4c intel :( )
e infatti 2600K sotto il cofano e l'anno prossimo un po' di OC per stare sereno e beato almeno un altro anno pieno. :D :D :D
fraussantin
05-08-2015, 16:20
Seconda considerazione: siamo così sicuri che vi sarà una prossima generazione di console da salotto, alla xBox e Playstation, così come le abbiamo conosciute sino ad oggi?
Questa è una bella domanda , e ho il timore che qualcosa del genere potrebbe accadere . Però per adesso ci sono troppi clienti che non hanno una connessione adeguata.
CrapaDiLegno
05-08-2015, 16:26
Si ma uno che è interessato a cabiare processore per gioco , quando cerca la tabella giocho vuol vedere che differenza prestazionale c'ë in un gioco che lo sfrutta a pieno.
O cmq il piu possibile. Imho .poi ovviamente si intuiscw anche da li che cambia poco o niente.
Cosa vuol dire "lo sfrutta appieno"? Nessuno gioca a 1024x768 solo per vedere il numero dei frame schizzare alle stelle.
Un giocatore gioca almeno a 1600x900 o anche in FullHD. A queste risoluzioni e con le impostazioni grafiche che tiene la VGA bisogna fare i test.
Se io ho una postazione da gioco con i7 Sandy Bridge, una 280X (o una 970) e uno schermo fullHD, voglio sapere quali miglioramenti ottengo cambiano la CPU. Che poi la nuova CPU mi permetta di fare 300 frame invece che 200 a 1024x768 con dettagli al minimo, non mi serve a nulla.
Situazione simile avviene nel campo VGA, ma non soffermarti solo agli ultimi due/tre anni.
La situazione nel campo VGA è la stessa di quella nel mercato CPU. E qui non c'è la scusa del PP arretrato rispetto alla concorrenza.
AMD ha una architettura che è indietro rispetto alla concorrenza. Le serve più silicio e corrente per ottenere le stesse prestazioni. Che vuol dire meno margine di guadagno oltre che prodotti di qualità inferiore per via dei consumi davvero maggiori (vedesi 970 vs 290X). E il trend di mercato che la vede perdere quote significative ogni trimestre è testimone della cosa. Il che si riflette sulle sua capacità di investimenti futuri.
Anche qui, come lo fu al lancio del Phenom, o peggio, di Bulldozer, è inutile far finta che i problemi non ci siano e difenderla a spada tratta: ah, ma le prestazioni ci sono, e prezzi sono inferiori.
I conti e i numeri parlano chiaro: i prodotti sono di qualità inferiore e i margini per garantire la sopravvivenza non ci sono. Deve darsi una mossa anche in quel campo. E subito. E deve investire nel mercato pro, dove i margini sono altri, non solo quello consumer. Altrimenti ci troveremo nella stessa situazione delle CPU in un lasso di tempo molto inferiore a quello che Intel ha impiegato a fare un tale gap.
Se non ha nulla di decente in cantiere la vedo dura già dalla prossima generazione di GPU...
macellatore
05-08-2015, 16:33
Che noia AMD, fortunatamente sarà presto acquistata da Microsoft o Samsung... serve concorrenza VERA.
I processori di oggi segnano un giorno DRAMMATICO:
AMD è stata superata anche nell'unica tecnologia buona che le era rimasta: la grafica integrata.
Peccato che non hanno fatto test in game con la serie 2011 - 2011v3 ..
La 6700k non è male, ma le aspettative erano maggiori.. leggendo in giro scalda meno (pasta del capitano 3.0?) e si overclocca abbastanza (non arriva a 5Ghz come annunciato.. ma và!?!), peccato che le linee pci-e sono sempre solo 16 (non dovevano essere 20??) e che a parte i miglioramenti è la solita cpu quad+ht. Il prezzo su store italiano (eprezzo) è di 399 euro(???) e le mobo sui 150-250 euro.. per quel prezzo mi prendo un i7-5820k (dopo la prime review del 6700k, l'I7-5820k è andato esaurito su amazon e il prezzo è salito di 20-30€ :sbonk: ) + msi x99 sli plus (220€ ed è una scheda completa).
Diciamo che queste anteprime stanno demotivando le eventuali scimmie..il mio 3930k sotto liquido durerà ancora qualche altro anno.. tanto AMD (purtroppo) dorme e Intel gongola!
mirkonorroz
05-08-2015, 16:45
Non ho capito una cosa nel bench di winrar:
cosa ha di speciale il 5775C rispetto al 6700K per averlo superato?
Vediamo lo street price di skylake e mobo... 400 euro per un 6700k è da scaffale assoluto.
Vediamo anche le versioni lisce "non k" cosa costeranno. Se è come per il 4690/4790 che tra K e non K ci passano 10 euro, è la solita presa per il C___
fraussantin
05-08-2015, 16:53
Non ho capito una cosa nel bench di winrar:
cosa ha di speciale il 5775C rispetto al 6700K per averlo superato?
Ipotesi : potrebbe essere che ancora non sfruttino bene la nuova architettura?
Vediamo lo street price di skylake e mobo... 400 euro per un 6700k è da scaffale assoluto.
Vediamo anche le versioni lisce "non k" cosa costeranno. Se è come per il 4690/4790 che tra K e non K ci passano 10 euro, è la solita presa per il C___
Poi ci sono le ddr4... Insomma alla fine ho fatto bene a prendermi la old gen e non aspettare..
Sto articolo lo trovo un po' "magro"
Per chi volesse saperne di più c'è quello "esagerato" http://www.anandtech.com/show/9483/intel-skylake-review-6700k-6600k-ddr4-ddr3-ipc-6th-generation :D
Dai su, queste CPU sono state pensate per il mercato mobile. Per il mercato desktop, stagnante e oggettivamente consolidato, han preso un pò di silicio che avanzava, aggiunto un numerino al socket, e poi vai con le nuove schede madri, largo alla tamarraggine: LED, luci, pannelli... e via, che i nerd si scatenino..
Potevano vendere un adattatore per la cpu da 22nm a 14 nm, avrebbero fatto prima... (scherzo ovviamente)..
AceGranger
05-08-2015, 16:58
A parte il costo.
Il mercato console è chiuso per almeno altri 3-4 anni e chissà che cpu/apu ci saranno per allora.
Dire che queste sono pensate per il mercato console mi fa rotolare dal ridere. :rotfl:
si ma al dilà del mercato chiuso, le CPU delle console si basano sul core AMD Jaguar che è il corrispettivo del core Atom, quindi con le CPU Core siamo ben lontani dalla fascia di prezzo in cui rientrano le CPU per console, anche andando a prendere la piu scacciona di tutte.
quando arriveranno le console nel 2020 o quando sara, molto probabilmente utilizzeranno ancora CPU della fascia di Atom/Jaguar, perche seno dovrebbero venderle a 1000 euro.
macellatore
05-08-2015, 17:05
Quando vi sarete risvegliati, vi renderete conto che
*** DA OGGI ***
AMD non dispone più di alcuna tecnologia di prima classe.
La grafica integrata era l'ultima cosa che le restava.
Se domani si dimette qualcuno in AMD,
non ditemi che e' una coincidenza :cool:
mirkonorroz
05-08-2015, 17:08
Ipotesi : potrebbe essere che ancora non sfruttino bene la nuova architettura?
Puo' darsi, ma allora non sfruttava nemmeno la "vecchia"? (4790k)
Non sono andato a rivedermi i vecchi bench.
Forse non ti sei accorto che mi riferivo ad un periodo un po' più distante che gli ultimi 4 anni, cioè quando AMD era competitiva sotto il profilo del rapporto prezzo/prestazioni, o quando addirittura le CPU AMD erano superiori in tutto alla controparte Intel. Sicuramente in quel periodo AMD ha raccolto molto meno in rapporto a quanto offerto.
Situazione simile avviene nel campo VGA, ma non soffermarti solo agli ultimi due/tre anni.
Ancora? Sono fatti di 10 anni fa e riguardano gli athlon 64. Intel ha pagato 1 miliardo e passa nel 2009.
Ma dal 2006 ad oggi AMD è stata capace di fare concorrenza? No. Continua imperterrita a fornirsi da una fonderia di incapaci. Ha sfornato l'architettura BD fallimentare, mica l'ha costretta intel a farla. Ha tagliato gli FX (colpa di GF), ma le APU Carrizo desktop? Rilasciare una serie di REBRAND dopo 10 mesi di monopolio assoluto lasciato a Nvidia, l'ha costretta Intel?
macellatore
05-08-2015, 17:11
Ma il mercato console resta comunque fuori dal discorso.
La grafica integrata finirà dove ti pare,
se non ti piacciono le console finirà dove meglio credi.
Il problema è che *** DA OGGI ***
AMD è stata superata anche lì.
E' un fatto nuovo, e di importanza EPOCALE.
fraussantin
05-08-2015, 17:14
Curiosità: viato come intel si è accanita sulla grafica integrata , ma in quale scenario è necessaria?
macellatore
05-08-2015, 17:16
Curiosità: viato come intel si è accanita sulla grafica integrata , ma in quale scenario è necessaria?
In effetti si può parlare anche di Tablet.
Chiaramente ci vorranno versioni piu' ridotte di questi chip.
CrapaDiLegno
05-08-2015, 17:21
Curiosità: viato come intel si è accanita sulla grafica integrata , ma in quale scenario è necessaria?
Nello stesso che AMD ci ha fatto credere servisse fino a ieri... cioè nessuno :D
Ahhahah... no scherzavo, in verità la grafica integrata è utile sugli HTPC, sui portatili scrausi e su tutte le soluzioni all-in-one.
Su desktop davvero non ho idea a che cosa possa servire una GPU più capace di mostrare lo schermo di Windows... uno spreco di silicio.
Seconda considerazione: siamo così sicuri che vi sarà una prossima generazione di console da salotto, alla xBox e Playstation, così come le abbiamo conosciute sino ad oggi?
Probabilmente no.. ma diciamolo con cautela perchè parliamo di una evoluzione che è legata a doppio filo non più solo con la sony o ms di turno.. ma anche dal livello di connettività disponibile nelle case.
Una scommessa sin troppo grossa.
Per me c'è spazio comunque per un'altra generazione di console "vecchia maniera" o al massimo "ibride".
Soprattutto adesso che hanno trovato la strada giusta per spendere poco: usare APU già sul mercato senza spendere miliardi per crearsi un chip da zero.
macellatore
05-08-2015, 17:23
Nello stesso che AMD ci ha fatto credere servisse fino a ieri... cioè nessuno :D
Ahhahah... no scherzavo
Beh, era largamente prevedibile che, una volta stesa AMD anche sotto questo punto di vista, qualcuno avrebbe detto che la grafica integrata non serve a nulla :cool:
Ancora? Sono fatti di 10 anni fa e riguardano gli athlon 64. Intel ha pagato 1 miliardo e passa nel 2009.Ma fare un minimo sforzo per capire il senso di quanto gli altri scrivono, no eh? Ma chi se ne frega del miliardo pagato? Io sto dicendo, per la terza volta, che quando AMD era competitiva, vendeva meno di quanto meritasse, punto e basta.
La situazione nel campo VGA è la stessa di quella nel mercato CPU. E qui non c'è la scusa del PP arretrato rispetto alla concorrenza.
Anche a te devo ricordare che non stavo facendo una disamina tecnica dell'attuale situazione, mi riferivo a quanto avvenuto nel passato quando, anche in campo VGA AMD aveva i prodotti migliori (vedi HD5870 vs Fermi), ma anche quando offriva i prodotti dal miglior rapporto prezzo prestazioni (non che adesso vada male) e vendeva comunque nettamente meno.
Ripeto, parlo di fette di mercato, di dati di vendita, relativamente a quanto offerto.
Piedone1113
05-08-2015, 17:39
Beh, era largamente prevedibile che, una volta stesa AMD anche sotto questo punto di vista, qualcuno avrebbe detto che la grafica integrata non serve a nulla :cool:
Non è affatto inutile, inutile è su queste cpu.
Ma come prevedibile in molti invece di essere delusi del costo sono delusi di AMD che con Apu che costano 3 volte meno hanno le stesse prestazioni grafiche (raddoppiando le prestazioni in cf comunque restando sotto come prezzo).
Cosa c'è di nuovo sotto il sole?
Nulla tranne che il prezzo.
Piedone1113
05-08-2015, 17:42
Ma fare un minimo sforzo per capire il senso di quanto gli altri scrivono, no eh? Ma chi se ne frega del miliardo pagato? Io sto dicendo, per la terza volta, che quando AMD era competitiva, vendeva meno di quanto meritasse, punto e basta.
Anche a te devo ricordare che non stavo facendo una disamina tecnica dell'attuale situazione, mi riferivo a quanto avvenuto nel passato quando, anche in campo VGA AMD aveva i prodotti migliori (vedi HD5870 vs Fermi), ma anche quando offriva i prodotti dal miglior rapporto prezzo prestazioni (non che adesso vada male) e vendeva comunque nettamente meno.
Ripeto, parlo di fette di mercato, di dati di vendita, relativamente a quanto offerto.
Non offenderti, ma parli ad un muro:
la maggiorparte di chi vuole AMD al top lo fa solo per pagare meno i prodotti Intel o Nvidia a prescindere dalle prestazioni pure o dal rapporto costo/prestazioni.
fraussantin
05-08-2015, 17:50
Non offenderti, ma parli ad un muro:
la maggiorparte di chi vuole AMD al top lo fa solo per pagare meno i prodotti Intel o Nvidia a prescindere dalle prestazioni pure o dal rapporto costo/prestazioni.
In molti casi si tratta di fanboy. Almeno nel mondo del gaming
Poi è vero cje se pigli una vga di fascia medio bassa o un processore scacio scaio risparmi anche .
Perche in gaming un i5 da 150 euro con una mobo da 80 si comportano meglio di qualunque amd.
MiKeLezZ
05-08-2015, 17:50
Curiosità: viato come intel si è accanita sulla grafica integrata , ma in quale scenario è necessaria?Ma che domanda è????!!!
Intel vuole buttare fuori dai portatili e dai desktop di fascia media i chip discreti di AMD e NVIDIA così da prendere totalmente il controllo (CPU, CHIPSET, CONNESSIONI WIRED e WIRELESS e ora VGA).
Il fatto che la stessa ci sia anche sulle CPU di fascia alta è solo un plus... di certo non si mettono a nerfare i chip perché altrimenti la gente non capisce che ci stia a fare un modulo di VGA integrata così potente... oppure a riprogettare un nuovo chip con una tonnellata di L4 in sostituzione della VGA (visti i 4 gatti che gli comprano i top gamma).
Inoltre ciò gli da la scusa di alzare i prezzi all'inverosimile (480 euro per una CPU???!! voi state male... una volta il top costava massimo 200 euro).
fraussantin
05-08-2015, 17:51
Ma che domanda è????!!!
Intel vuole buttare fuori dai portatili e dai desktop di fascia media i chip discreti di AMD e NVIDIA così da prendere totalmente il controllo (CPU, CHIPSET, CONNESSIONI WIRED e WIRELESS e ora VGA).
Il fatto che la stessa ci sia anche sulle CPU di fascia alta è solo un plus... di certo non si mettono a nerfare i chip perché altrimenti la gente non capisce che ci stia a fare un modulo di VGA integrata così potente... oppure a riprogettare un nuovo chip con una tonnellata di L4 in sostituzione della VGA (visti i 4 gatti che gli comprano i top gamma).
Fermi tutto , sui portatili e sui tablet ha senso , ma questi sono processori per fissi se toglievano la vga e 50 euro da listino non facevano un favore a tutti?
MiKeLezZ
05-08-2015, 17:57
Fermi tutto , sui portatili e sui tablet ha senso , ma questi sono processori per fissi se toglievano la vga e 50 euro da listino non facevano un favore a tutti?Lo facevano a te, non certo a loro.
Per loro sono 50 euro in più di puro guadagno visto che tanto la circuiteria è già pronta.
Un po' come quando ora vai a comprare l'utilitaria per la mamma e te le vendono solo con LCD da 7", navigatore, lettore MP3, bluetooth e fanfara varia... non era meglio il millino di sconto e pagarla 8000 invece di 9000?
Ma tanto a loro non costa nulla visto che è la stessa roba che usano sui modelli di fascia alta (costo in produzione 50 euri) e preferiscono che il millino in più lo dai te a loro, per cose di cui non hai strettamente bisogno.
macellatore
05-08-2015, 17:59
Fermi tutto , sui portatili e sui tablet ha senso , ma questi sono processori per fissi se toglievano la vga e 50 euro da listino non facevano un favore a tutti?
Beh, lascio agli utenti AMD spiegarmi l'utilità di una grafica integrata in CPU desktop (per me nulla).
Il punto fondamentale è la data di oggi, ossia quella che devi segnare sul calendario come "AMD legnata sulla grafica integrata".
Poi arriveranno I5, I3, roba piu' piccola etc...,
e INTEL prenderà il controllo di tablet e tutto,
ma il sorpasso è avvenuto OGGI.
MiKeLezZ
05-08-2015, 18:04
Non ho capito una cosa nel bench di winrar:
cosa ha di speciale il 5775C rispetto al 6700K per averlo superato?Il 5775C ha una bomba nucleare dentro al die: 128MB di L4 utilizzabili tanto dalla GPU quanto dalla CPU
In ogni caso il benchmark di WinRAR è ridicolo, assolutamente irreale, fornisce valori solo teorici (per il test di compressione molto meglio 7-zip, dove infatti i valori sono tutti allineati).
Raghnar-The coWolf-
05-08-2015, 18:05
Ma va uguale e consuma leggermente di più del 4970K?! o_O
macellatore
05-08-2015, 18:06
Il 5775C ha una bomba nucleare dentro al die: 128MB di L4 utilizzabili tanto dalla GPU quando dalla CPU.
:D
macellatore
05-08-2015, 18:09
Ti piace tanto *** DA OGGI *** eh? :asd:
Il fatto è che *** DA OGGI *** intel alla grafica integrata amd continua a fargli le pippe.
A meno che non entra in gioco iris pro che costa una fucilata per battere una apu di fascia media.
Poi resta quello che dice fraussantin: della grafica integrata non frega una beneamata a nessuno.
E ancora parli delle console, che usano un'altra grafica integrata più potente delle normali apu amd.
Eh di ti piace trollare e basta. :asd:
Si commenta da solo questo post, lo riporto così com'è.
Piedone1113
05-08-2015, 18:17
Beh, lascio agli utenti AMD spiegarmi l'utilità di una grafica integrata in CPU desktop (per me nulla).
Il punto fondamentale è la data di oggi, ossia quella che devi segnare sul calendario come "AMD legnata sulla grafica integrata".
Poi arriveranno I5, I3, roba piu' piccola etc...,
e INTEL prenderà il controllo di tablet e tutto,
ma il sorpasso è avvenuto OGGI.
Non sapevo che per scrivere una lettera in word o un foglio Excel bisogna usare una titanx per non avere stuttering.
Ma il punto fondamentale per me è farmi spiegare da qualche utente volenteroso l'utilità dei tuoi commenti dato che per me non è nulla, ma addirittura negativa togliendo alla discussione invece di aggiungere.
Altra cosa che non hai affatto capito è che nonostante il nuovo design della cpu permette un risparmio energetico variabile tra l'8 ed il 10% il tdp è aumentato questo perché di efficienza lato igpu intel ha ancora strada da fare.
normalizzando a parità di pp la gpu integrata AMD va ancora il doppio rispetto intel e che di conseguenza intel ha ancora parecchia strada da fare per egualiare le APU AMD lato vga.
fraussantin
05-08-2015, 18:26
Intanto carta canta e queste integrate restano comunque dietro a quelle amd :asd:
http://www.tomshw.it/data/thumbs/1/1/9/6/bioshock-infinite-7f11293009df32736ea702b9147be8ef8.jpg
Allora corriamo a comprarci tutti un amd ....
È come fare un confronto tra un serie 3 e una Octavia e dire che il tergicristallo della octavia pulisce leggermente meglio ..
Io sta cosa non la capisco...
Piedone1113
05-08-2015, 18:37
Allora corriamo a comprarci tutti un amd ....
È come fare un confronto tra un serie 3 e una Octavia e dire che il tergicristallo della octavia pulisce leggermente meglio ..
Io sta cosa non la capisco...
Non so perché si finisce sempre con il fare paragoni con il campo automobilistico, ma certamente se preferisci pagare il doppio per una serie 3 non puoi dare la colpa alla skoda che non fa auto all'altezza, piuttosto a te che compri BMW (ragionamento generale).
In fondo ne intel ti costringe a comprare le sue cpu (posso capire passare da un core2 due ad un i5 - i7 attuale) ne te le prescrive il medico, perché sono certo che il 90% di chi acquisterà queste cpu avrà come processore attuale un 2500K minimo.
fraussantin
05-08-2015, 18:50
Non so perché si finisce sempre con il fare paragoni con il campo automobilistico, ma certamente se preferisci pagare il doppio per una serie 3 non puoi dare la colpa alla skoda che non fa auto all'altezza, piuttosto a te che compri BMW (ragionamento generale).
In fondo ne intel ti costringe a comprare le sue cpu (posso capire passare da un core2 due ad un i5 - i7 attuale) ne te le prescrive il medico, perché sono certo che il 90% di chi acquisterà queste cpu avrà come processore attuale un 2500K minimo.
Uno compra quello che gli pare , ma in fase di confronto imputarsi su dettagli inutili è assurdo.
Ovviamente la skoda almeno costa meno ...
mirkonorroz
05-08-2015, 19:09
Il 5775C ha una bomba nucleare dentro al die: 128MB di L4 utilizzabili tanto dalla GPU quanto dalla CPU
In ogni caso il benchmark di WinRAR è ridicolo, assolutamente irreale, fornisce valori solo teorici (per il test di compressione molto meglio 7-zip, dove infatti i valori sono tutti allineati).
Ti ringrazio delle spiegazioni :)
AceGranger
05-08-2015, 19:49
Intanto carta canta e queste integrate restano comunque dietro a quelle amd :asd:
cut
Aspetta esprimo meglio il concetto: intanto l'integrata di un processore intel da 400 euro resta comunque dietro a uno da 140 euro amd :rotfl:
Che poi il passo avanti di intel è notevole, ma marcarlo con le stelline e scritte maiuscole come pietra miliare di chissà che sorpasso tecnologico lo trovo ridicolo :asd:
si pero.... sotto ci stanno pure questi grafici, hai avuto una piccola svista :ciapet:, non è che la carta canti proprio quello che hai detto :stordita:
http://www.tomshw.it/data/thumbs/1/1/9/8/gtav-0cb5777e40899752fb6affd0b5ec337f1.jpg
http://www.tomshw.it/data/thumbs/1/1/9/8/half-life-2-1dc8e39643585bd49ceefcf490ed05a3d.jpg
quello che dici sul prezzo è vero, pero non tieni conto di un punto fondamentale: queste CPU non hanno mica dentro la GPU di punta della serie skylake, hanno dentro la GT2 con 24EU (fonte Anandtech )
http://www.anandtech.com/show/9483/intel-skylake-review-6700k-6600k-ddr4-ddr3-ipc-6th-generation/4
che sara anche quella utilizzata anche nelle CPU Desktop inferiori, quindi arriveranno anche i3 con questa GPU....
psychok9
05-08-2015, 19:52
Prestazioni pressoché simili alla generazione precedente.
Inutilità totale del processore nei giochi (a meno di confrontare un 2 core contro un 4 core, dove questi ultimi nei giochi più recenti sono finalmente utilizzati).
Inutilità del passaggio a DDR4, che comunque costringe al cambio di scheda madre (quindi si sale sul vagone del "betatesting" e si spende un pacco perché è la novità).
Insomma si guardino i prezzi e si decide, un bel 4690 (magari in declinazione "S") con DDR3L vi durerà comunque un 6 anni e non fornirà nulla di meno (purtroppo i Broadwell non si possono considerare perché Intel ha deciso di ucciderli sia per il server e il desktop, con prezzi folli).
I consumi in meno non ci sono perché stiamo confrontando mele con pere: 3,5GHz contro 4GHz, e al superamento dei 3GHz è risaputo l'aumento di consumi sia esponenziale (tant'è, se ci fai caso, tutte le CPU sono ferme a circa 2,5/3GHz da anni e anziché aumentarne il base clock han deciso di inserire il "Turbo Boost").
Quoto... ma cambiare slot ogni 2 cpu, per un pelo di prestazioni in più, l'ha prescritto il medico a Intel?... :doh: uno spreco enorme, immagino in accordo con le aziende che producono schede madri :fagiano:
AceGranger
05-08-2015, 20:47
Hai ragione, non avevo guardato tutto e non ci avevo fatto caso.
E se per gta5 posso ipotizzare che le apu finiscano dietro per la cpu non può essere la stessa cosa su hl2.
No che non sono quelle di punta, mi aspetto la serie R con la memoria eDRAM con il 4770R e come i broadwell, ma quanto diamine viene a costare?
O forse ci sono altre intermedie più potenti di questa senza edram?
se le news si riveleranno corrette, la situazione che dovrebbe presentarsi sarebbe questa:
Mobile ( dall'ultrabook al top desktop replacement ), a seconda delle fasce e del numero di core ci saranno:
GT 1 - 12 EU
GT 1.5 - 18 EU
GT 2 - 24 EU
GT 3e - 48 EU con 64 Mb eDram
GT 4e - 72 EU con 128 Mb eDram
Desktop
GT 2 - 24 EU
GT4e - 72 EU con 64 Mb eDram
quindi, al dila della top gamma che arrivera con la GT4 e la eDram, tutte le altre CPU dovrebbero arrivare con la GT2, il che le rendera molto competitive, specialmente tutte le serie inferiori i3 e i5 entry lvl.
http://wccftech.com/intel-skylake-processors-integrate-iris-gt4e-level-graphics-chip-features-72-execution-units-128-mb-edram-llc/
AceGranger
05-08-2015, 21:10
Scusa ma non sono queste quelle con il gt2?
Comunque è anomalo che in in hl2 la igpu di skylake vada più della igpu di kaveri, in tutti gli altri test va meno.
si, sono queste, ma essendo CPU Top Gamma costano; gli i5 Entry lvl e sopratutto gli i3 costeranno meno ma avranno le stesse prestazioni della GPU visto.
bho non saprei perchè in quel gioco va cosi, pero anche nei grafici della pagina dopo dei software PRO, se la gioca alla grande.
la cosa che mi ha deluso e che trovo strani sono i consumi e relativa efficienza, praticamente consuma come l'attuale CPU a 22nm
http://techreport.com/review/28751/intel-core-i7-6700k-skylake-processor-reviewed/5
non so, ma questi 14nm non mi sembrano un gran che.
anche Intel è ormai alla frutta, giustamente non ha bisogno di migliorarsi ulteriormente perchè oltre al fattore concorrenza, la maggioranza delle persone col Pc ci fa poco e niente
marchigiano
05-08-2015, 21:37
peccato che le linee pci-e sono sempre solo 16 (non dovevano essere 20??)
sono 16 per gli slot pcie e 4 per il southbridge, è così da almeno 2-3 generazioni
Ma quello è merito di windows 10 credo, non di skylake.
Cioè haswell con win10 come si comporta?
credo che win10 dia il boost maggiore agli skylake mentre per le cpu più vecchie il divario dovrebbe essere inferiore
Non ho capito una cosa nel bench di winrar:
cosa ha di speciale il 5775C rispetto al 6700K per averlo superato?
la L4
Dai su, queste CPU sono state pensate per il mercato mobile. Per il mercato desktop, stagnante e oggettivamente consolidato, han preso un pò di silicio che avanzava, aggiunto un numerino al socket, e poi vai con le nuove schede madri, largo alla tamarraggine: LED, luci, pannelli... e via, che i nerd si scatenino..
ma è da sandy bridge che lo fanno :D
Curiosità: viato come intel si è accanita sulla grafica integrata , ma in quale scenario è necessaria?
notebook e tablet, se puoi fare a meno della discreta abbassi notevolmente il costo del notebook come pure lo spessore...
quando AMD era competitiva, vendeva meno di quanto meritasse, punto e basta
non sono d'accordo, vendeva meno perchè gli fx li piazzava a 800-1000 quando un p4 lo vendevano a 300... potevano abbassare i prezzi e fare volume invece di fare gli ingordi sulla singola cpu
Intanto carta canta e queste integrate restano comunque dietro a quelle amd :asd:
http://www.tomshw.it/data/thumbs/1/1/9/6/bioshock-infinite-7f11293009df32736ea702b9147be8ef8.jpg
Aspetta esprimo meglio il concetto: intanto l'integrata di un processore intel da 400 euro resta comunque dietro a uno da 140 euro amd :rotfl:
si ma quella è la gt2 con appena 24eu e niente l4... verrà montata anche sui i3 da 100 euro :D grazie alla banda della ddr4 sarà comunque una bella gpu, se invece la gt4 riusciranno a tenerla sotto i 370 euro ci sarà da ridere :sofico:
e non dimentichiamoci in ambito ultraportatile i nuovi cherry trail con gpu da 12 e 16eu che spazzeranno via le apu amd ferme a 128 shaders... ma con core x86 penosi :muro:
St1ll_4liv3
05-08-2015, 21:40
Se continuano così il mio 2600k arriverà al 2020... :sofico:
Se continuano così il mio 2600k arriverà al 2020... :sofico:
ihihi pensavo la stessa cosa..il mio aveva preparato la valigia di cartone...ma l'ho avvisato di ritornare in catena :asd:
premettendo che i il vero salto di prestzioni lo avremo col 6900k e il 7900k che usciranno con molta calma e pazienza visto che amd non mette furia a nessuno , direy che per adesso sono inutili .
ma soprattutto inutili sono i test che si fanno qui su HWU...
MA COME SI FA A TESTARE UN PROCESSORE CON DEI GIOCHETTI CHE SFRUTTANO MOLTO LA VGA?
cacchio , ma watchdogs , e gta 5 non ve li siete comprati?
Non hanno testato solo con giochetti che usano la vga. Se guardi bene i tests hanno anche usato cinebench e handbrake che sfruttano per bene la cpu nel rendering e video conversione.
Quello che non si può vedere nè accettare è che hanno fatto un prodotto che in pratica ha di diverso solo il nome. Altra cosa inaccettabile è il prezzo dei predecessori: invariato o quasi.
Morale della favola bene per chi ha il 4790k.
Sospetto che per non autocannibalizzare le loro quote di mercato non sveleranno i top di gamma della serie skylake prima di dicembre. Come qualcuno faceva notare, se non avessi già aggiornato, a questo punto diventa dirimente il prezzo più che il ragionamento sulle performances che paragonate alla vecchia guardia della generazione precedente non cambiano.
Interessante è il i7 5960x per rendering e movie, se guardiamo solo ai bench forniti dalla redazione, ma il suo prezzo è scandaloso, anche se mi pare che almeno quello abbia ihs e die saldati, se non ricordo male.
D3stroyer
05-08-2015, 22:30
sono un po' confuso. Ho aspettato tanto per avere review su skylake, ora però mi trovo prezzi sparati nell'infinito e un sistema 6600k costa più di uno 4790k. La cosa mi turba l'anima naturalmente. Un 4790k risulta sempre o quasi superiore ad un 6600k, cosa mi consigliate di fare? (parto da zero, il mio pc è quello in firma). sistema 6600k ddr4 oppure 4790k?
L'impatto delle DDR4 com'è? Non mi sembra che si veda da questi test.
Comunque dovrei cambiare pc visto che il mio fa 8 anni a dicembre :eek:
Vorrei comprare qualcosa a prova di futuro e oggi purtroppo l'unica piattaforma valida è la Z170. Non ho più voglia di aspettare AMD...
Rainy nights
05-08-2015, 23:34
Qualche mese fa sono stata in procinto di cambiare tutto il sistema, poi mi sono fermata (tamponando e fortunatamente riuscendo a sistemare il sistemabile) in attesa di skylake.
Ora mi trovo a vedere che non ci sono vantaggi di sorta portati dall'attesa, se non la fregatura di dover cmq cedere alla scimmia e metter su il 6700k pur non avendo il minimo bisogno.
Ma tanto che devo fare un pc ex novo cedo, anche se mi sembra inaccettabile una nuova serie con zero vantaggi rispetto alla precedente. Boh.
Portocala
05-08-2015, 23:34
sono un po' confuso. Ho aspettato tanto per avere review su skylake, ora però mi trovo prezzi sparati nell'infinito e un sistema 6600k costa più di uno 4790k. La cosa mi turba l'anima naturalmente. Un 4790k risulta sempre o quasi superiore ad un 6600k, cosa mi consigliate di fare? (parto da zero, il mio pc è quello in firma). sistema 6600k ddr4 oppure 4790k?
Sono nella tua situazione (speravo in un Q6600 dejavu, invece fuffa).
Alla fine sto guardando in giro sull'usato un 3570K o 3770k, che spero scendano di prezzo ancora di più.
Se utilizzo risoluzioni basse e impostazioni qualitative non elevate i frames con CPU potenti schizzano verso l'alto, soprattutto se uso una GPU potente. Ma che senso ha analizzare questo scenario quando nessuno lo usa?
Perchè stai testando una CPU non come questa si comporta nel gioco XYZ con vari settaggi cercando di simulare scenari verosimili alla media di utilizzo di un prodotto. (nel qual caso avrebbe senso)
Quindi proprio per questo servizio che stai offrendo bisognerebbe essere focalizzati su di essa, testarla in regime di GPU limited, imho, non ha alcun senso.
E' come fare un test drive di una macchina sportiva in città, potrà anche essere lo scenario più verosimile al tipo di utilizzo medio, ma non può dire nulla delle sue reali performance.
Inoltre, non pochi utenti, cercano, soprattutto con monitor con molti Hz, le performance pure, un I5 o un I7 che al massimo dettaglio murano a 60-70 fps, potrebbero non aumentare di una virgola abbassando dettaglio o risoluzione, dinamica che rende poco significativa l'analisi, senza contare chi punta, su configurazioni del genere a configurazioni SLI e Crossfire.
Personalmente nelle review On-line i dati che apprezzo maggiormente riguardo al gaming in un test CPU sono quelli che appunto analizzano scenari non influenzati dalla GPU, come fa, ad esempio, Computerbase e non solo.
Bruce Deluxe
05-08-2015, 23:51
Avendo preso mesi fa il 4790k son proprio contento :D
rockroll
05-08-2015, 23:56
La grafica integrata finirà dove ti pare,
se non ti piacciono le console finirà dove meglio credi.
Il problema è che *** DA OGGI ***
AMD è stata superata anche lì.
E' un fatto nuovo, e di importanza EPOCALE.
Ma che cando vai dicezzo?
C'è libertà di parola ma non di disinformazione e disprezzo gratuito, oltretutto su un forum di taglio tecnico.
Io mi fermo qui, ci penseranno altri a rendere ridicoli i tuoi proclami.
L'impatto delle DDR4 com'è? Non mi sembra che si veda da questi test.
Comunque dovrei cambiare pc visto che il mio fa 8 anni a dicembre :eek:
Vorrei comprare qualcosa a prova di futuro e oggi purtroppo l'unica piattaforma valida è la Z170. Non ho più voglia di aspettare AMD...
un bel 4790k e DDR3 costano meno delle ddr4 sono più colladaute e soprattutto non penso che faranno tutta sta differenza se l' intento è di usarlo per giochi.
A me tutta sta storia pare uno specchietto per allodole. Ti danno il processore che supporta DDR4 ma che poi alla fin dei conti non si discosta quasi per niente dalla generazione precedente quanto a performances nè per quanto riguarda consumi che anzi pompano un filino di più. M i chiedo ma che diamine sti cinesi spiano tutto copiano tutto clonano tutto, non potrebbero clonare le versioni Extreeme di intel soporatutto quelle con ihs e die saldate così si sta freschi e tranquilli.
psychok9
06-08-2015, 02:45
Credo che sia dovuto al supporto alle ddr4 sopratutto.
Se fosse vero, non avrebbero cambiato già 2 volte socket con le DDR3.
Leggendo questa (ed altre) rece, sono felice di aver deciso di farmi portare il 5820k da babbo natale lo scorso anno, nonostante fossi indeciso se aspettare Skylake. :)
NESSUNO prenderà mai una simile CPU senza affiancarci una scheda discreta come si deve..
Molti più di quelli che pensi, purtroppo. :p
Se poi andiamo a vedere i notebook nei CC, trovi una marea di i7 con GPU integrata.
Ma ci sono anche settori, come ad esempio il montaggio video, percui serve una GPU veloce, ma la GPU discreta non è poi così necessaria.
E pure a me avrebbe fatto comodo avere avuto un'integrata come "muletto" per quelle 2 settimane che mi ero già venduto la vecchia GPU e aspettavo che arrivasse la nuova. :)
fraussantin
06-08-2015, 08:30
Leggendo questa (ed altre) rece, sono felice di aver deciso di farmi portare il 5820k da babbo natale lo scorso anno, nonostante fossi indeciso se aspettare Skylake. :)
Molti più di quelli che pensi, purtroppo. :p
Se poi andiamo a vedere i notebook nei CC, trovi una marea di i7 con GPU integrata.
Ma ci sono anche settori, come ad esempio il montaggio video, percui serve una GPU veloce, ma la GPU discreta non è poi così necessaria.
E pure a me avrebbe fatto comodo avere avuto un'integrata come "muletto" per quelle 2 settimane che mi ero già venduto la vecchia GPU e aspettavo che arrivasse la nuova. :)
Pure io sono felice da quel punto di vista .
Per la integrata , ripensandoci l'unico scenario interessante imho per un pc da ufficio .
ba skylake è improponibile prestazioni invariate e consumi aumentati un i5 riesce a malapena a stare sopra ad un fx processore uscito 3 anni fa poi i prezzi 300 euro per un i5 sono un furto
fraussantin
06-08-2015, 08:35
ba skylake è improponibile prestazioni invariate e consumi aumentati un i5 riesce a malapena a stare sopra ad un fx processore uscito 3 anni fa poi i prezzi 300 euro per un i5 sono un furto
:eek:
:doh:
fraussantin
06-08-2015, 08:38
Magari gli altri socket li hanno cambiati per altri motivi.
Comunque il socket lo cambiano ad ogni architettura, è inutile spendere risorse per fare una fuffata e cercare di mantenerlo uguale.
I socket li cambiano perche non c'è concorrenza e ti vogliono rivendere una mobo nuova ogni volta ( con tanto di chipset)
Se amd non si sveglia ( cosa che dubito) sarà sempre peggio.
29Leonardo
06-08-2015, 08:56
ba skylake è improponibile prestazioni invariate e consumi aumentati un i5 riesce a malapena a stare sopra ad un fx processore uscito 3 anni fa poi i prezzi 300 euro per un i5 sono un furto
E poi ti sei alzato tutto bagnato? :asd:
E poi ti sei alzato tutto bagnato? :asd:
no sudato:D ...
premesso il fatto che ho un 2600k e me lo tengo stretto io che uso il pc per lavorare con programmi che sfruttano il maggior numero di core tra i 2 non ci vedo tutta sta differenza sopratutto che non giustifica il prezzo
poi magari chi usa il pc per altri scopi tipo internet o giochi la puo vedere diversamente
Salve, sarei in procinto di assemblare un nuovo pc, consigliate di puntare subito su un 4690k oppure di aspettare qualche settimana per vedere se si abbassano i prezzi dei 6600k?
tuttodigitale
06-08-2015, 09:40
La situazione nel campo VGA è la stessa di quella nel mercato CPU. E qui non c'è la scusa del PP arretrato rispetto alla concorrenza.
AMD ha una architettura che è indietro rispetto alla concorrenza. Le serve più silicio e corrente per ottenere le stesse prestazioni. Che vuol dire meno margine di guadagno oltre che prodotti di qualità inferiore per via dei consumi davvero maggiori (vedesi 970 vs 290X). E il trend di mercato che la vede perdere quote significative ogni trimestre è testimone della cosa. Il che si riflette sulle sua capacità di investimenti futuri.
W l'obiettività: stai confrontando una gpu più vecchia di un anno, che ha prestazioni native fp64 assolutamente inavvicinabili dalle altre gpu. Il confronto farlo con le Fury piuttosto, e i consumi davvero maggiori li vedrai solo tu.
Ragazzi non so se avete notato che nonostante il doppio die shrink le prestazioni per watt non sono poi così buone, anzi. Ho come l'impressione, almeno per quel riguarda i 4 GHz, la pacchia dei minor consumi a parità di frequenza (-30%) per singolo salto di nodo sia finito. Nel 2011 dai 14 nm era lecito attendersi un 12 core (24thread) da 3,6 GHz, e circa 45W per un quad-core, è evidente che nel giro di pochi anni i benefici di un die shrink si sono ridotti a dismisura (addirittura c'è chi come me ipotizza una regressione dal passaggio dei 45nm low k ai 32nm, debacle che ricordo ha annientato le prestazioni di k10/stars e bulldozer )
poi seriamente se credi che bulldozer sia tutto questo fallimento a livello di architettura, mi spiegheresti come mai confrontando kaveri con i3 SB con TDP da 65W in giù, il secondo non va più del primo,anzi, nonostante un processo produttivo sulla carta assolutamente paragonabili (32 vs 28 nm Bulk)
fraussantin
06-08-2015, 09:56
Io dico la seconda, anche un mesetto.
Cioè non è che hai grossi vantaggi, ma io preferisco sempre il più nuovo, ma non troppo nuovo, aspettare un mesetto fa anche saltar fuori eventuali magagne di skylake.
Anche solo avere il socket nuovo per poter eventualmente passare a ice lake in futuro.
EDIT: chiaro che se tra un mese i prezzi non sono scesi o sono scesi notevolmente anche quelli del 4690k prendi quello :D
Il socket importa poco , perche tanto chi ha un 4690k salterà direttamente al prossimo socket tra 2 anni .
Casomai è per non buttare le ram .. Ma va anche detto che costano quasi il doppio per adesso ..
AceGranger
06-08-2015, 10:09
W l'obiettività: stai confrontando una gpu più vecchia di un anno, che ha prestazioni native fp64 assolutamente inavvicinabili dalle altre gpu. Il confronto farlo con le Fury piuttosto, e i consumi davvero maggiori li vedrai solo tu.
le 980Ti/Titan X sono mediamente il 25% piu efficienti.
http://www.techpowerup.com/reviews/AMD/R9_Fury_X/32.html
W l'obiettività: stai confrontando una gpu più vecchia di un anno, che ha prestazioni native fp64 assolutamente inavvicinabili dalle altre gpu.
con le GPU da Server conta l'efficienza, e prendendo la migliori Tesla e FirePro si ha questo:
FirePro 9100
275 W
5.24 Tflops SP - 52,48 W/Tflops
2.62 Tflops DP - 104,96 W/Tflops
Tesla K80
300W
8.74 Tflops SP - 34,32 W/Tflops
2.91 Tflops DP - 103,09 W/Tflops
poi seriamente se credi che bulldozer sia tutto questo fallimento a livello di architettura, mi spiegheresti come mai confrontando kaveri con i3 SB con TDP da 65W in giù, il secondo non va più del primo,anzi, nonostante un processo produttivo sulla carta assolutamente paragonabili (32 vs 28 nm Bulk)
di quali modelli parli in particolare ?
CrapaDiLegno
06-08-2015, 10:40
Anche a te devo ricordare che non stavo facendo una disamina tecnica dell'attuale situazione, mi riferivo a quanto avvenuto nel passato quando, anche in campo VGA AMD aveva i prodotti migliori (vedi HD5870 vs Fermi), ma anche quando offriva i prodotti dal miglior rapporto prezzo prestazioni (non che adesso vada male) e vendeva comunque nettamente meno.
Ripeto, parlo di fette di mercato, di dati di vendita, relativamente a quanto offerto.
La leggenda che la serie 5xxx fosse migliore di Fermi è un po' da sfatare.
Di quella serie solo la 5870 era meglio della 480 per via dei consumi. Anche se comunque la 480 andava di più.
La 460 ha annientato la fascia inferiore, infatti è stata la scheda più venduta del momento. E con merito. Ed è quella che ha cominciato l'inesorabile diminuzione delle quote di mercato di AMD.
Quando è arrivata la revisione di Fermi non c'è stata più storia.
Quindi dire che vendeva poco anche se aveva il prodotto migliore è falso. Il prodotto non era migliore.
Se fosse vero, non avrebbero cambiato già 2 volte socket con le DDR3.
I socket li cambiano perche non c'è concorrenza e ti vogliono rivendere una mobo nuova ogni volta ( con tanto di chipset)
Se amd non si sveglia ( cosa che dubito) sarà sempre peggio.
Magari cambia perché Intel sta al tempo con le innovazioni nei suoi chipset?
Tipo, chessò... il PCI-e 3.0? L'USB 3.0/3.1? DDR3/DDR4? VRM sul die? E magari perché produce chipset con PP nuovi invece di usare quello dell'anteguerra.
Così, eh, mi vengono in mente giusto queste 4 cose.
W l'obiettività: stai confrontando una gpu più vecchia di un anno, che ha prestazioni native fp64 assolutamente inavvicinabili dalle altre gpu. Il confronto farlo con le Fury piuttosto, e i consumi davvero maggiori li vedrai solo tu.
Ahahaha... dai su. Che sia vecchia di un anno non è colpa di nvidia. E' quello che c'è sul mercato oggi. La 390X non la considero nemmeno perché va poco di più consumando uno sfacelo in più. E di certo non migliora la questione competitività in termini di costi associati al die.
Ma questa cosa degli FP64 quando smetterà?
Che cippa me ne frega se la scheda fa mille miliardi di conti a 64 bit quando questi non sono usati per fare nulla? Non so, poteva fare una GPU che faceva il frullato di cipolle, ma se non serve a una cippa per il mercato in cui è venduta (quello dei videogiochi, non dei robot da cucina) che vantaggio ha?
Le Fury consumano meno (del solito) solo perché hanno l'HBM. Altrimenti, ancora una volta, l'architettura GCN si è dimostrata un passo indietro.
O vuoi confrontare i costi di 600mm^2+HBM+Interposer per ottenere prestazioni inferiori ai soli 600mm^2 di nvidia con classiche GDDR5?
Direi che non c'è assolutamente competizione in termini di costi tra le due.
Eppure AMD deve venderle a prezzo nettamente inferiore a quello della concorrenza (conssiderando anche il costo aggiuntivo del raffreddamento a liquido usato), perché inferiori sono le prestazioni.
Ragazzi non so se avete notato che nonostante il doppio die shrink le prestazioni per watt non sono poi così buone, anzi. Ho come l'impressione, almeno per quel riguarda i 4 GHz, la pacchia dei minor consumi a parità di frequenza (-30%) per singolo salto di nodo sia finito. Nel 2011 dai 14 nm era lecito attendersi un 12 core (24thread) da 3,6 GHz, e circa 45W per un quad-core, è evidente che nel giro di pochi anni i benefici di un die shrink si sono ridotti a dismisura (addirittura c'è chi come me ipotizza una regressione dal passaggio dei 45nm low k ai 32nm, debacle che ricordo ha annientato le prestazioni di k10/stars e bulldozer )
Qui concordo al 110%. Questi 14nm non mi sembrano usciti proprio bene. Ma non è una sorpresa se si pensa all'anno di ritardo di Broadwell e il fatto che questo non sia stato realizzato in grandi volumi con CPU desktop. I 2 modelli presentati sono stati probabilmente solo per prototipare Skylake.
poi seriamente se credi che bulldozer sia tutto questo fallimento a livello di architettura, mi spiegheresti come mai confrontando kaveri con i3 SB con TDP da 65W in giù, il secondo non va più del primo,anzi, nonostante un processo produttivo sulla carta assolutamente paragonabili (32 vs 28 nm Bulk)
Mica ho capito.. sai confrontando un quad core con un dual core? I test che ho visto lo pongono tra le fila dei vari Pentium di Intel, che è un processore ultra castrato che se realizzato nativamente così sarebbe grande meno della metà di Kaveri allo stesso PP.
Non riesco proprio a capire questa ostinazione nel difendere una architettura come quella di Bulldozer che è nata non male, malissimo, con prestazioni ignobili e die enormi. La summa del massimo del peggio per il produttore che si vede costretto a vendere un prodotto che costa molto di più della concorrenza a prezzo inferiore. E infatti non ci hanno fatto neanche una CPU server. Prova a chiederti il perché.
E' stata una rovina totale, sia in termini economici (che non pare siano discutibili visti i bilanci) e sia in termini di immagine. Quel poco che AMD era riuscita a costruire con gli Athlon è andato svanito prima con i Phenom e poi con BD. Se sbaglia anche con Zen (che vuol dire che non sarà per davvero competitiva con Intel, non solo che riuscirà ad avvicinarsi in prestazioni e basta, ma lo deve fare anche a livello di costi e di appetibilità verso il cliente, quini senza consumi a 3 cifre, e deve metterlo dappertutto, dai portatili ai server) per AMD è finita. Per davvero però.
calcolatorez3z2z1
06-08-2015, 10:54
In ambito dekstop non ci sono differenze marcate. 5/10 minuti prima o dopo non fanno una grande differenza in termini di lavoro. Il FCAT conferma.Da qui a 6 generazioni dietro, a parità di fascia, non c'è motivo di cambiare CPU (eccezione x la fascia enthusiast).
A questo punto la differenza la farà sui notebook. Con le nuove GPU integrate non ci saranno concorrenti capaci di offrire soluzioni migliori.
Io dico la seconda, anche un mesetto.
Cioè non è che hai grossi vantaggi, ma io preferisco sempre il più nuovo, ma non troppo nuovo, aspettare un mesetto fa anche saltar fuori eventuali magagne di skylake.
Anche solo avere il socket nuovo per poter eventualmente passare a ice lake in futuro.
EDIT: chiaro che se tra un mese i prezzi non sono scesi o sono scesi notevolmente anche quelli del 4690k prendi quello :D
Bene grazie, penso anch'io che sia la cosa migliore da fare :)
fraussantin
06-08-2015, 11:25
Perché le memoria il doppio?
Vedo sulla amazzone:
ddr3 1600 4gbx2: 53,79
ddr3 2133 4gbx2: 66,49
ddr4 2133 4gbx2: 77.78
Mi pare che costino solo un po' di più delle dd3 di pari frequenza.
E si spera scendano ancora un po'
Si sono calate un po , un po di tempo fa stavano suo 90. Cmq io per ddr3 intendo quelle a 1600 le altre sono quasi inutili.
Magari cambia perché Intel sta al tempo con le innovazioni nei suoi chipset?
Tipo, chessò... il PCI-e 3.0? L'USB 3.0/3.1? DDR3/DDR4? VRM sul die? E magari perché produce chipset con PP nuovi invece di usare quello dell'anteguerra.
Così, eh, mi vengono in mente giusto queste 4 cose.
Cosa centra col socket.
Chipset nuovi escono anche per lo stesso socket , ma la gente "normale" non cambia una mobo se il processore nuovo ci sta sopra e ci funziona bene.
Qui con la scusa vrm si vrm no ogni 3x2 cambiano socket.
Direi piuttosto deludente per essere una nuova architettura.
I guadagni in termini di prestazioni sono veramente ma veramente risicati..
Anche dal punto di vista dei consumi non ci sono vantaggi.
Calcolando il calo di prezzo che ci sarà la vecchia guardia resta un best buy.
Nota a margine:
peccato (come sempre) per la GPU integrata che non serve a niente in modelli di fascia alta come questi.
NESSUNO prenderà mai una simile CPU senza affiancarci una scheda discreta come si deve..
Questa volta, bisogna rispondere con un "non è proprio vero"! Nel momento in cui i giochi saranno DX12 "nativi", ci sarà la possibilità di usare schede video eterogenee, quindi, seppur poco, la GPU integrata potrebbe aiutarti ad avere un valore di FPS minimi più alto. Facendo un paragone, è come il sistema microibrido per le autovetture, in cui il motore elettrico serve solo a spingere in basso, dove il motore a benzina rende meno!
AceGranger
06-08-2015, 11:32
Si sono calate un po , un po di tempo fa stavano suo 90. Cmq io per ddr3 intendo quelle a 1600 le altre sono quasi inutili.
Cosa centra col socket.
Chipset nuovi escono anche per lo stesso socket , ma la gente "normale" non cambia una mobo se il processore nuovo ci sta sopra e ci funziona bene.
Qui con la scusa vrm si vrm no ogni 3x2 cambiano socket.
è inutile menarla su ogni volta con il socket, Intel ha sempre cambiato socket ogni 2 generazioni, con o senza la scusa dei VRM;
la gente "normale" non sa nulla, non capisce nulla e non gli frega nemmeno nulla, perchè tanto la gente normale non aggiorna e cambia tutto prendendo roba al Mediaworld Company.
Pure io sono felice da quel punto di vista .
Per la integrata , ripensandoci l'unico scenario interessante imho per un pc da ufficio .
L'integrata va benissimo per tutti coloro che col PC non ci giocano. ;)
Ovvio che per loro non ha nemmeno senso un i5/i7.
L'integrata va benissimo per tutti coloro che col PC non ci giocano. ;)
Ovvio che per loro non ha nemmeno senso un i5/i7.
rendering, encoding questi sconosciuti...non esistono solo i giochi!!!
rendering, encoding questi sconosciuti...non esistono solo i giochi!!!
Vabbeh ma qui si parla già di lavori avanzati, il 95% della gente che compra un PC lo usa per navigaare in internet e lavorare con Office, percui già di un'integrata ne ha d'avanzo. :)
Ovvio che in un forum di appassionati come questo rabbrividiamo al pensiero di un i7 con l'Integrata, ma siamo una minoranza rispetto a quelli che comprano il notebook da 1000€ al CC con i7 e GPU integrata... ;)
Io in ufficio ho un i5-2500 con una schedina base discreta perché le integrate di allora erano uno schifo e ci mettevano un sacco a ridisegnare i lavori in cad.
Probabilmente con un i5-4460 la vga discreta non l'avrei messa, di certo non con un i5-6500.
esatto poi non capico cosa non vada in un i7+integrata se uno con il pc ci lavora cioè io vedo peggio un i7 per giocare che non ti da nulla rispetto ad un i5
esatto poi non capico cosa non vada in un i7+integrata se uno con il pc ci lavora cioè io vedo peggio un i7 per giocare che non ti da nulla rispetto ad un i5
Diciamo che se uno ci fa solo internet è office, è assolutamente sprecato, dato che sarebbe praticamente impossibile cogliere la differenza prestazionale tra un i7 ed un i3. :)
Come è sprecato un i7 per giocare, a meno che uno non giochi a GTA5. ;)
Attenzione però che un i7 comincia ad essere utile per giocare, in rari casi ma lo è.
Poi c'è anche chi si prende un 5820k per giocare e mi sembra un po' esagerato.
Prima che qualcuno se la prenda: se lo prendete per smanettarci in overclock e amenità varie non è solo per giocare :D
Vero, ma io ad esempio sono uno che quando cambia, cerca sempre di prendere il meglio che può permettersi, in modo che gli duri qualche anno.
E devo ammettere (ma già lo sapevo) che non ho visto molta differenza tra il 2600k che avevo prima e il 5820k di adesso, ma ho cambiato solo perchè dovevo fare il PC a mio fratello, e mi è convenuto passargli il mio e aggiornarmi. :cool:
Anche io sono uno che quando cambia prende qualcosa di valido per farlo durare, ma resto nella fascia media perché ritengo che sia inutile spendere di più per avere poco vantaggio quando tra 1 anno quel vantaggio difficilmente sarà influente.
Per esempio anni fa ho comprato un core 2 duo rinunciando al quad e non me ne sono pentito, questa volta prenderò un i5 rinunciando all'i7 e sono sicuro che non me ne pentirò :)
Poi io alla fine i PC li faccio durare, il PC che ho a casa da gioco poi diventerà PC da gioco di mio fratello, e dopo ancora il PC da lavoro in negozio.
Infatti ora in negozio sto usando il mio ex-ex Q6600 che mi sono "ripreso" da mio fratello quando gli ho montato il 2600k.
Ma è anche vero che se all'epoca avessi preso un dual core, ora per lavorare ne avrei d'avanzo comunque. :)
E l'unico che ci guadagna in questo giro è sempre mio fratello. :fagiano:
Anche io sono uno che quando cambia prende qualcosa di valido per farlo durare, ma resto nella fascia media perché ritengo che sia inutile spendere di più per avere poco vantaggio quando tra 1 anno quel vantaggio difficilmente sarà influente.
Per esempio anni fa ho comprato un core 2 duo rinunciando al quad e non me ne sono pentito, questa volta prenderò un i5 rinunciando all'i7 e sono sicuro che non me ne pentirò :)
http://media.tumblr.com/7f577aa18d105506bad7bb89b0f21c07/tumblr_inline_ndnlt49Zd01rytd6t.jpg
:D
io comunque penso di aspettare il prossimo anno vediamo che fa zen altrimenti mi prendo il prossimo i7 almeno per giustificare i 400 euro di spesa con quel 35-40% di prestazioni dal mio 2600k
Tu hai un 2600k e fai bene ad aspettare, io ho un E8400 e tra un po' non mi gira più manco solitario :D
Col Q6600@3150Mhz ed una gtx960 mi gira qualsiasi cosa (solo GTA5 mi manda in crisi la CPU, ma è giocabile comunque).
Vedi che forse era meglio se prendevi un quad? :p
http://i.imgur.com/pRgkCzTl.jpg (http://imgur.com/pRgkCzT)
fraussantin
06-08-2015, 14:51
Attenzione però che un i7 comincia ad essere utile per giocare, in rari casi ma lo è.
Poi c'è anche chi si prende un 5820k per giocare e mi sembra un po' esagerato.
Prima che qualcuno se la prenda: se lo prendete per smanettarci in overclock e amenità varie non è solo per giocare :D
Perche overclokkare, scoperchiare ecc non è forse "giocare" :asd::sofico:
psychok9
06-08-2015, 15:39
I socket li cambiano perche non c'è concorrenza e ti vogliono rivendere una mobo nuova ogni volta ( con tanto di chipset)
Se amd non si sveglia ( cosa che dubito) sarà sempre peggio.
Esatto
Perche overclokkare, scoperchiare ecc non è forse "giocare" :asd::sofico:
:asd: ore e ore di divertimento!
Anche io sono uno che quando cambia prende qualcosa di valido per farlo durare, ma resto nella fascia media perché ritengo che sia inutile spendere di più per avere poco vantaggio quando tra 1 anno quel vantaggio difficilmente sarà influente.
Per esempio anni fa ho comprato un core 2 duo rinunciando al quad e non me ne sono pentito, questa volta prenderò un i5 rinunciando all'i7 e sono sicuro che non me ne pentirò :)
Volendo il discorso vale anche per le gpu, visto che molto spesso con una 750ti da 150 euro giochi meglio di una 570 da 300 euro (prezzo 2013) :rolleyes:
be tra core 2 duo e quad la differenza c'è.
All'inizio no , ma con gli anni i possessori dei core 2 quad hanno avuto un bel vantaggio tant'è che sono ancora validi a differenza dei primi.
Inoltre hanno mantenuto un valore da usato altissimo tant'è che sono passato da un q9550 all i5 2400 senza spendere 1€
Concordo invece che tra i5 e i7 convengono i primi e non si avvertono differenze significative in gioco
cdimauro
06-08-2015, 19:03
A me tutta sta storia pare uno specchietto per allodole. Ti danno il processore che supporta DDR4 ma che poi alla fin dei conti non si discosta quasi per niente dalla generazione precedente quanto a performances nè per quanto riguarda consumi che anzi pompano un filino di più.
Le prestazioni sono migliorate di circa il 10% rispetto alla precedente generazione, che non è poco considerato che con l'IPC non si può salire più di tanto (come peraltro ho accuratamente spiegato anche di recente, in un altro thread).
Comunque spero che Paolo ci regali anche una bella recensione incentrata sulla GPU integrata, incluso l'uso dell'accelerazione video, e che non riguardi soltanto le prestazioni, ma anche i consumi (se possibile, visto che misurano a monte, e non ci sono schede madri e chipset identici per i precedenti processori).
M i chiedo ma che diamine sti cinesi spiano tutto copiano tutto clonano tutto, non potrebbero clonare le versioni Extreeme di intel soporatutto quelle con ihs e die saldate così si sta freschi e tranquilli.
Puoi sempre chiedere a Via. :fiufiu:
thedoctor1968
06-08-2015, 21:36
passettino piccolino piccolino, non ne vale la pena neppure per chi ha un processore i7 di 2° generazione, tipo 2600k per intenderci
I socket li cambiano perche non c'è concorrenza e ti vogliono rivendere una mobo nuova ogni volta ( con tanto di chipset)
Se amd non si sveglia ( cosa che dubito) sarà sempre peggio.
In realtà anche AMD non è che non li cambiasse, anzi. Dal 2006 al 2011 è passata da AM2 ad AM3+, quindi 4 socket.
Per il resto non mi aspetto neanche io faville da Zen, anzi. Secondo me avremo delle sorprese dell'ultim'ora (tipo il PP di GF che fa schifo). Me la vedo gia arrivare
fraussantin
06-08-2015, 22:03
In realtà anche AMD non è che non li cambiasse, anzi. Dal 2006 al 2011 è passata da AM2 ad AM3+, quindi 4 socket.
Per il resto non mi aspetto neanche io faville da Zen, anzi. Secondo me avremo delle sorprese dell'ultim'ora (tipo il PP di GF che fa schifo). Me la vedo gia arrivare
Su questo sono convinto anche io . Altrimenti intel non andrebbe cosí lenta.
cdimauro
06-08-2015, 22:21
Intel NON va lenta.
Bruce Deluxe
06-08-2015, 22:24
Intel NON va lenta.
ma se sono anni che non si vedono passi avanti significativi... volendo stai tranquillo che potrebbero far molto molto molto di più!
cdimauro
06-08-2015, 22:36
ma se sono anni che non si vedono passi avanti significativi...
Forse perché non è più possibile farne come una volta?
volendo stai tranquillo che potrebbero far molto molto molto di più!
Bene. Allora, perché non glielo dici tu, TECNICAMENTE, come potrebbe fare?
fraussantin
06-08-2015, 22:42
Forse perché non è più possibile farne come una volta?
Bene. Allora, perché non glielo dici tu, TECNICAMENTE, come potrebbe fare?
Portare tutti i 4 core con la tecnologia di skylake , a 6 mantenedo i prezzi che fanno .
E gli sviluppatori di giochi inizieranno a pensare a 6 core invece di ragionare sempre a 4.
Poi noi che abbiamo un 4 core ce lo prendiamo nel :ciapet: cmq ..
AceGranger
06-08-2015, 22:52
ma se sono anni che non si vedono passi avanti significativi... volendo stai tranquillo che potrebbero far molto molto molto di più!
e bè, fino al Core Quad è stata una pacchia visto che ogni anno aumentavano il TDP...
ora che il cap del TDP è stato raggiunto la pacchia è finita, e comunque i passi significativi nelle fasce di mercato che contano in questi anni, si sono visti:
nel Mobile si è arrivati ad avere CPU prestanti che stanno in prodotti alti 9 mm e lato server sono arrivati a 18 core, quando nella scorsa generazione erano "fermi" a 12 core....
del 4 core pompato per giocare non frega e non serve a nessuno se non a 4 gatti.
Portare tutti i 4 core con la tecnologia di skylake , a 6 mantenedo i prezzi che fanno .
E gli sviluppatori di giochi inizieranno a pensare a 6 core invece di ragionare sempre a 4.
Poi noi che abbiamo un 4 core ce lo prendiamo nel :ciapet: cmq ..
il 5820K costa 380 euro ( e 320 euro il 4970K ) mi sembra un buon prezzo per un 6 core, visto che fino alla generazione precedente dovevi sborsarne 550.
cdimauro
06-08-2015, 23:15
@AceGranger: assolutamente d'accordo.
Bruce Deluxe
06-08-2015, 23:17
Se volessero avrebbero potuto passare ai 6 core su tutti gli i5/i7 da anni, tanto per fare un'esempio...
Piedone1113
06-08-2015, 23:18
Forse perché non è più possibile farne come una volta?
Bene. Allora, perché non glielo dici tu, TECNICAMENTE, come potrebbe fare?
Discorso gia fatto e rifatto.
Purtroppo ormai tra algoritmi hardware previsionali, ottimizzazione tra gli equilibri di dimensione-velocità-latenza cache, unità di calcolo per ogni core, ottimizzazione frequenza-dimensione-tdp cpu ci possono essere solo miglioramenti marginali lato performance con vantaggi economici al passaggio di pp altrettanto ridotti.
Si può cercare maggiori performance solo rivoluzionando l'architettura, AMD ci ha provato ed ha fatto il tonfo, intel non può permettersi di farlo perché andrebbero più le vecchie cpu a causa della compilazione che tutti i software hanno per sfruttare le attuali architetture.
Sono sicuro che software scritti per l'architettura modulare di BD avrebbero mitigato in parte i difetti e sfruttato i punti di forza dando un'idea diversa di quello che percepiamo adesso sulle cpu amd.
Ma chi sarebbe disposto a riscrivere il proprio software per una nuova architettura rivoluzionaria di intel?
Credo nessuno.
Il software viene scritto in base alle cpu, e le cpu vengono evolute per migliorare le prestazioni sul software esistente.
Intel produce degli ottimi suv, capaci di viaggiare veloci su strade con buche.
Ma a fare una coupé con il doppio dei cavalli e poi essere costretti ad andare più piano del suv perché la strada reale non è la pista liscia come un ideale biliardo non farebbe bene ne al mercato, ne ad intel, ne al progresso tecnologico.
cdimauro
06-08-2015, 23:28
Se volessero avrebbero potuto passare ai 6 core su tutti gli i5/i7 da anni, tanto per fare un'esempio...
I 6 core ci sono già da un pezzo, a un prezzo abbordabile per i pochi che ne hanno realmente bisogno.
@Piedone1113: non ci possono essere architetture rivoluzionarie. Il codice è quello che è. Come ho suggerito qualche tempo fa, sarebbe sufficiente disassemblarne dei pezzi per comprenderne la natura e i vincoli che ne derivano a livello di implementazione di una microarchitettura.
Miracoli non se ne possono fare, e i limiti della fisica hanno fatto il resto, dando una brusca mazzata allo scalare delle prestazioni.
AceGranger
06-08-2015, 23:30
Se volessero avrebbero potuto passare ai 6 core su tutti gli i5/i7 da anni, tanto per fare un'esempio...
no, perchè la piattaforma Consumer è condivisa con quella Mobile, e quella che conta è quella mobile e un 6 core in ambito mobile proprio non se ne sente il bisogno;
se vuoi un 6 core ti prendi la piattaforma pro che condivide la piattaforma con quella server/workstation
fraussantin
06-08-2015, 23:57
il 5820K costa 380 euro ( e 320 euro il 4970K ) mi sembra un buon prezzo per un 6 core, visto che fino alla generazione precedente dovevi sborsarne 550.
I 6 core ci sono già da un pezzo, a un prezzo abbordabile per i pochi che ne hanno realmente bisogno.
@Piedone1113: non ci possono essere architetture rivoluzionarie. Il codice è quello che è. Come ho suggerito qualche tempo fa, sarebbe sufficiente disassemblarne dei pezzi per comprenderne la natura e i vincoli che ne derivano a livello di implementazione di una microarchitettura.
Miracoli non se ne possono fare, e i limiti della fisica hanno fatto il resto, dando una brusca mazzata allo scalare delle prestazioni.
non è quello che ho detto , io .
finche' i 6\8 core resteranno top di gamma , non si diffonderanno e i developer non li sfrutteranno.
cio' mi sta bene visto che mi sono comprato da poco un 4690 , ma oramai i 4 core hanno dato tutto , si deve fare il salto per andare avanti .
ma questo avverrà solo se amd caccierà fuori una linea a 6\8 core che funzioni sul serio e non che vada a saltelli come quella che fa adesso.
Bruce Deluxe
06-08-2015, 23:59
non è quello che ho detto , io .
finche' i 6\8 core resteranno top di gamma , non si diffonderanno e i developer non li sfrutteranno.
cio' mi sta bene visto che mi sono comprato da poco un 4690 , ma oramai i 4 core hanno dato tutto , si deve fare il salto per andare avanti .
ma questo avverrà solo se amd caccierà fuori una linea a 6\8 core che funzioni sul serio e non che vada a saltelli come quella che fa adesso.
la penso così anch'io :)
Piedone1113
07-08-2015, 00:09
I 6 core ci sono già da un pezzo, a un prezzo abbordabile per i pochi che ne hanno realmente bisogno.
@Piedone1113: non ci possono essere architetture rivoluzionarie. Il codice è quello che è. Come ho suggerito qualche tempo fa, sarebbe sufficiente disassemblarne dei pezzi per comprenderne la natura e i vincoli che ne derivano a livello di implementazione di una microarchitettura.
Miracoli non se ne possono fare, e i limiti della fisica hanno fatto il resto, dando una brusca mazzata allo scalare delle prestazioni.
In parte d'accordo, ma se guardiamo cell, con tutti i limiti dell'architettura con software scritto ad oc anche se sottotono con codice eterogeneo proprio schifo non faceva, ma con calcoli che potevano venir macinati dalla sua architettura era tutto un altro dire.
Bada bene non sto dicendo che una cpu dalle scarse prestazioni su un tipo di calcalo diventa un missile con software scritto ad oc, ma semplicemente che dove è svantaggiata farebbe meno schifo, dove è avvantaggiata diventerebbe un missile, si perde da una parte per guadagnare dall'altra, per assurdo su architetture "esotiche" l'algoritmo con maggior efficienza teorica potrebbe essere più lento che uno maggiormente complesso.
Per esempio potrebbe essere più veloce la somma di valori con precisione doppia rispetta a quella con singola precisione.
Forse mi sono spiegato male, ma il miglior equilibrio con il software attuale e futuro è di intel ed ha raggiunto nelle sue architetture quasi lo stato dell'arte e ormai paragonando le prestazioni sul giro si riesce a limare un centesimo in quella curva, due in quella staccata, una in quella salita ecc, e non più come una volta dove si raddoppiavano le unità di elaborazioni, si aumentava la cache, si innalzavano le frequenze.
non è quello che ho detto , io .
finche' i 6\8 core resteranno top di gamma , non si diffonderanno e i developer non li sfrutteranno.
cio' mi sta bene visto che mi sono comprato da poco un 4690 , ma oramai i 4 core hanno dato tutto , si deve fare il salto per andare avanti .
ma questo avverrà solo se amd caccierà fuori una linea a 6\8 core che funzioni sul serio e non che vada a saltelli come quella che fa adesso.
E' la stessa cosa che penso io. Siamo relegati ai 4/4, 4/8 da molti anni nella fascia consumer. Quando c'era un concorrenza seria il passaggio da mono a dual e poi a quad è stato fatto nel giro di 3/4 anni. Noi nel giro di 3/4 anni siamo passati dall'i5 sandy all'i5 skylake.
Non che ce ne sia necessità, sia chiaro. Pero è anche vero che il software segue le'voluzione hardware e viceversa.
MiKeLezZ
07-08-2015, 02:01
I 6/8 core su ARM ci sono, e che ci fai?! Le pippe...
Servono istruzioni GPU condivise e gente che abbia voglia di lavorarci (softwarmente parlando) su, visto che con centinaia di mini core e fino a 128MB di L4 ci puoi creare robe esagerate
cdimauro
07-08-2015, 06:25
non è quello che ho detto , io .
finche' i 6\8 core resteranno top di gamma , non si diffonderanno e i developer non li sfrutteranno.
cio' mi sta bene visto che mi sono comprato da poco un 4690 , ma oramai i 4 core hanno dato tutto , si deve fare il salto per andare avanti .
ma questo avverrà solo se amd caccierà fuori una linea a 6\8 core che funzioni sul serio e non che vada a saltelli come quella che fa adesso.
Come dicevo prima, gli esacore sono scesi di prezzo e sono abbordabili.
Che poi possano essere sfruttati dagli sviluppatori è tutto un altro paio di maniche, visto che gli algoritmi non sono tutti "parallelizzabili". Tutt'altro.
Esempi pratici e molto comuni che si possono toccare con mano: l'emulazione di un processore, la compilazione di un sorgente, il parsing di una pagina HTML. Potete avere tutti i core che volete (inclusi thread hardware), ma ne verrà usato soltanto uno per questo compito.
cdimauro
07-08-2015, 06:39
In parte d'accordo, ma se guardiamo cell, con tutti i limiti dell'architettura con software scritto ad oc anche se sottotono con codice eterogeneo proprio schifo non faceva, ma con calcoli che potevano venir macinati dalla sua architettura era tutto un altro dire.
Certamente, ma la sua architettura si prestava ed era stata appositamente progettata per scenari ben precisi: distribuzione e parallelizzazione del calcolo.
Qualcuno ha pensato alle GPU? Ha azzeccato. Ed è il motivo per cui è sparita, essendo le GPU, tra l'altro, diventate sempre più "general purpose" (gli stream processor hanno un'architettura molto simile a quella dei processori).
Per cui nulla di nuovo sotto il Sole.
Ma una CPU è una cosa abbastanza diversa, e deve affrontare problematiche diverse (vedi anche il mio precedente commento).
Bada bene non sto dicendo che una cpu dalle scarse prestazioni su un tipo di calcalo diventa un missile con software scritto ad oc, ma semplicemente che dove è svantaggiata farebbe meno schifo, dove è avvantaggiata diventerebbe un missile, si perde da una parte per guadagnare dall'altra, per assurdo su architetture "esotiche" l'algoritmo con maggior efficienza teorica potrebbe essere più lento che uno maggiormente complesso.
Per esempio potrebbe essere più veloce la somma di valori con precisione doppia rispetta a quella con singola precisione.
Forse mi sono spiegato male, ma il miglior equilibrio con il software attuale e futuro è di intel ed ha raggiunto nelle sue architetture quasi lo stato dell'arte e ormai paragonando le prestazioni sul giro si riesce a limare un centesimo in quella curva, due in quella staccata, una in quella salita ecc, e non più come una volta dove si raddoppiavano le unità di elaborazioni, si aumentava la cache, si innalzavano le frequenze.
Per questo si stanno integrando sempre più CPU e GPU: per farsi sì che sia più veloce poter scaricare un certo tipo di calcolo dalla prima alla seconda.
Ma i problemi intrinseci della prima rimangono e non possono essere risolti dalla seconda, e in generale da nessuno genio della lampada che è così frequente trovare nei forum (sia chiaro: non mi sto riferendo a te).
Se c'è qualcuno in grado di DIMOSTRARE (dunque TECNICAMENTE, e non a parole) come sia possibile migliorare a dismisura l'IPC (dunque, e per essere chiari, le prestazioni su singolo core/thread), alla Intel lo accoglieranno col tappeto rosso.
Lo stesso vale nel caso nel caso della parallelizzazione degli algoritmi. Chi dimostrerà come sia possibile applicarlo su qualunque algoritmo si beccherà come minimo il prossimo premio Turing. Ma, ribadisco, niente chiacchiere, di cui i forum sono strapieni (ci sono milioni di allenatori della nazionale): dimostrazioni tecniche, prego.
cdimauro
07-08-2015, 06:42
I 6/8 core su ARM ci sono, e che ci fai?! Le pippe...
Servono istruzioni GPU condivise e gente che abbia voglia di lavorarci (softwarmente parlando) su, visto che con centinaia di mini core e fino a 128MB di L4 ci puoi creare robe esagerate
Puoi già sfruttare le GPU, e scaricarle compiti per i quali è più indicata della CPU (vedi sopra).
fraussantin
07-08-2015, 06:59
Come dicevo prima, gli esacore sono scesi di prezzo e sono abbordabili.
Che poi possano essere sfruttati dagli sviluppatori è tutto un altro paio di maniche, visto che gli algoritmi non sono tutti "parallelizzabili". Tutt'altro.
Esempi pratici e molto comuni che si possono toccare con mano: l'emulazione di un processore, la compilazione di un sorgente, il parsing di una pagina HTML. Potete avere tutti i core che volete (inclusi thread hardware), ma ne verrà usato soltanto uno per questo compito.
Si ma lo scenario attuale doveva essere così :( visti i prezzi )
-ogni i5 skylake esacore
-ogni i7skylake octacore.
Invece continuano a venderci la solita roba magari un pelo piu cara e addirittura quella vecchia non cala manco un euro.
Su un cellulare un actacore serve meno che su un pc da gioco ( se fosse diffusa e sfruttato a dovere specie nei freeroaming)
Ma siccome arm non è sola e gli altri sviluppano roba ogni anno sempre più spinta ti deve dare di piu senza aumentare i prezzi.invece intel ci propina sempre la solita roba e magari la rincara.
Se il progresso tecnologico che c'è stato nei telefoni gli ultimi anni , fosse stato anche sui pc avremmo tutti un octacore oggi .... Per dire.
cdimauro
07-08-2015, 07:44
I telefonini octacore di cui parli hanno prestazioni paragonabili ai quad core proposti da Intel per il desktop? No. Nemmeno per sogno.
La risposta credo che te la sia data tu stesso: come gli octacore sono poco utilizzati nei telefonini, lo sono anche i quad core nei PC desktop.
Il motivo è semplice: alla massa, che fa tanto mainstream, quattro core, sono grasso che cola. E non sto nemmeno tirando in ballo gli i7 coi suoi 8 thread hardware.
Ovviamente per gli "entusiast" ci sono soluzioni ad hoc. Ci sono gli i7, infatti, nonché le versioni esa e octa core (che poi sono degli Xeon, perché alla fine, gira e rigira, è quello il reale target di mercato: workstation).
Dunque ci sono apposite fasce di mercato, che Intel copre come meglio può.
IMO non ha senso sdoganare 6, 8, o più core alla massa, perché non se ne farebbe niente. Come non se ne fanno niente gli sviluppatori che devono realizzare software per la massa, vuoi anche per i ben precisi limiti di cui ho discusso prima.
Quando le esigenze degli "entusiast" attuali diventeranno mainstream, credo che Intel si adeguerà.
Per il resto lancio una riflessione, e poi vado lavoro (e a ruota in vacanza: dunque non aspettatevi risposte da me in tempi brevi, se serviranno): davvero credete che a Intel piaccia investire miliardi di dollari in ricerca & sviluppo per realizzare nuove architetture, se poi alla fine "nasconderebbe" un enorme potenziale? Chi glielo farebbe fare? Soprattutto visto che la concorrenza in ambito PC latita. Gli azionisti sarebbero ben contenti di incassare più dividendi anziché spendere soldi "inutili" in R & S.
Invece Skylake è, per qualche si sa, un'architettura nuova, che ha richiesto non poco lavoro (e io ne so pure qualcosa, visto che ci sono passato, per le competenze che mi riguardano; non da ora, ma da parecchio tempo).
Aspettiamo che vengano fuori i dettagli, perché almeno io sono parecchio interessato a vedere cos'hanno tirato fuori (dunque sono a digiuno anch'io di notizie in merito).
Ciao
fraussantin
07-08-2015, 08:27
I telefonini octacore di cui parli hanno prestazioni paragonabili ai quad core proposti da Intel per il desktop? No. Nemmeno per sogno.
La risposta credo che te la sia data tu stesso: come gli octacore sono poco utilizzati nei telefonini, lo sono anche i quad core nei PC desktop.
Il motivo è semplice: alla massa, che fa tanto mainstream, quattro core, sono grasso che cola. E non sto nemmeno tirando in ballo gli i7 coi suoi 8 thread hardware.
Ovviamente per gli "entusiast" ci sono soluzioni ad hoc. Ci sono gli i7, infatti, nonché le versioni esa e octa core (che poi sono degli Xeon, perché alla fine, gira e rigira, è quello il reale target di mercato: workstation).
Dunque ci sono apposite fasce di mercato, che Intel copre come meglio può.
IMO non ha senso sdoganare 6, 8, o più core alla massa, perché non se ne farebbe niente. Come non se ne fanno niente gli sviluppatori che devono realizzare software per la massa, vuoi anche per i ben precisi limiti di cui ho discusso prima.
Quando le esigenze degli "entusiast" attuali diventeranno mainstream, credo che Intel si adeguerà.
Per il resto lancio una riflessione, e poi vado lavoro (e a ruota in vacanza: dunque non aspettatevi risposte da me in tempi brevi, se serviranno): davvero credete che a Intel piaccia investire miliardi di dollari in ricerca & sviluppo per realizzare nuove architetture, se poi alla fine "nasconderebbe" un enorme potenziale? Chi glielo farebbe fare? Soprattutto visto che la concorrenza in ambito PC latita. Gli azionisti sarebbero ben contenti di incassare più dividendi anziché spendere soldi "inutili" in R & S.
Invece Skylake è, per qualche si sa, un'architettura nuova, che ha richiesto non poco lavoro (e io ne so pure qualcosa, visto che ci sono passato, per le competenze che mi riguardano; non da ora, ma da parecchio tempo).
Aspettiamo che vengano fuori i dettagli, perché almeno io sono parecchio interessato a vedere cos'hanno tirato fuori (dunque sono a digiuno anch'io di notizie in merito).
Ciao
Si ma il succo è sempre lo stesso , non è se serve o se non serve . È che in campo mobile ogni anni ti danno un prodotto molto superiore allo stesso prezzo anzi forse a meno . E il prodotto vecchio viene svenduto .
Serva o non serva almeno i soldi che cacci fuori sono ripagati .
E questo grazie alla concorrenza .
Qui intel si gongola non solo non calando di un centesimo i prodotti vecchi di 2 anni , ma addirittura fa uscire sempre la solita zolfa per mantenere il piu lento possibile il progresso tecnologico su pc .
E per il discorso enthusiast l'ho detto prima che finché i 6 core restano tali è normale che nessuno sviluppi per essi.
Nelson Muntz
07-08-2015, 09:03
La scheda grafica integrata per me ha avuto un solo (ma fondamentale!) significato: pararsi le chiappe quando va male il flash del bios delle schede vga discrete! :ciapet:
Piedone1113
07-08-2015, 09:37
I telefonini octacore di cui parli hanno prestazioni paragonabili ai quad core proposti da Intel per il desktop? No. Nemmeno per sogno.
La risposta credo che te la sia data tu stesso: come gli octacore sono poco utilizzati nei telefonini, lo sono anche i quad core nei PC desktop.
Il motivo è semplice: alla massa, che fa tanto mainstream, quattro core, sono grasso che cola. E non sto nemmeno tirando in ballo gli i7 coi suoi 8 thread hardware.
Ovviamente per gli "entusiast" ci sono soluzioni ad hoc. Ci sono gli i7, infatti, nonché le versioni esa e octa core (che poi sono degli Xeon, perché alla fine, gira e rigira, è quello il reale target di mercato: workstation).
Dunque ci sono apposite fasce di mercato, che Intel copre come meglio può.
IMO non ha senso sdoganare 6, 8, o più core alla massa, perché non se ne farebbe niente. Come non se ne fanno niente gli sviluppatori che devono realizzare software per la massa, vuoi anche per i ben precisi limiti di cui ho discusso prima.
Quando le esigenze degli "entusiast" attuali diventeranno mainstream, credo che Intel si adeguerà.
Per il resto lancio una riflessione, e poi vado lavoro (e a ruota in vacanza: dunque non aspettatevi risposte da me in tempi brevi, se serviranno): davvero credete che a Intel piaccia investire miliardi di dollari in ricerca & sviluppo per realizzare nuove architetture, se poi alla fine "nasconderebbe" un enorme potenziale? Chi glielo farebbe fare? Soprattutto visto che la concorrenza in ambito PC latita. Gli azionisti sarebbero ben contenti di incassare più dividendi anziché spendere soldi "inutili" in R & S.
Invece Skylake è, per qualche si sa, un'architettura nuova, che ha richiesto non poco lavoro (e io ne so pure qualcosa, visto che ci sono passato, per le competenze che mi riguardano; non da ora, ma da parecchio tempo).
Aspettiamo che vengano fuori i dettagli, perché almeno io sono parecchio interessato a vedere cos'hanno tirato fuori (dunque sono a digiuno anch'io di notizie in merito).
Ciao
Ciao Cesare e buone vacanze.
Come gia scritto in altra discussione condivido pienamente il tuo pensiero.
Per dare una spinta all'ipc ci sono poche strade percorribili (con le attuali tecnologie) e tutte hanno come fattore comune ipc a tutti i costi
senza badare a spese.
Quindi mi chiedo per utenza consumer-pro sarebbe un progresso innalzare l'ipc di un +20% con un raddoppio dei costi?
Ma si potrebbe arrivare anche a +1% ipc con costo 10x
tuttodigitale
07-08-2015, 10:25
le 980Ti/Titan X sono mediamente il 25% piu efficienti.
per l'appunto si parla solo del 25%, differenza che verrà ampiamente recuperata con la fury nano. Non di n-mila come voleva fa credere l'utente che ho quotato
FirePro 9100
275 W
5.24 Tflops SP - 52,48 W/Tflops
2.62 Tflops DP - 104,96 W/Tflops
Tesla K80
300W
8.74 Tflops SP - 34,32 W/Tflops
2.91 Tflops DP - 103,09 W/Tflops
parlavo di gpu, non di schede grafiche.
bello sforzo aumentare le prestazioni per watt sacrificando pesantemente quelle di una singola gpu: 6, 03GFlops/mmq vs 2,65 Gflops/mmq..Ti rendi conto che nonostante il clock da gpu mobile le tesla k80 nella doppia precisione non fanno meglio (poi c'è da valutare anche lo scarso rendimento nel gpgpu di kepler rispetto a GCN e maxwell)
di quali modelli parli in particolare ?
a10 7800 vs i3 2120
CrapaDiLegno
07-08-2015, 10:26
Per il discorso quad vs octa core, AMD già vende octacore. Purtroppo per loro hanno un IPC di merda e consumano un botto, ma Intel non è AMD e potrebbe benissimo trasformare gli i7+HT in octacore reali.
Se a nessuno servisse 8 core (logici o fisici che siano) nessuno acquisterebbe gli i7. Invece li vendono.
Quindi la soluzione per avere più potenza di calcolo a chi serve veramente, senza scomodare piattaforme enthusiast dai costi elevati, sarebbe quella di mettere 8 core fisici (anche senza HT, se giustamente Intel non vuole andare in concorrenza con se stessa nel mondo server). A quel punto si vedrebbero le prestazioni multithreading salire di parecchio (perché per quanto le prestazioni dell'HT non raddoppiano quasi mai, e la cosa è evidente quando gli octacore di AMD che in single thread fanno ridere, con 8 core si avvicinano molto alle prestazioni degli i7 pur tenendo conto dei problemi che un modulo AMD ha, vedi sotto).
Per quanto riguarda la compilazione del codice apposta per l'architettura AMD per vedere le prestazioni salire, direi che non è assolutamente così semplice.
AMD ha fatto un'architettura ibrida e personalmente parlando, stupida.
Un modulo condivide parecchie cose tra i due core, impedendo al codice che vi gira sopra di andare al massimo, come se fossero 2 core separati. Quindi quando hai due thread in parallelo, farli girare su un modulo unico non raddoppia la potenza di calcolo. Viceversa distribuire i thread su 2 moduli separati significa consumare molta più energia (il secondo modulo sarebbe potuto starsene spento) e ancora non avere il massimo perché i dati vanno sincronizzati tra le cache L2 separate dei due moduli passando per la L3.
Insomma, una vera minchiat@, se mi è consentito. Testimone di ciò sono le famose patch per Windows che avrebbero dovuto migliorare l'esecuzione dei programmi su BD, ma che in effetti non hanno portato alcun vantaggio. Il problema sta nell'architettura, non nello scheduler.
Un octacore nativo Intel darebbe la pista all'attuale architettura 8 core di AMD. Ma è ovvio che Intel per ora non ci pensa assolutamente, dato che già con il 4+4 va molto meglio. Ma non è certo il massimo ottenibile.
Se mi è consentita una previsione, nel momento in cui Zen (e ci spero tanto) riuscirà a colmare il gap dell'IPC e AMD rilascerà octacore sui processori mainstream, vedremo Intel fare lo stesso. Poi torneremo a discutere sul fatto che siano o meno utili e rivedremo tutti i bla bla bla che stiamo facendo ora.
Di certo è che se non c'è incentivo, non c'è la volontà di fare qualcosa di meglio se non il minimo indispensabile.
Cesare, per quanto Intel abbia investito in Skylake, di certo non si è impegnata quanto avrebbe potuto se come vedo da tutti i test, Skylake a 14nm va il 20% il più del mio Ivy Bridge consumando praticamente uguale (stessa frequenza). E' evidente che Skylake avrà dei vantaggi in altri contesti, ma su desktop Intel ha realizzato il minimo indispensabile. Magari le versioni server o quelle mobile di questa architettura faranno sfracelli, ma su desktop anche se non fosse stata presentata non credo che a qualcuno sarebbe mancata, visto i risultati.
E non dimentichiamo quanto Intel ancora sia conservativa con le sue linee PCI-e sui desktop. Per avere un tri SLI è necessario o la piattaforma enthusiast (e via di money) oppure aggiungere un bridge sulla motherboard (altri money, seppur molti meno).
Tutti questi fatti non possono che far pensare che Intel sta avanzando con il freno a mano tirato da diverso tempo e senza una vera concorrenza non ci sarà possibilità di migliorare la situazione... anzi...
Quel che mi sembra palese è che i 14nm sono venuti veramente male ad Intel. Broadwell neanche lo abbiamo visto su desktop se non come 2 SKU prototipali per Skylake, e questo SkyLake ha consumi che non sono certo in linea con quello che ci si aspettava da uno shrink 22->14nm. Questo non fa ben sperare nel PP analogo delle altre fonderie... che vuol dire GPU a 16nm FF per TMSC e CPU AMD a 14nm FF per GF... ma magari, ed è la speranza, è solo un problema di Intel.
tuttodigitale
07-08-2015, 10:42
e bè, fino al Core Quad è stata una pacchia visto che ogni anno aumentavano il TDP...
ma anche no..
con il passaggio da 65 ai 45nm, AMD è riuscita ad aumentare il numero di core del 50% e la frequenza del 27% e ha abbassato il tdp di 15W (-11%), questi sono tre risultati assolutamente indipendenti dall'architettura, che era ottima fin da subito (tranne per il bug del TLB).
Intel con il passaggio dai 45 ai 32 nm è riuscita ad aumentare il 50% il numero di core, utilizzando la solita architettura (nehalem). In fin dei conti il debacle di bulldozer è da imputare al gap venutasi a creare con i 32nm bulk di intel, più che ai progressi dovuti dall'adozione di SB.
Dai 32 ai 22nm, intel è riuscita ad aumentare il numero dei core solo del 33%, sacrificando però 500 MHz (-14%)..
con i 14nm, sembra che non ci siano benefici diretti, e l'aumento di prestazione è attribuibile solo ad aumentato ipc: 5,7% rispetto ad haswell secondo anandtech, che in realtà sembrano un pò troppo miseri ricordando che questo è un tock (skylake è due generazioni successive ad haswell).
Sembra che la pacchia dell'aumento delle prestazioni dovuto all'aumento della frequenza e dei core e la riduzione dei consumi sia finita anche per il bulk di Intel. Almeno che con i 10 nm, non ci sia un inversione di tendenza, il monopolio Intel è destinato a finire. a livello prestazionale potrebbe condizionare davvero poco l'adozione di un 20nm HP invece di un 10nm finfet.
CrapaDiLegno
07-08-2015, 10:49
per l'appunto si parla solo del 25%, differenza che verrà ampiamente recuperata con la fury nano. Non di n-mila come voleva fa credere l'utente che ho quotato
parlavo di gpu, non di schede grafiche.
bello sforzo aumentare le prestazioni per watt sacrificando pesantemente quelle di una singola gpu: 6, 03GFlops/mmq vs 2,65 Gflops/mmq..Ti rendi conto che nonostante il clock da gpu mobile le tesla k80 nella doppia precisione non fanno meglio (poi c'è da valutare anche lo scarso rendimento nel gpgpu di kepler rispetto a GCN e maxwell)
Non ho capito bene il tuo discorso sulla questione efficienza.
Cioè, il GK110 non sarebbe una buona GPU perché fa meno GFLOPS/mm^2 rispetto ad Hawaii e poi fai il paragone tra il GM200 e la Fury Nano?
Mica ho capito, davvero. Vuoi paragonare 600mm^2 di puro silicio con 600mm^2 di silicio + HBM + Interposer con castrazione e downclock e dimostrare così che il secondo è più efficiente del primo? Stai scherzando vero? Solo per il risparmio introdotto dall'HBM il confronto efficienza della sola GPU è perso in partenza.
Inutile che ti arrabatti nel cercare un modo di far venire fuori GCN come un'architettura competitiva. Non lo è. I numeri parlano chiaro. Più silicio, più consumi, meno prestazioni. Punto. Fine. AMD deve cambiare con la prossima generazione (dove anche nvidia comincerà ad usare l'HBM, quindi niente più bonus speciale per AMD) o è spacciata come lo è nel mondo delle CPU. Non si fanno soldi, progresso e innovazione realizzando prodotti che costano di più e vanno meno per poi doverli svendere. AMD con GCN non vende né nel mercato server (dove in teoria GCN sarebbe dovuta entrare, altrimenti stava meglio con la VLIW che eramolto più efficiente nei giochi) né nel mercato mobile, dove in termini di consumo non si avvicinava a Kepler ed è distantissima da Maxwell. E secondo le ultime trimestrali di entrambe le aziende non vende neanche tanto bene nel mercato desktop.
Il rimanere a ruota dovendo svendere un prodotto che le costa di più della concorrenza è la storia di AMD nel mercato GPU da quando è stato introdotto GCN ed da quando ha presentato il Phenom nel mercato delle CPU.
Il risultati sono visibili a tutti. Finiamola di fare i fanboy a strenua difesa dell'indifendibile. AMD deve darsi una seria svegliata in entrambi i mercati.
tuttodigitale
07-08-2015, 11:00
In realtà anche AMD non è che non li cambiasse, anzi. Dal 2006 al 2011 è passata da AM2 ad AM3+, quindi 4 socket.
Per il resto non mi aspetto neanche io faville da Zen, anzi. Secondo me avremo delle sorprese dell'ultim'ora (tipo il PP di GF che fa schifo). Me la vedo gia arrivare
NI, passi l'am3+, ma tutte le cpu AM3/AM2+ sono compatibili con le mamme AM2, con l'unico effetto negativo di non avere una tensione differente per il memory controller (circa 15W di tdp in più).
Se non sei passato da un athlon x2 ad un phenom x6, la colpa è esclusivamente del produttore della motherboard, che non ha aggiornato il firmware.
AceGranger
07-08-2015, 11:06
per l'appunto si parla solo del 25%, differenza che verrà ampiamente recuperata con la fury nano. Non di n-mila come voleva fa credere l'utente che ho quotato
ah bè, "solo" del 25% :asd:
parlavo di gpu, non di schede grafiche.
bello sforzo aumentare le prestazioni per watt sacrificando pesantemente quelle di una singola gpu: 6, 03GFlops/mmq vs 2,65 Gflops/mmq..Ti rendi conto che nonostante il clock da gpu mobile le tesla k80 nella doppia precisione non fanno meglio (poi c'è da valutare anche lo scarso rendimento nel gpgpu di kepler rispetto a GCN e maxwell)
non ho capito se sei serio o cosa, perchè è un discorso senza senso :mbe:
tu compri i chip o le schede video fatte e finite ?
non so, ti rendi conto che nello stesso spazio nVidia offre una GPU che è egualmente efficiente nei calcoli DP e schifosamente migliore nei calcoli SP ?
i risultati intanto si vedono, nVidia con le GPU piu efficienti vende a vagonate, e AMD è li che prende banane anche in ambito Gaming; in quello Pro non ne parliamo, le FirePro le trovi giusto nei cataloghi perche i volumi di vendita di Quadro e Tesla non li vedono nemmeno con il telescopio, altro che binocolo.
a10 7800 vs i3 2120
serve veramente ancora ribadire che il TDP è a scaglioni.... ?
l'a10 7800
consumo effettivo 110W
die size 245mm2
l'i3 2120
consumo effettivo 65W
die size 131mm2
consumi Legitreviews
die size Anandtech
un i3 ha una die size schifosamente piu piccolo e consuma quasi la meta, vedi tu.
tuttodigitale
07-08-2015, 11:21
In realtà anche AMD non è che non li cambiasse, anzi. Dal 2006 al 2011 è passata da AM2 ad AM3+, quindi 4 socket.
Per il resto non mi aspetto neanche io faville da Zen, anzi. Secondo me avremo delle sorprese dell'ultim'ora (tipo il PP di GF che fa schifo). Me la vedo gia arrivare
NI, passi l'am3+, ma tutte le cpu AM3/AM2+ sono compatibili con le mamme AM2, con l'unico effetto negativo di non avere una tensione differente per il memory controller (circa 15W di tdp in più).
Se non sei passato da un athlon x2 ad un phenom x6, la colpa è esclusivamente del produttore della motherboard, che non ha aggiornato il firmware.
Cioè, il GK110 non sarebbe una buona GPU perché fa meno GFLOPS/mm^2 rispetto ad Hawaii
dove ho detto che gk110 non è una buona gpu? Ho detto semplicemente che aumentare l'efficienza riducendo, in questo caso in maniera drastica, la potenza per mmq, non è una cosa così originale. Se dobbiamo fare il confronto lo si fa mele con mele, schede grafiche a singola gpu.
poi fai il paragone tra il GM200 e la Fury Nano?
Mica ho capito, davvero.
Non è un discorso a se stante.. Dicevo che secondo slide AMD guadagnerà il 30-35% di efficienza con la fury nano, principalmente grazie ad un riduzione del clock. Sacrificare anche un poco le prestazioni per mmq permettono un grande aumento dell'efficienza (per tale ragione sono nate le cpu multi-core o sbaglio?)
Inutile che ti arrabatti nel cercare un modo di far venire fuori GCN come un'architettura competitiva. Non lo è. I numeri parlano chiaro. Più silicio, più consumi, meno prestazioni. Punto.
i numeri dicono che Fiji è un chip squilibrato, probabilmente proprio in virtù dei 600mmq, limite fisico dei 65nm dell'interposer, tanto che si stima che siano almeno il 25% le alu inutilizzate nei giochi odierni.
né nel mercato mobile, dove in termini di consumo non si avvicinava a Kepler ed è distantissima da Maxwell. E
secondo te se in un SoC da 15W con 4 core excavator da 2,1GHz di base, una igp di 512sp che riesce a girare a 733 MHz, sempre di base, è distantissima da maxwell? Quanti W avrà a disposizione? 7-10Watt? Ti rendi conto delle m. che stai scrivendo?
In quel TDP cosa vende nvidia, visto che è anni luce avanti? sono davvero curioso.
CrazyDog
07-08-2015, 11:34
quando usciranno i modelli meno costosi i3-pentium-celeron?
[K]iT[o]
07-08-2015, 11:34
Perfetto, un altro anno sto apposto col 2600k.
AceGranger
07-08-2015, 11:45
ma anche no..
con il passaggio da 65 ai 45nm, AMD è riuscita ad aumentare il numero di core del 50% e la frequenza del 27% e ha abbassato il tdp di 15W (-11%), questi sono tre risultati assolutamente indipendenti dall'architettura, che era ottima fin da subito (tranne per il bug del TLB).
Intel con il passaggio dai 45 ai 32 nm è riuscita ad aumentare il 50% il numero di core, utilizzando la solita architettura (nehalem). In fin dei conti il debacle di bulldozer è da imputare al gap venutasi a creare con i 32nm bulk di intel, più che ai progressi dovuti dall'adozione di SB.
Dai 32 ai 22nm, intel è riuscita ad aumentare il numero dei core solo del 33%, sacrificando però 500 MHz (-14%)..
con i 14nm, sembra che non ci siano benefici diretti, e l'aumento di prestazione è attribuibile solo ad aumentato ipc: 5,7% rispetto ad haswell secondo anandtech, che in realtà sembrano un pò troppo miseri ricordando che questo è un tock (skylake è due generazioni successive ad haswell).
Sembra che la pacchia dell'aumento delle prestazioni dovuto all'aumento della frequenza e dei core e la riduzione dei consumi sia finita anche per il bulk di Intel. Almeno che con i 10 nm, non ci sia un inversione di tendenza, il monopolio Intel è destinato a finire. a livello prestazionale potrebbe condizionare davvero poco l'adozione di un 20nm HP invece di un 10nm finfet.
:mbe: :confused: ?
guarda che i conti li devi fare con le architetture Server, il fatto che non te li dia in ambito desktop è perchè la concorrenza dorme; il massimo che puoi tirare fuori dal processo produttivo e dall'architettura lo vedi li.
anche se ha poco senso guardare solo il numero di corea, Intel a 32nm è arrivata a 8 core ( lasciando fuori gli Xeon E7 ) e a 22nm a 18 core.
oltretutto, a differenza di AMD, Intel ha integrato il PCI-EX e il triple o Quad Channel, e scusa se è poco.
poi non puoi prendere solo il numero di core e la frequenza senza guardare l'IPC... visto che presi cosi sono 2 numeri a vanvera; basta prendere in mano i bench per vedere che i 6 core di AMD erano comuqnue meno prestati dei 4 core Intel, anche se almeno reggevano meglio rispetto a quel bidone di bulldozer.
sia AMD che Intel hanno raggiunto la fascia limite dei 120-140 W; da li non si scappa, c'è la mosca bianca a 150 W ma non è piu come prima che si regalavano W ad ogni architettura nuova...
CrapaDiLegno
07-08-2015, 11:48
dove ho detto che gk110 non è una buona gpu? Ho detto semplicemente che aumentare l'efficienza riducendo, in questo caso in maniera drastica, la potenza per mmq, non è una cosa così originale. Se dobbiamo fare il confronto lo si fa mele con mele, schede grafiche a singola gpu.
Ma nvidia la può fare di mezzo chilometro quadrato se vuole. Il fatto è che nvidia non svende i suoi prodotti. Il GK110 è venduto per quello che le costa. E se nvidia lo vende al prezzo giusto mentre AMD ha i magazzini pieni di Hawaii in svendita, ci sarà un motivo, no?
O volgiamo giustificare la cosa con qualche altro parametro inventato al momento di sana pianta, così, tanto per mostrare qualche cifra a caso?
Non è un discorso a se stante.. Dicevo che secondo slide AMD guadagnerà il 30-35% di efficienza con la fury nano, principalmente grazie ad un riduzione del clock. Sacrificare anche un poco le prestazioni per mmq permettono un grande aumento dell'efficienza (per tale ragione sono nate le cpu multi-core o sbaglio?)
E' un discorso a se stante un paio di @@.
Stai usando lo stesso principio di prima valutandolo in modo diverso. Se nvidia fa una GPU in cui punta sull'efficienza a discapito del die size, allora non è una "novità" né un merito. Se invece AMD fa una CPU delle stesse dimensioni, usando tecnologia super costosa che pure le fanno indirettamente risparmiare diversi Watt, downclocca e fa fatica comunque a rimanere al passo, allora la cosa è da vedersi come un vantaggio.
Forse non hai capito che per quanto la Fury potrà arrivare all'efficienza di Maxwell, le sue prestazioni saranno diversi passi indietro. Fai prima a comparare l'efficienza di Pitcairn con quella del GM200... almeno Pitcairn costa una frazione seppur con prestazioni molto inferiori.
i numeri dicono che Fiji è un chip squilibrato, probabilmente proprio in virtù dei 600mmq, limite fisico dei 65nm dell'interposer, tanto che si stima che siano almeno il 25% le alu inutilizzate nei giochi odierni.
Il limite dei 600mm^2 non sono dell'interposer, che infatti è di oltre 1000mm^2. Lo squilibrio di Fiji dipende solo dal fatto che AMD ha voluto costruire in fretta e furia una GPU che usasse l'HBM senza aver ben pensato a tutto. Io ho sempre sostenuto che fosse una mossa "dell'ultimo minuto" per tentare di sparigliare le carte. Sarebbe stato un colpo favoloso se l'ultimo chip realizzato a 28nm avesse dato un sonoro scoppolone al GM200. Un vantaggio (in termini di immagine più che altro) che sarebbe durato diversi mesi.
E invece, neanche con l'uso di tecnologia super costosa che dà vantaggi in termini di consumo è riuscita a pareggiare efficienza e prestazioni. Solo questo la dice lunga sulla qualità dell'architettura GCN.
secondo te se in un SoC da 15W con 4 core excavator da 2,1GHz di base, una igp di 512sp che riesce a girare a 733 MHz, sempre di base, è distantissima da maxwell? Quanti W avrà a disposizione? 4-8Watt? Ti rendi conto delle m. che stai scrivendo?
Ma che minghia stai paragonando? Una APU con una GPU? Una GPU grande come la punta di uno spillo con una grande come una carta di credito?
Ma fai i confronti come si deve senza scomodare roba di cui ti devi inventare i presunti consumi o altro. Piglia le GPU di AMD sul mercato. E dimmi una, e ripeto una, che ha le prestazioni/consumi di quella "minchietta" di GM107 (aka 750Ti). Che è la versione 1.0 di Maxwell. Poi prendi il catalogo intero di AMD, pure quelle delle APU dell'anno prossimo e vedi quale riesce a fare le prestazioni/consumi/die space del GM206.
Chi sta dicendo minchi@te per cercare di dimostrare quello che non è possibile usando 2 neuroni e facendo i confronti nel modo corretto?
Quando arriverai a capire che GCN è stato un fallimento per AMD, ti renderai anche conto del perché dal 37-38% di market share ora ne ha la metà. Forse.
E il mercato professionale/server è sempre una chimera. GCN non è certo nato per fare andare i giochini.. per quello bastava e avanzava la vecchia architettura VLIW che era più efficiente, più piccola e quindi le dava maggiori margini di guadagno rispetto a GCN venduto solo ed esclusivamente nel mondo videoludico.
L'investimento nel mm^2 (e Watt) aggiunti a Terascale non ha prodotto un equivalente valore aggiunto alle sue schede né nel mercato videoludico (dove ha sempre inseguito dalla presentazione di GCN) né in quello professionale, dove era destinato. Tanti miliardi di milioni seguiti da altrettanto zeri di capacità di calcolo a 64bit per cosa? Finire a far girare GTA V? Investimeto utile, davvero. Che una volta di più mostra quanto GCN sia stato un flop.
AceGranger
07-08-2015, 11:52
doppio
CrapaDiLegno
07-08-2015, 12:19
Tanto per non farti scomodare, questa è l'efficienza di Hawaii quando è portato a tentare di colmare il gap prestazionale sulla 390X di un chip che è grande 50mm^2 in meno (il GM204 montato sulle GTX980)
http://www.techpowerup.com/reviews/MSI/R9_390X_Gaming/31.html
Qui non ci sono HBM e raffreddamenti a liquido a fare da aiuto ai consumi. Al tuo 25% di efficienza dichiarata migliore da parte di nvidia manca giusto uno zero in fondo...
E non che la versione meno pomapata della 290X fosse tanto meglio....
Questo è quello che è GCN rispetto a Maxwell e Kepler.
Ripeto, speriamo che non sia con questa architettura che AMD voglia fare concorrenza a nvidia nella prossima generazione.
risparmiamo i soldini e vi lamentate :O
CrapaDiLegno
07-08-2015, 13:37
risparmiamo i soldini e vi lamentate :O
I soldini li puoi sempre risparmiare quando vuoi non comprando.
Quello di cui ci si lamenta è che chi vuole più potenza di elaborazione, anche avendo i soldini a disposizione, è da 6 anni che è fermo al palo. A meno di non avere tanti e di più soldini a disposizione.
I soldini li puoi sempre risparmiare quando vuoi non comprando.
Quello di cui ci si lamenta è che chi vuole più potenza di elaborazione, anche avendo i soldini a disposizione, è da 6 anni che è fermo al palo. A meno di non avere tanti e di più soldini a disposizione.
la potenza attuale basta e avanza :O
Per il resto lancio una riflessione, e poi vado lavoro (e a ruota in vacanza: dunque non aspettatevi risposte da me in tempi brevi, se serviranno): davvero credete che a Intel piaccia investire miliardi di dollari in ricerca & sviluppo per realizzare nuove architetture, se poi alla fine "nasconderebbe" un enorme potenziale? Chi glielo farebbe fare? Soprattutto visto che la concorrenza in ambito PC latita. Gli azionisti sarebbero ben contenti di incassare più dividendi anziché spendere soldi "inutili" in R & S.
Beh, la risposta mi sembra essere molto semplice.
Un conto è continuare a vendere un i5 a 180€, un conto vendere un 6 core a quel prezzo.
Chiaramente il margine di guadagno è superiore.
Sia chiaro, Intel non è una onlus e ha tutto il diritto e dovere di fare quello che sta facendo, siccome AMD non è capace di tirare fuori nulla di altrettanto competitivo. Ma sono certo che se ad oggi avessimo avuto un minimo di competizione, intel se lo sognava di vendere gli i5 a 180€ come 5 anni fa
serve veramente ancora ribadire che il TDP è a scaglioni.... ?
l'a10 7800
consumo effettivo 110W
die size 245mm2
l'i3 2120
consumo effettivo 65W
die size 131mm2
consumi Legitreviews
die size Anandtech
un i3 ha una die size schifosamente piu piccolo e consuma quasi la meta, vedi tu.
Si, ma ha anche un'integrata imbnarazzantemente schifosa. E cmq basta prendere un 7600 per fare il confronto, non serve un 7800 che ha un'altra fascia di TDP
AceGranger
07-08-2015, 16:16
Si, ma ha anche un'integrata imbnarazzantemente schifosa. E cmq basta prendere un 7600 per fare il confronto, non serve un 7800 che ha un'altra fascia di TDP
si ma:
- l'i3 è uscito nel 2011 il 7800 nel 2014, la dimensione delle GPU è proporzionale all'anno di uscita, visto che 3 anni fa non si spingeva cosi tanto sulla iGPU;
- i consumi sono della parte CPU
- e non li ho scelti io, li ha scelti l'utente perche avevano lo stesso TDP....
il rapporto prestazione/euro è inferiore alla precedente generazione?
Per adesso si, ma ne sono usciti solo 2 da 1 giorno.
Dagli tempo 1 mesetto per avere la disponibilità nei negozi e stabilizzarsi i prezzi.
si, si sa nulla su ipotetici "I3" sky o celeron sky?
CrazyDog
08-08-2015, 15:54
si, si sa nulla su ipotetici "I3" sky o celeron sky?
interessano anche a me, ho letto che si vedrà qualcosa a settembre
CrapaDiLegno
08-08-2015, 19:42
Puoi sempre comprare uno xeon E7-8890 :rolleyes:
Oh, sì, certo, non ci avevo pensato... vado a vendere la macchina così riesco a permettermi 15 core... :rolleyes:
18 core :read:
http://ark.intel.com/products/84685/Intel-Xeon-Processor-E7-8890-v3-45M-Cache-2_50-GHz
Comunque era per dire che le prestazioni non sono ferme, semplicemente non c'è necessità di introdurle nel mercato consumer.
La prima non necessità è dal lato del produttore che non avendo concorrenza non ha necessità di alzare l'asticella.
La seconda non necessità è dal lato del software, tolte cose professionali (e anche li è poca roba) tutto il resto non sa che farsene di cpu più potenti.
Il settore che richiede più potenza in ambito casalingo è il gaming e a chi serve più di un i7 in gaming? uno che fa un quad xfire di fury x? 1 su un miliardo?
Ma tecnicamente si va avanti eccome.Direi la prima che hai detto, la seconda è molto relativa.
Il detto che con il "sw attuale non serve più potenza" è una frase ricorrente non del tutto veritiera, visto che in realtà ci si adatta a ciò che si ha, e pure le SH spesso si adattano. Però quando c'era concorrenza e ad ogni generazione si aveva un incremento prestazionale significativo, per quanto anche allora "non servisse", nel tempo ci si accorgeva che quegli incrementi si sentivano, eccome.
Eppure lo si diceva per le VGA, per le CPU, per la quantità di RAM, poi ti facevi il PC nuovo e ti accorgevi che era una scheggia, rispetto a quello vecchio.
Piedone1113
08-08-2015, 20:36
Direi la prima che hai detto, la seconda è molto relativa.
Il detto che con il "sw attuale non serve più potenza" è una frase ricorrente non del tutto veritiera, visto che in realtà ci si adatta a ciò che si ha, e pure le SH spesso si adattano. Però quando c'era concorrenza e ad ogni generazione si aveva un incremento prestazionale significativo, per quanto anche allora "non servisse", nel tempo ci si accorgeva che quegli incrementi si sentivano, eccome.
Eppure lo si diceva per le VGA, per le CPU, per la quantità di RAM, poi ti facevi il PC nuovo e ti accorgevi che era una scheggia, rispetto a quello vecchio.
Assolutamente falso.
Le software house non si adattano a quello che esiste, ma piuttosto è l'hardware che insegue i programmi scritti con i piedi.
E software scritto con i piedi gira ugualmente male sia che tu abbia 4 core sia che tu ne abbia 40.
Oltretutto tranne rari rarissimi casi, applicativi che scalano bene allo scalare dei core sono pochissimi, e sono unici i software consumer che sfruttano un 6 core.
Puoi avere anche 16 core , ma se i thread che girano sugli altri core aspettano i risultati che girano sul core 1 per il 90% del tempo avere un quad core o un 16 core non porta differenze, anzi abbassa anche l'efficienza dell'esecuzione sia per le latenze maggiori, sia per le frequenze più basse.
Una cpu non è una vga, il software che gira su vga può creare tanti th quante unità di elaborazioni sono disponibili, quali software che necessitano di girare only cpu conosci che hanno tale possibilità senza dover aspettare dipendenze dai th madre?
Assolutamente falso.
Le software house non si adattano a quello che esiste, ma piuttosto è l'hardware che insegue i programmi scritti con i piedi.
E software scritto con i piedi gira ugualmente male sia che tu abbia 4 core sia che tu ne abbia 40.
Oltretutto tranne rari rarissimi casi, applicativi che scalano bene allo scalare dei core sono pochissimi, e sono unici i software consumer che sfruttano un 6 core.
Puoi avere anche 16 core , ma se i thread che girano sugli altri core aspettano i risultati che girano sul core 1 per il 90% del tempo avere un quad core o un 16 core non porta differenze, anzi abbassa anche l'efficienza dell'esecuzione sia per le latenze maggiori, sia per le frequenze più basse.
Una cpu non è una vga, il software che gira su vga può creare tanti th quante unità di elaborazioni sono disponibili, quali software che necessitano di girare only cpu conosci che hanno tale possibilità senza dover aspettare dipendenze dai th madre?
Penso che dire che il SW si adatta all'HW (e viceversa), sia cosa conclamata: nessuna SH farebbe del SW sapendo in partenza che non funzionerebbe sul parco HW attuale, a meno di essere masochisti.
In ogni caso era un inciso su cui si potrebbe discutere all'infinito (della serie se è nato prima l'uovo o la gallina), la questione era invece che, a mio avviso, il detto "al momento attuale non serve più potenza", è una frase ricorrente non veritiera, perché alla fine, quando hai più potenza, poi la sfrutti e anche le SH sanno di poter contare su HW più potente. Sembra ogni volta che più potenza sia inutile, poi quando ci si fa il PC nuovo, ci si accorge che gli incrementi prestazionali portano risultati tangibili.
CrapaDiLegno
08-08-2015, 23:57
Comunque era per dire che le prestazioni non sono ferme, semplicemente non c'è necessità di introdurle nel mercato consumer.
La prima non necessità è dal lato del produttore che non avendo concorrenza non ha necessità di alzare l'asticella.
La seconda non necessità è dal lato del software, tolte cose professionali (e anche li è poca roba) tutto il resto non sa che farsene di cpu più potenti.
Il settore che richiede più potenza in ambito casalingo è il gaming e a chi serve più di un i7 in gaming? uno che fa un quad xfire di fury x? 1 su un miliardo?
Se può permettersi un xfire così può permettersi anche un esacore o uno xeon ancora più performante.
Ma tecnicamente si va avanti eccome.
Il fatto che non vi siano 8 core nel mercato consumer di Intel è dovuto al solo fatto che gli 8 core di AMD fanno cacare. Altrimenti oggi li avremmo già da un pezzo.
Poi non so voi che tipo di programmi e di potenza avete bisogno. Forse chi usa Office non gliene frega nulla di avere 2 o 4 o 8 core a disposizione. Chi non usa 8 core non ha bisogno di un i7. Chi ha un i7 è perché gli servono 8 core. A volte anche di più.
I programmi che uso io che hanno bisogno di potenza di calcolo sono tutti multithreading e sono ben felici di girare su 4, 8 o 16 core. E senza scomodare n mila thread, i programmi che oggi girano sugli i7 in modalità 4+4 girerebbero più velocemente se ci fossero 8 core fisici. Se poi fossero 8 core fisici + 8 logici ancora meglio, ma non pretendo tanto.
Ecco perché speravo tanto che BD con 8 core fisici fosse la svolta. Ora spero in Zen. O in una Intel che si svegli dal torpore per paura di Zen. Insomma, sto sperando che il mercato faccia il salto che fece quando passò dal monocore ai quad core.
Insomma, sto sperando che il mercato faccia il salto che fece quando passò dal monocore ai quad core.
Si, ma a quei tempi c'era ancora AMD nel mercato, con una fetta più piccola, ma rilevante. Peccato che si sia dovuto toccare con mano cosa significhi assenza di concorrenza per accorgersi di quanto fosse importante che AMD vi rimanesse da protagonista. E pensare che molti gioivano degli insuccessi di AMD, sperando che venisse relegata in un angolo... ed alcuni ancora lo fanno.
MiKeLezZ
09-08-2015, 04:55
Il fatto che non vi siano 8 core nel mercato consumer di Intel è dovuto al solo fatto che gli 8 core di AMD fanno cacare. Altrimenti oggi li avremmo già da un pezzo.
Poi non so voi che tipo di programmi e di potenza avete bisogno. Forse chi usa Office non gliene frega nulla di avere 2 o 4 o 8 core a disposizione. Chi non usa 8 core non ha bisogno di un i7. Chi ha un i7 è perché gli servono 8 core. A volte anche di più.
I programmi che uso io che hanno bisogno di potenza di calcolo sono tutti multithreading e sono ben felici di girare su 4, 8 o 16 core. E senza scomodare n mila thread, i programmi che oggi girano sugli i7 in modalità 4+4 girerebbero più velocemente se ci fossero 8 core fisici. Se poi fossero 8 core fisici + 8 logici ancora meglio, ma non pretendo tanto.
Ecco perché speravo tanto che BD con 8 core fisici fosse la svolta. Ora spero in Zen. O in una Intel che si svegli dal torpore per paura di Zen. Insomma, sto sperando che il mercato faccia il salto che fece quando passò dal monocore ai quad core.Veramente quello che ti serve sono solo motherboard con doppio socket (Dio solo sa perché, ma non me ne preoccupo)... facilmente reperibili nel reparto server (dove è giusto stiano!).
L'Hyperthreading di Intel non è paragonale a dei core fisici, serve solo ad ottimizzare le risorse disponibili, il tuo 4+4 è comunque un 4 core.
Quindi se stai estrapolando dati di funzionamento paragonando un 4+4 con un 4, mi duole informarti che potresti avere l'amara sorpresa che con un 8 core non otterresti alcun beneficio.
CrapaDiLegno
09-08-2015, 13:15
Veramente quello che ti serve sono solo motherboard con doppio socket (Dio solo sa perché, ma non me ne preoccupo)... facilmente reperibili nel reparto server (dove è giusto stiano!).
L'Hyperthreading di Intel non è paragonale a dei core fisici, serve solo ad ottimizzare le risorse disponibili, il tuo 4+4 è comunque un 4 core.
Quindi se stai estrapolando dati di funzionamento paragonando un 4+4 con un 4, mi duole informarti che potresti avere l'amara sorpresa che con un 8 core non otterresti alcun beneficio.
Potrei anche farmi un serve HPC, intanto che ci sono... cosa ci vorrà mai... ma capite quello che dite o no?
Mica sto chiedendo un sistema da 36 core ottimizzato per molti thread a basso carico computazionale, io sto parlando di sistemi che con relativamente pochi core macinino un sacco di numeri. E per questo scopo Intel si è inventata la fascia "enthusiast" da 1000 euro a CPU.
Quello che vorrei farvi comprendere è che è una cosa del tutto artificiale e che Intel può permettersi solo perché AMD ha fallito con BD.
Poi spiacente, ma su un 4+4 girano comunque 8 thread, non 4 ottimizzati (???) e quindi eseguirli su 8 core fisici girerebbero meglio che su 4 fisici + 4 logici (ottenuti usando i tempi di stallo di quelli fisici). Mi sa che hai detto una gran stupidata. Rivedi un p' come funziona l'HT di Intel.
MiKeLezZ
09-08-2015, 14:41
Potrei anche farmi un serve HPC, intanto che ci sono... cosa ci vorrà mai... ma capite quello che dite o no?
Mica sto chiedendo un sistema da 36 core ottimizzato per molti thread a basso carico computazionale, io sto parlando di sistemi che con relativamente pochi core macinino un sacco di numeri. E per questo scopo Intel si è inventata la fascia "enthusiast" da 1000 euro a CPU.
Quello che vorrei farvi comprendere è che è una cosa del tutto artificiale e che Intel può permettersi solo perché AMD ha fallito con BD.
Poi spiacente, ma su un 4+4 girano comunque 8 thread, non 4 ottimizzati (???) e quindi eseguirli su 8 core fisici girerebbero meglio che su 4 fisici + 4 logici (ottenuti usando i tempi di stallo di quelli fisici). Mi sa che hai detto una gran stupidata. Rivedi un p' come funziona l'HT di Intel.Secondo me non hai capito ciò che ho scritto.
La gente che se ne fa di 16 core?
Se a te servono, fatti un HPC.
Al massimo posso capire l'introduzione del HT anche sui processori di fascia bassa (perché non è un aumento di core per cui serve che i programmi siano riscritti per trarre beneficio del parallelismo aggiunto, ma è solo un miglioramento dello scheduling dei thread che vengono caricati sulla CPU... e che comunque vengono eseguiti solo uno per core fisico).
D'altronde lo vedi anche da ché 4 core intel danno la biada a 8 core AMD.
[K]iT[o]
09-08-2015, 14:47
E pensare che molti gioivano degli insuccessi di AMD, sperando che venisse relegata in un angolo... ed alcuni ancora lo fanno.
Mah non ho mai letto nessuno gioire degli insuccessi di AMD, al massimo ci sono persone che, come me, reputano comprare roba fatta da loro oggi una mezza fregatura, ma purtroppo è la verità.
Bruce Deluxe
09-08-2015, 15:23
Secondo me non hai capito ciò che ho scritto.
La gente che se ne fa di 16 core?
Se a te servono, fatti un HPC.
Al massimo posso capire l'introduzione del HT anche sui processori di fascia bassa (perché non è un aumento di core per cui serve che i programmi siano riscritti per trarre beneficio del parallelismo aggiunto, ma è solo un miglioramento dello scheduling dei thread che vengono caricati sulla CPU... e che comunque vengono eseguiti solo uno per core fisico).
D'altronde lo vedi anche da ché 4 core intel danno la biada a 8 core AMD.
Non portare tutto all'estremo, fra i 18 core degli xeon e i 4 che mediamente hanno le cpu consumer si potrebbe trovare un compromesso, iniziando intanto con 6 core per tutti, solo che come hai detto anche tu al momento non c'è ne l'interesse ne la volontà di farlo.
Non portare tutto all'estremo, fra i 18 core degli xeon e i 4 che mediamente hanno le cpu consumer si potrebbe trovare un compromesso, iniziando intanto con 6 core per tutti, solo che come hai detto anche tu al momento non c'è ne l'interesse ne la volontà di farlo.
Che non ci sia la volontà è chiaro, senza concorrenza che spinge Intel cerca di massimizzare i profitti col minimo sforzo.
Sul fatto del multicore però oramai dovrebbe essere chiaro a tutti che i guadagni sono limitati a pochi software soprattutto in campo di elaborazione grafica o di filmati e di rendering o a casi di multitasking spinto quindi o si fa uso intenso di questo tipo di programmi o i vantaggi sarebbero minimi se non nulli.
Purtroppo non tutti gli algoritmi possono essere parallelizzati e quindi non beneficiano affatto di avere a disposizione n core, uno ne usano e useranno sempre.
Quello che intendo è che magari potremmo avere processori a 8 core, ma che alla fine nella vita reale il beneficio sarebbe poco escludendo i casi di utilizzo specificati prima, di certo per chi fa elaborazioni grafiche o video di un certo livello sarebbero un bel passo avanti, ma per chi ne ha realmente bisogno già oggi le soluzioni anche se costose ci sono
Si, ma a quei tempi c'era ancora AMD nel mercato, con una fetta più piccola, ma rilevante. Peccato che si sia dovuto toccare con mano cosa significhi assenza di concorrenza per accorgersi di quanto fosse importante che AMD vi rimanesse da protagonista. E pensare che molti gioivano degli insuccessi di AMD, sperando che venisse relegata in un angolo... ed alcuni ancora lo fanno.
Ti rispondo per quanto riguarda me. Io ho sempre difeso AMD, ho sempre acquistato AMD anche quando uscì BD, infatti mi comprai (e uso tutt'ora) il 6300.
Io stesso, pero, spero che l'AMD di adesso (ultimi 3 anni) fallisca e/o venga acquistata da qualcuno che investa nell'x86 , visto che alla realtà dei fatti è solo una concorrenza di facciata e inesistente. Dall'uscita di Piledriver non ha piu tirato fuori qualcosa di decente, fatto solo proclami, rebrand gpu e tagliato serie di cpu (non sempre per colpa sua).
All'attuale un'azienda del genere è deleteria per il mercato, ha regalato 10 mesi di monopolio ad Nvidia per tirare fuori una serie di rebrand (e i risultati si vedono, nel giro di un'anno ha perso qualcosa come il 15% di market share nel mercato dedicate).
Lato cpu desktop ha mollato gli ormeggi nel 2013 con Piledriver e 2014 con Kaveri, da allora solo slide e annunci su quanto sono belle HSA e le DX12, fatti prossimi allo zero. E anche qui i risultati si vedono, fatturato divisione cpu e gpu -50% rispetto allo stesso quarto del 2014.
Speriamo che Zen porti un minimo di cambiamento. Sarebbe utopico pensare di tornare a un 50/50 di ms ciscuna, ma recuperare anche solo che un 10% farebbe bene sia alla concorrenza, sia alle stesse casse di AMD. E' chiaro pero che se non tira fuori prodotti competitivi, è difficile riprendere ms a suon di annunci e slide
fraussantin
09-08-2015, 21:46
Ancora con sta storia .
Gli 8 core non vengono sfruttati dai developer di giochi per il sempkice fatto che non sono diffusi .
Se devono ottimizzare una cosa per una piccola percentuale di pc non equivale a tirarsi la zappa sui OO?
E sarei pronto a scommettere che se intel faceva gli 8 core e amd era ferma a 4 i req minimi dei giochi odierni erano 8 core.
macellatore
09-08-2015, 23:52
Gli 8 core non vengono sfruttati dai developer di giochi per il sempkice fatto che non sono diffusi
ROTFL :doh:
Sai quanti core hanno le APU Console Next-Gen?
Secondo te riscrivono il codice per pc per sfruttare meno core o lo lasciano uguale?
fraussantin
10-08-2015, 00:22
ROTFL :doh:
Sai quanti core hanno le APU Console Next-Gen?
Secondo te riscrivono il codice per pc per sfruttare meno core o lo lasciano uguale?
La prima che hai detto e molte delle cose che fa la cpu vengono fatte fare alla vga. Eccetto i porting fatti male dove la vga sta al 30% e il processore in full load.
E scattano pure su un i7.
Cmq sia chi crede che intel stia dando il massimo possibile ha le fette di salame sugli occhi.
zerothehero
10-08-2015, 00:27
il problema è che siamo enormemente indietro lato software..infatti io continuo a tenermi il 920 nehalem con 16 gb di ram come macchina da gioco..hardware vecchio di 8 anni fa, mi sono limitato a cambiare solo la scheda video (980gtx).
Il mio quad core di 8 anni fa inizia solo ora ad essere sfruttato da alcuni giochi (e manco da tutti). Il vero progresso oramai c'è sugli smartphone/tablet..che però fino al 2008 avevano hardware software scandaloso...e ancora devono recuperare il gap con la controparte desktop/note.
Prenderò un low voltage skylake per l'htcp con una micro-atx..il vecchio athlon x2 a 3200mhz oramai è lento, ad es. sui flussi video 1080p/60fps.
Mi piacerebbe unificare le due macchine, ma non ho trovato ancora la soluzione per spegnere completamente la scheda video discreta quando non gioco.
ROTFL :doh:
Sai quanti core hanno le APU Console Next-Gen?
Secondo te riscrivono il codice per pc per sfruttare meno core o lo lasciano uguale?
Infatti è da quando sono uscite le console che andiamo avanti con la cantilena "ora gli Fx x8 spaccheranno i culi in gaming", ma nella realtà dei fatti nulla è cambiato
zerothehero
10-08-2015, 00:37
Nello stesso che AMD ci ha fatto credere servisse fino a ieri... cioè nessuno :D
Ahhahah... no scherzavo, in verità la grafica integrata è utile sugli HTPC, sui portatili scrausi e su tutte le soluzioni all-in-one.
Su desktop davvero non ho idea a che cosa possa servire una GPU più capace di mostrare lo schermo di Windows... uno spreco di silicio.
La gran parte dei PC hanno schede video integrate...senza poi parlare dell'importanza fondamentale delle igp nei tablet e notebook.
zerothehero
10-08-2015, 00:38
Infatti è da quando sono uscite le console che andiamo avanti con la cantilena "ora gli Fx x8 spaccheranno i culi in gaming", ma nella realtà dei fatti nulla è cambiato
LA AMD è in grave crisi, spero che venga acquisita da qualche grossa azienda che possa fare investimenti importanti.
fraussantin
10-08-2015, 00:39
il problema è che siamo enormemente indietro lato software..infatti io continuo a tenermi il 920 nehalem con 16 gb di ram come macchina da gioco..hardware vecchio di 8 anni fa, mi sono limitato a cambiare solo la scheda video (980gtx).
Il mio quad core di 8 anni fa inizia solo ora ad essere sfruttato da alcuni giochi (e manco da tutti). Il vero progresso oramai c'è sugli smartphone/tablet..che però fino al 2008 avevano hardware software scandaloso...e ancora devono recuperare il gap con la controparte desktop/note.
Prenderò un low voltage skylake per l'htcp con una micro-atx..il vecchio athlon x2 a 3200mhz oramai è lento, ad es. sui flussi video 1080p/60fps.
Mi piacerebbe unificare le due macchine, ma non ho trovato ancora la soluzione per spegnere completamente la scheda video discreta quando non gioco.
Gli smartphone per quello che devono fare si sono evoluti anche troppo.
Ma sai perche ?perche sono in 4 o 5 a fare i chip . E sono motivati ad superarsi \ starsi dietro a vicenda.
fraussantin
10-08-2015, 10:12
Ma che cribbio c'entra con quanto ho scritto io? :D
Niente XD.
Ho semplicemente sbagliato quote quando ho skippato da tapatalk a chrome ... ( non mi fa postare da tapa qui)
Scusate una cosa, ma nelle pagine "Multimedia" e "Calcolo e compressione" i benchmark sono tutti multicore?
Non mi spiego perchè il FX-8350 sia costantemente attaccato al i5-6600k.
fraussantin
10-08-2015, 12:42
Scusate una cosa, ma nelle pagine "Multimedia" e "Calcolo e compressione" i benchmark sono tutti multicore?
Non mi spiego perchè il FX-8350 sia costantemente attaccato al i5-6600k.
Gli amd in potenza cruda per un singolo processo sono potentissimi .
Piedone1113
10-08-2015, 13:01
Gli amd in potenza cruda per un singolo processo sono potentissimi .
:confused:
Scusate una cosa, ma nelle pagine "Multimedia" e "Calcolo e compressione" i benchmark sono tutti multicore?
Non mi spiego perchè il FX-8350 sia costantemente attaccato al i5-6600k.
Perché sono tutti software multi th (o multiprocesso) dove le prestazioni scalano con andamento poco sotto la linearità al crescere dei core.
Quindi avendo un ipc basso per singolo processo riesce a eguagliare la potenza di un i5 con ipc maggiore.
La scalabilità però non è lineare ed un fx 83xx non è il doppio più veloce di un fx43xx ne la metà di un ipotetico 163xx (8 moduli 16 core).
Difatti in tutti i test con software multi processo un fx83xx non ha il doppio di punteggio di un fx 43xx, ma circa il 70% in più (per questo dico che in ambito home più di 4 core reali hanno poco mercato, ed attenzione in ambito pro non si usa la piattaforma mid intel, al massimo per risparmiare si va su lga2011 o di xeon multisocket dove i software sono fatti per scalare al meglio con l'aumento di core, ma anche li passare da 8 a 16 core reali non raddoppi le prestazione nonostante parliamo di software dal costo elevato.
Ps solo in una parte del pro si ha questo, ci sono software invece che non usano molti core a causa di dipendenze interne, ed avere 16 o 4 core non cambia una cippa.
Perché sono tutti software multi th (o multiprocesso) dove le prestazioni scalano con andamento poco sotto la linearità al crescere dei core.
Quindi avendo un ipc basso per singolo processo riesce a eguagliare la potenza di un i5 con ipc maggiore.
La scalabilità però non è lineare ed un fx 83xx non è il doppio più veloce di un fx43xx ne la metà di un ipotetico 163xx (8 moduli 16 core).
Difatti in tutti i test con software multi processo un fx83xx non ha il doppio di punteggio di un fx 43xx, ma circa il 70% in più (per questo dico che in ambito home più di 4 core reali hanno poco mercato, ed attenzione in ambito pro non si usa la piattaforma mid intel, al massimo per risparmiare si va su lga2011 o di xeon multisocket dove i software sono fatti per scalare al meglio con l'aumento di core, ma anche li passare da 8 a 16 core reali non raddoppi le prestazione nonostante parliamo di software dal costo elevato.
Ps solo in una parte del pro si ha questo, ci sono software invece che non usano molti core a causa di dipendenze interne, ed avere 16 o 4 core non cambia una cippa.
Ah ecco appunto era solo una questione di benchmark.
Comunque è incredibile che un processore di 3 anni fa regga il passo di un i5 top di gamma attuale. Cioè sulle prestazioni single core non c'è storia e vince Intel, ma sul multi core non mi aspettavo di vedere un pareggio.
Devo decidere se cambiare pc adesso o aspettare ZEN, speravo in qualcosa di più da skylake, magari aspetto...
AceGranger
10-08-2015, 14:37
Veramente io guardando i benchmark vedo che un amd in single thread a pari frequenza va circa la metà di un Intel.
Che intendevi?
presumo che fosse sarcastico o volesse indicare Intel...
lzeppelin
14-08-2015, 13:40
Per la redazione:
ho visto nella configurazione di test che avete usato delle DDR4-2133 (15-15-15-35) e che nello screenshot preliminare dell'overclock la stessa è stata portata a 3333 MHz con timings di 17-18-18-18-48.
E' possibile sapere che ram è stata usata e a quale voltaggio è stato ottenuto questo questo incremento?
Sto configurando un nuovo PC skylake based, mi manca da scegliere la RAM. Grazie
cdimauro
16-08-2015, 07:15
Rieccomi, temporaneamente, e provo a rispondere ad alcuni commenti.
Si ma il succo è sempre lo stesso , non è se serve o se non serve . È che in campo mobile ogni anni ti danno un prodotto molto superiore allo stesso prezzo anzi forse a meno . E il prodotto vecchio viene svenduto .
Serva o non serva almeno i soldi che cacci fuori sono ripagati .
E questo grazie alla concorrenza .
Non so quanto sia vero questo, visto che la tendenza è quella di impacchettare una miriade di core, che per lo più stanno a girarsi i pollici e in generale non hanno IPC elevato (perché il produttore preferisce, appunto, puntare sul maggior numero di core anziché sulle prestazioni su singolo core/thread).
Lo scenario, insomma, è ben diverso da quanto siamo abituati coi PC, dove le esigenze sono chiaramente diverse.
Qui intel si gongola non solo non calando di un centesimo i prodotti vecchi di 2 anni , ma addirittura fa uscire sempre la solita zolfa per mantenere il piu lento possibile il progresso tecnologico su pc .
Questo non è affatto vero: il progresso c'è, e lo si può vedere in tutti i campi. Il problema è rappresentato, piuttosto, dalla suddivisione del mercato. Mi spiego meglio.
Intel realizza processori che vanno dal minuscolo singolo core (e singolo thread) usato nel settore embedded, ai 61 (presto 72) core con 4 thread hardware dell'HPC. In mezzo ci sta tutta una serie di altri processori che coprono diverse tipologie di utilizzi, e ovviamente fasce di mercato diverse. In TUTTI questi prodotti Intel continua ad apportare innovazioni: non sta mai ferma. Anche perché NON può restare ferma, in un mercato così dinamico, dove non sai cosa può succedere domani. Intel, insomma, è costretta dalle circostanze a dare sempre il meglio di sé, nei limiti delle sue capacità, del suo budget, e delle leggi della fisica ovviamente.
Il tuo problema, sollevato anche da altri, è un altro: tu vorresti vedere spostato nel settore consumer, magari anche solamente in quello enthusiast, ciò attualmente è appannaggio di quello server, dove si arriva a 18 core / 36 thread hardware. Quindi la tecnologia che auspichi c'è già! Ma viene usata in ambiti diversi.
Attualmente non ci sono le condizioni per ciò che chiedi, e sono d'accordissimo che ciò potrebbe anche essere dovuto alla mancanza di una reale concorrenza, ma permettimi: da ciò che vedo, anche un i7 in ambito gaming non mi pare sia particolarmente sfruttato, e non necessariamente per colpa dei programmatori. Per chiarire, se l'obiettivo è di arrivare a 1000FPS, allora stiamo a discutere di cose prive di senso, perché sono i 60FPS l'obiettivo realistico per un giocatore, 60 + 60 se vogliamo parlare di 3D stereoscopico, e in tutta onestà il limite lo vedo rappresentato più dalle GPU che dalla CPU, perché sono le prime ad accollarsi il maggior carico di lavoro, mentre mi pare che le seconde siano più che sufficienti allo scopo.
Questo per il gaming. Se parliamo di rendering et similia il discorso cambia, ma cambia pure il segmento di mercato, perché andiamo a finire in quello professionale, e lì parliamo già di workstation, che usualmente montano processori da server (nonché schede grafiche dedicate).
Se, però, ti riferivi ad altro, ti prego di essere più chiaro.
E per il discorso enthusiast l'ho detto prima che finché i 6 core restano tali è normale che nessuno sviluppi per essi.
Come ho già cercato di spiegare (e non solo io), non è affatto vero: dipende tutto dal tipo di applicazione (algoritmi). Non tutti sono parallelizzabili, infatti. Anzi, alcuni sono strettamente sequenziali.
Io ho il pallino dell'emulazione di sistemi ormai vintage. Uno a caso: l'Amiga. :D Il miglior emulatore è WinUAE (www.winuae.net). Sei liberissimo di prendere i sorgenti (visto che è pure open source), e farmi vedere in che modo sia possibile sfruttare più di un core per migliorare mostruosamente le prestazioni del processore emulato (dal 68000 al 68060). Per inciso, attualmente WinUAE utilizza soltanto un altro thread, oltre a quello principale, per gestire l'interfacciamento col s.o.; ma è praticamente trascurabile.
Non sottovalutare il mio esempio che, per quanto giocoso e spensierato, va a toccare uno tipologia di software molto usata anche a livello professionale (ad esempio Intel utilizza un emulatore ARM per la sua piattaforma Android), e per la quale non ci sono né bacchette magiche che possano fare miracoli né tanto meno core a profusione che possano risolvere questo tipo di problematiche.
P.S. Non ho tempo né di rileggere né tanto meno di correggere eventuali errori, altrimenti non arrivo a rispondere anche ad altri commenti interessanti.
cdimauro
16-08-2015, 07:20
Ciao Cesare e buone vacanze.
Come gia scritto in altra discussione condivido pienamente il tuo pensiero.
Per dare una spinta all'ipc ci sono poche strade percorribili (con le attuali tecnologie) e tutte hanno come fattore comune ipc a tutti i costi
senza badare a spese.
Quindi mi chiedo per utenza consumer-pro sarebbe un progresso innalzare l'ipc di un +20% con un raddoppio dei costi?
Ma si potrebbe arrivare anche a +1% ipc con costo 10x
Non penso si possa arbitrariamente fissare l'aumento dell'IPC in base ai costi /(implementativi). Non credo, peraltro, che esista una correlazione fra le due cose.
L'IPC è una brutta bestia di per sé, per cui si provano delle nuove soluzioni e si vede come si comporta il codice esistente (un insieme sufficientemente rappresentativo delle diverse tipologie esistenti). Si può avere un'idea, con una nuova architettura, dei miglioramenti possibili, ma da lì a quantificare gli aumenti non credo proprio sia possibile.
Però l'argomento m'interessa, e se qualcuno avesse fonti / documentazione / ricerche, mi farebbe cosa ben lieta se le riportasse. :sbav:
cdimauro
16-08-2015, 07:30
Skylake a 14nm va il 20% il più del mio Ivy Bridge consumando praticamente uguale (stessa frequenza). E' evidente che Skylake avrà dei vantaggi in altri contesti, ma su desktop Intel ha realizzato il minimo indispensabile.
Permettimi: se Skylake, come sembra, porta con sé una nuova architettura, Intel avrà investito una valanga di soldi nel realizzarla. Che poi i risultati non siano quelli sperati lo vediamo, ma lo avevo anche detto da parecchio tempo, e le motivazioni le puoi leggere nei miei precedenti commenti.
Magari le versioni server o quelle mobile di questa architettura faranno sfracelli, ma su desktop anche se non fosse stata presentata non credo che a qualcuno sarebbe mancata, visto i risultati.
Le versioni server avranno AVX-512, che consente un "raddoppio" delle prestazioni per i calcoli SIMD. Ma ovviamente servirà codice ad hoc, perché questa nuova unità SIMD è molto diversa (e di gran lunga più avanzata e flessibile) da quelle esistenti (sebbene condivida alcuni concetti con AVX e AVX2).
E non dimentichiamo quanto Intel ancora sia conservativa con le sue linee PCI-e sui desktop. Per avere un tri SLI è necessario o la piattaforma enthusiast (e via di money) oppure aggiungere un bridge sulla motherboard (altri money, seppur molti meno).
Tutti questi fatti non possono che far pensare che Intel sta avanzando con il freno a mano tirato da diverso tempo e senza una vera concorrenza non ci sarà possibilità di migliorare la situazione... anzi...
E' chiaro che Intel diversifichi le sue soluzioni, in base al segmento di mercato. E' ovvio che sia così, ed è il motivo per cui trovi soluzioni con più o meno linee PCIe, oppure con dual o quad channel per le memorie.
Quel che mi sembra palese è che i 14nm sono venuti veramente male ad Intel. Broadwell neanche lo abbiamo visto su desktop se non come 2 SKU prototipali per Skylake, e questo SkyLake ha consumi che non sono certo in linea con quello che ci si aspettava da uno shrink 22->14nm. Questo non fa ben sperare nel PP analogo delle altre fonderie... che vuol dire GPU a 16nm FF per TMSC e CPU AMD a 14nm FF per GF... ma magari, ed è la speranza, è solo un problema di Intel.
"Se Atene piange, Sparta non ride". E mi fermo qui.
cdimauro
16-08-2015, 07:38
ma anche no..
con il passaggio da 65 ai 45nm, AMD è riuscita ad aumentare il numero di core del 50% e la frequenza del 27% e ha abbassato il tdp di 15W (-11%), questi sono tre risultati assolutamente indipendenti dall'architettura, che era ottima fin da subito (tranne per il bug del TLB).
Intel con il passaggio dai 45 ai 32 nm è riuscita ad aumentare il 50% il numero di core, utilizzando la solita architettura (nehalem). In fin dei conti il debacle di bulldozer è da imputare al gap venutasi a creare con i 32nm bulk di intel, più che ai progressi dovuti dall'adozione di SB.
Dai 32 ai 22nm, intel è riuscita ad aumentare il numero dei core solo del 33%, sacrificando però 500 MHz (-14%)..
con i 14nm, sembra che non ci siano benefici diretti, e l'aumento di prestazione è attribuibile solo ad aumentato ipc: 5,7% rispetto ad haswell secondo anandtech, che in realtà sembrano un pò troppo miseri ricordando che questo è un tock (skylake è due generazioni successive ad haswell).
Scusami, ma come ha già osservato AceGranger (http://www.hwupgrade.it/forum/showpost.php?p=42742387&postcount=194), mi sembra che tu stia confrontando processori ben diversi, che integrano tecnologie diverse.
Tra l'altro che Intel riesca a integrare meno core mi sembra pure un'ovvietà, visto che un suo core ha prestazioni ben più elevate. Difatti tu stesso hai poi confrontato un AMD A10 con un Intel i3: ben quattro core contro due (anche se con HyperThreading, ma non è certo la stessa cosa).
Sembra che la pacchia dell'aumento delle prestazioni dovuto all'aumento della frequenza e dei core e la riduzione dei consumi sia finita anche per il bulk di Intel.
L'aumento delle frequenze è appannaggio del passato, e non riguarda soltanto Intel. La scalata in frequenza è morta all'epoca P4.
Almeno che con i 10 nm, non ci sia un inversione di tendenza, il monopolio Intel è destinato a finire. a livello prestazionale potrebbe condizionare davvero poco l'adozione di un 20nm HP invece di un 10nm finfet.
Vedi il mio precedente commento. E, soprattutto, i conti li faremo quando ci saranno dei prodotti reali con queste tecnologie.
cdimauro
16-08-2015, 07:40
Beh, la risposta mi sembra essere molto semplice.
Un conto è continuare a vendere un i5 a 180€, un conto vendere un 6 core a quel prezzo.
Chiaramente il margine di guadagno è superiore.
Sia chiaro, Intel non è una onlus e ha tutto il diritto e dovere di fare quello che sta facendo, siccome AMD non è capace di tirare fuori nulla di altrettanto competitivo. Ma sono certo che se ad oggi avessimo avuto un minimo di competizione, intel se lo sognava di vendere gli i5 a 180€ come 5 anni fa
E' in parte vero, ma non tieni conto del fatto che i nuovi processi produttivi non sono economici quanto i precedenti.
Il vantaggio di utilizzarli ovviamente c'è (altrimenti non ci si butterebbero tutti quei soldi), ma i costi sono più elevati. Per cui, anche volendo, non puoi permetterti di scendere più di tanto. Magari molto più avanti nel tempo, quando le rese saranno elevate e i costi ampiamente ammortizzati.
cdimauro
16-08-2015, 07:42
Direi la prima che hai detto, la seconda è molto relativa.
Il detto che con il "sw attuale non serve più potenza" è una frase ricorrente non del tutto veritiera, visto che in realtà ci si adatta a ciò che si ha, e pure le SH spesso si adattano.
Ma i limiti intrinseci del software non li puoi certo aggirare a tuo piacimenti. Vedi precedenti commenti, e l'esempio dell'emulazione.
Però quando c'era concorrenza e ad ogni generazione si aveva un incremento prestazionale significativo, per quanto anche allora "non servisse", nel tempo ci si accorgeva che quegli incrementi si sentivano, eccome.
Eppure lo si diceva per le VGA, per le CPU, per la quantità di RAM, poi ti facevi il PC nuovo e ti accorgevi che era una scheggia, rispetto a quello vecchio.
All'epoca si scalava anche in frequenza. Cosa che da anni non si può più fare.
Penso che dire che il SW si adatta all'HW (e viceversa), sia cosa conclamata: nessuna SH farebbe del SW sapendo in partenza che non funzionerebbe sul parco HW attuale, a meno di essere masochisti.
In ogni caso era un inciso su cui si potrebbe discutere all'infinito (della serie se è nato prima l'uovo o la gallina), la questione era invece che, a mio avviso, il detto "al momento attuale non serve più potenza", è una frase ricorrente non veritiera, perché alla fine, quando hai più potenza, poi la sfrutti e anche le SH sanno di poter contare su HW più potente. Sembra ogni volta che più potenza sia inutile, poi quando ci si fa il PC nuovo, ci si accorge che gli incrementi prestazionali portano risultati tangibili.
Vedi sopra: il software non si può sempre adattare all'hardware, per i limiti di cui ho parlato prima.
cdimauro
16-08-2015, 07:44
La prima che hai detto e molte delle cose che fa la cpu vengono fatte fare alla vga. Eccetto i porting fatti male dove la vga sta al 30% e il processore in full load.
E scattano pure su un i7.
Cmq sia chi crede che intel stia dando il massimo possibile ha le fette di salame sugli occhi.
Sei a conoscenza di cosa potrebbe fare e che non fa? Riporta pure.
cdimauro
16-08-2015, 07:45
Gli smartphone per quello che devono fare si sono evoluti anche troppo.
Ma sai perche ?perche sono in 4 o 5 a fare i chip . E sono motivati ad superarsi \ starsi dietro a vicenda.
Gli smartphone erano enormemente indietro rispetto ai processori "desktop", e giustamente in questi ultimi anni hanno colmato il gap. Ed è il motivo per cui si sono buttati tutti nell'aumentare i core, anziché scalare in frequenza e/o IPC: perché ormai è molto più facile la prima soluzione, visto per le altre due stanno sbattendo le corna contro gli stessi problemi degli altri produttori di processori.
cdimauro
16-08-2015, 20:32
L'acqua in piscina era stupenda poco fa. :fagiano:
CrazyDog
17-08-2015, 11:31
(se si considera anche la possibilità di utilizzare le ddr3)
ma si trovano mb ddr3?
AceGranger
17-08-2015, 15:38
ottima piattaforma, dovessi puntare oggi ad un sistema nuovo prenderei skylake e l'i5, i 100€ di cpu in meno dell'i7 li investirei nella gpu...
è un peccato che usino ancora sta pasta del cavolo che fa lievitare le temperature, test con "scapottamento" e pasta modificata abbattono le temp di 16~20°, direi un bel tot
ed è preferibile anche agli x6 della 2011, prestazioni vicine in MT e prezzo inferiore (se si considera anche la possibilità di utilizzare le ddr3)
non sono per nulla vicine in MT visto che mediamente raggiungono lo stesso OC, gli X6 andranno sempre un 40% in piu; nessuno li tiene stock e un 5820K non costa molto di piu dell'i7.
io al contrario non vedo nel 6700k una buona scelta, il processore costa come un 5820k pur avendo 2 core in meno, il costo della scheda madre non è molto diverso e le ddr4 stanno calando molto di prezzo, la differenza sul totale quindi quanto sarebbe? 50 o 100€ valgono lo scotto di avere una piattaforma limitata ai 4 core? tanto vale prendere una x99 e tenerla più tempo
AceGranger
17-08-2015, 18:07
ma è ovvio no :doh:
scusa ma non si faceva OC a cavallo degli anni 2000 per raggiungere le prestazioni delle cpu di poco superiori? o non lo si è sempre fatto in generale?
che poi a def sta mediamente tra l'8 ed il 28% meno del 4960x nei calcoli MT, quindi è VICINO
allora andiamo tutti di 5960x e tanti saluti... è lo stesso concetto che si porta dietro il 5930k, ma qua è ancora meglio, anche a def il 6700k è più vicino al 5930k/4960x di quanto non lo siano questi ultimi verso il 5960x
è preferibile perché spendi meno, hai circa le stesse prestazioni con un po' di OC e la piatta è certamente superiore...
non è che siamo tutti qua a cercare sta potenza elaborativa cpu come può servire a te per workstation, render farm o altro; bisogna ragionare a 360°... sicuramente per te sarà una cpu inutile ai tuoi scopi non lo metto in dubbio, ma al resto mondo?
:mbe: "stesse" prestazioni quando si paragona una piattaforma in OC e l'altra no è senza senso, andra sempre nettamente meno perchè gli mancano 2 core, se poi uno vuole farsi le pippe mentali e le illusioni che vanno "uguali" puo anche farlo.
allora andiamo tutti di 5960x e tanti saluti... è lo stesso concetto che si porta dietro il 5930k, ma qua è ancora meglio, anche a def il 6700k è più vicino al 5930k/4960x di quanto non lo siano questi ultimi verso il 5960x
e difatti è una stupidata anche in quel caso
quel ragionamento funziona giusto nel caso in cui le CPU abbiano lo stesso numero di core o abbiano margini di OC differenti, ma con un numero differente di core e stessi margini di OC è e rimane solo una stupidata, hai un 4 core che va come un 4 core e l'altro è un 6 core che va come un 6 core.
:mbe: "stesse" prestazioni quando si paragona una piattaforma in OC e l'altra no è senza senso, andra sempre nettamente meno perchè gli mancano 2 core, se poi uno vuole farsi le pippe mentali e le illusioni che vanno "uguali" puo anche farlo.
e difatti è una stupidata anche in quel caso
quel ragionamento funziona giusto nel caso in cui le CPU abbiano lo stesso numero di core o abbiano margini di OC differenti, ma con un numero differente di core e stessi margini di OC è e rimane solo una stupidata, hai un 4 core che va come un 4 core e l'altro è un 6 core che va come un 6 core.
penso la stessa cosa :)
sai che mi ero proprio scordato del 5820k a 400€ :doh:
comunque mi servisse ora, punterei all'i5 6600k e non all'i7 di certo e coi soldi risparmiati da investire nelle gpu, che è molto meglio e con l'i5 fai tutto
era un consiglio, meglio la nuova piatta skylake che quella haswell o haswell-e... diciamo che con il 5820k è una bella lotta, ma monta solo ddr4 purtroppo...
in più se non giochi non ti serve manco la dedicata, e anzi un minimo ci giochi pure senza troppe pretese come le apu (si spera sempre nel software però, altro che driver scarsi quelli di amd/ati)
i driver vga intel sono sempre orribili oppure hanno migliorato le cose? in passato avevo avuto non pochi problemi
AceGranger
17-08-2015, 18:47
bah non dirlo agli overclockers allora ;)
gli overclockers prendono la piattaforma top che è la 2011; a quelli che non hanno i soldi o che vogliono spendere di meno Intel ha dato il contentino con le solite 2 CPU della piattaforma consumer.
non capisco... io punto sempre al massimo rapporto prezzo/prestazioni guardando ovviamente alla fascia di prezzo, e l'oc ai tempi era nato soprattutto per questo motivo, puntare a cpu inferiori fare OC e raggiungere prezzi da cpu da 1000$
si ok, valeva quando le CPU Extreme avevano gli stessi core delle CPU inferiori e quando stavano sulla stessa piattaforma...
il tuo ragionamento puoi farlo in alcuni casi come per il 5820K e il 5930K che sono entrambi a 6 core, con la differenza che uno ha 200 MHz in meno ( che recuperi tranquillamente in OC ) e 12 linee PCI-EX in meno, li ok, puoi dire spendo meno e prendo il 5820K che tanto poi va come il 5930K..
puoi farlo con i7 vs Xeon dove una piattaforma va in OC l'altra no, e quindi li si che il numero inferiore di core lo puoi bilanciare con un aumento sostanziale delle frequenze.
ma quando si parla di architetture simili, steso OC ma numero diverso di core c'è poco da fare, le differenze rimarranno sempre
Theodorakis
17-08-2015, 18:57
gli overclockers prendono la piattaforma top che è la 2011
No, quelli sono i figli di papà o i fighetti. Gli ockers "della vecchia guardia" (Mendocino, Barton, ecc) spremono le piattaforme mainstream. :ciapet:
AceGranger
17-08-2015, 19:03
No, quelli sono i figli di papà o i fighetti. Gli ockers "della vecchia guardia" (Mendocino, Barton, ecc) spremono le piattaforme mainstream. :ciapet:
azzo, ora 100 euro in piu è essere figli di papa :asd:
CrazyDog
17-08-2015, 19:09
azzo, ora 100 euro in piu è essere figli di papa :asd:
chissà di chi sono figlio io che aspetto che escano i celeron, pentium e i3 :p
AceGranger
17-08-2015, 19:20
chissà di chi sono figlio io che aspetto che escano i celeron, pentium e i3 :p
sarai la vecchia vecchia vecchia guardia degli 8086 :sofico:
CrazyDog
17-08-2015, 19:27
sarai la vecchia vecchia vecchia guardia degli 8086 :sofico:
:asd: vorrei fare un secondo sistema più compatto e non mi servirebbe a nulla un i5k o i7k :p
AceGranger
17-08-2015, 21:26
Gli ockers della vecchia guardia inorridiscono a vedere una cpu K con la pasta del capitano che si occano di 600MHz a liquido (AIO) e poi fondono (questo vedo dalla recensione di anandtech)
600MHz!!!
600MHz di overclock il mio E8400 li tiene con il dissi stock! :)
Da quanto ho visto prendere una mobo da overclock, ram da overclock e una cpu serie K skylake è uno sperpero di denaro e basta.
Vuoi overclockare? Compra un 2011.
Costa troppo? Compra un AMD FX.
la cosa bella è che con una MB da overclockers e una qualsiasi scheda madre che permetta l'OC arrivi allo stesso punto....
MiKeLezZ
18-08-2015, 02:33
Gli ockers della vecchia guardia inorridiscono a vedere una cpu K con la pasta del capitano che si occano di 600MHz a liquido (AIO) e poi fondono (questo vedo dalla recensione di anandtech)
600MHz!!!
600MHz di overclock il mio E8400 li tiene con il dissi stock! :)
Da quanto ho visto prendere una mobo da overclock, ram da overclock e una cpu serie K skylake è uno sperpero di denaro e basta.
Vuoi overclockare? Compra un 2011.
Costa troppo? Compra un AMD FX.Sono 10 anni che l'OC è passato di moda, un po' perché inutile (cazzo, un conto era farsi una 9500 in una 9700, risparmiare 200 euro e andare quasi al doppio, un altro prendere 600 MHz sulla CPU per farci le pippe), un po' perché col tempo risparmiato uno si fa due serate a fare il cameriere in pizzeria, si compra direttamente la CPU più veloce (sempre per farci le pippe di cui sopra) e ciao...
Per non parlare di buttare (letteralmente) i soldi nel raffreddamento a liquido (sono passati i tempi delle CPU da 150W, ora consumano la metà) oppure in ridicole torri di rame (non solo è salito il prezzo del materiale, non solo l'alluminio è anche più adeguato, ma sempre per il discorso dei 150W di prima che non ci sono più, bastano qualche lamella in croce per ottenere una superficie fin troppo estesa alle reali necessità dissipative della CPU).
L'unico problema è che ora la CPU top gamma sta a 400 sacchi invece che 200 e quelle di rango inferiore te le nerfano con la cache, il controller di memoria, le tecnologie AVX e HT... che nessun overclock al mondo ti potrà mai fare ottenere.
TAURUS77
18-08-2015, 08:16
Salve a tutti!!
Qualcuno di voi sa dirmi se un i7 3820 a 4.2GHz su msi big bang xpower2 regge ancora oppure rispetto questo procio i7 6700k è troppo obsoleto per uso workstation tipo FEM con Ansys e cad con Creo 3.0, solidworks, NX e compagnia bella.
Grazie a chiunque mi dia la sua opinione
Salve a tutti!!
Qualcuno di voi sa dirmi se un i7 3820 a 4.2GHz su msi big bang xpower2 regge ancora oppure rispetto questo procio i7 6700k è troppo obsoleto per uso workstation tipo FEM con Ansys e cad con Creo 3.0, solidworks, NX e compagnia bella.
Grazie a chiunque mi dia la sua opinione
Stai bene come stai, al limite se proprio ti serve ti prendi un 3930k usato o comunque in offerta a 300-350 euro e ti tieni ram e mobo.
AleLinuxBSD
18-08-2015, 15:38
Dati i tempi previsti per l'uscita delle top di gamma penso che per i numeri veri, che si ottengono con la fascia media e bassa, occorrerà aspettare più di 1 anno.
E, nel frattempo, il mercato resterà assolutamente stagnante, dato che chi ha già un buon computer, non ha nessun incentivo a passare a questo nuovo sistema, per ottenere solo marginali miglioramenti, mentre chi vuole saltare direttamente alle DDR4 o al supporto al bus Usb 3.1, non può disporre di alternative a costi accettabili, né al livello di Cpu e neanche al livello di chipset delle motherboard, relativamente a questa nuova piattaforma.
Ma dopo tutte queste belle discussioni, io che non seguo molto il settore ma devo comprare (senza troppa fretta, diciamo entro gennaio 2016 max) un portatile 15/17" full hd per cad/cad elettronico, xp in virtualbox, navigazione, office, Photoshop, no gaming da max 800 euro circa e con buona autonomia, devo aspettare skylake o è meglio prenderne uno broadwell?
Grazie
angeloc92
20-08-2015, 21:17
penso che il momento in cui arriveranno gli i7 in amazzonia, sarà il momento giusto per mandare in pensione il mio carissimo 920 :sofico:
supereos3
25-08-2015, 16:58
Attualmente ho un 3770K, ci saranno differenze con INTEL - Processore Core i7-6700K (Skylake)? :D
Portocala
25-08-2015, 17:04
Niente di eclatante in ambito gaming.
Forse qualcosina in editing, ma nulla che faccia gridare al miracolo per fare un upgrade.
Tieniti il tuo.
alexcold
03-01-2016, 18:16
volevo fare anche io i test sulla mia cpu. Che file avete usato per il test con media espresso?
in verità vorrei sapere se è possibile ripetere tutt la batteria dei testi, quindi dove potrei scaricare il file kitesurfing.avi e che file avete usato per i test con faststone (a che risoluzione erano le 550 immagini da resizare), automkv, handbrake.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.