PDA

View Full Version : Intel Core i7-6700K in overclock a 5,20GHz con raffreddamento ad aria


Redazione di Hardware Upg
21-07-2015, 10:41
Link alla notizia: http://www.hwupgrade.it/news/cpu/intel-core-i7-6700k-in-overclock-a-5-20ghz-con-raffreddamento-ad-aria_58119.html

Non è ancora in commercio, ma il nuovo processore di Intel basato su architettura "Skylake" sembra essere in grado di spingersi sensibilmente oltre le frequenze operative nominali

Click sul link per visualizzare la notizia.

AkiraFudo
21-07-2015, 10:44
è giunta l'ora di cambiare il mio glorioso 2600k! :D

Jones D. Daemon
21-07-2015, 10:46
La cosa interessante da notare nello screenshot è che questa volta tutti i core e anche l'HyperThreading sono stati tenuti attivi in OC, mentre nelle classiche notizie di questo genere è attivo 1 solo core per operare a tali frequenze. Se veramente è stati usato un raffreddamento ad aria, anche fosse un D15, questa sarà una cpu paurosa.

devil_mcry
21-07-2015, 10:47
Se a settembre/ottobre prendo davvero il bonus prendo cpu main e ram nuove :D

CrapaDiLegno
21-07-2015, 10:49
Quindi alla fine, come previsto, per via dei ritardi del PP Broadwell non è stato messo in commercio a parte quei 2 modelli in croce che sono serviti come apripista per le CPU con potenza maggiore di 30W@14nm?

Che casino.. tra chipset, schede madri e nuove memorie il mercato è incasinato che metà basta.... aspetto Zen e poi decido con cosa rinnovare il mio 3770K. Se mai la differenza di prestazioni giustificherà la spesa.

Nhirlathothep
21-07-2015, 10:51
li regge anche il mio procio vecchio

devil_mcry
21-07-2015, 10:55
Quindi alla fine, come previsto, per via dei ritardi del PP Broadwell non è stato messo in commercio a parte quei 2 modelli in croce che sono serviti come apripista per le CPU con potenza maggiore di 30W@14nm?

Che casino.. tra chipset, schede madri e nuove memorie il mercato è incasinato che metà basta.... aspetto Zen e poi decido con cosa rinnovare il mio 3770K. Se mai la differenza di prestazioni giustificherà la spesa.

Broadwell in realtà è in commercio da inizio anno, forse già da fine 2014 sia per il segmento mobile che per il low end desktop (embedded più che altro). Io ho sia un notebook con i7 5500U che un Slim PC con Celeron basati su Broadwell da vari mesi. Quello che in commercio non è arrivato sono le CPU desktop di fascia medio alta (ci sono le CPU mobile e le CPU embedded desktop/mobile).

Poi in realtà le versioni unlock di Broadwell sono uscite due mesi fa credo ma sono introvabili e cmq sono passate in sordina di brutto

gd350turbo
21-07-2015, 10:57
Se l'esemplare non è stato selezionato apposta, 5.2ghz a 1.35 volt, è tanta roba !

Io arrivo a 5 ghz con quel voltaggio,ma sicuramente non in questi giorni !

°Phenom°
21-07-2015, 11:00
Anche su broadwell 5775c davano 5ghz ad aria quando poi in realtà sale si e no a 4.2ghz con 1.35v, vedremo skylake come sarà. Fosse davvero così propenso all'oc, sarà dura aspettare zen o passare a x99 con haswell-e, l'unico freno sono le ddr4, ancora abbastanza scarse :stordita:

CrapaDiLegno
21-07-2015, 11:03
Broadwell in realtà è in commercio da inizio anno, forse già da fine 2014 sia per il segmento mobile che per il low end desktop (embedded più che altro). Io ho sia un notebook con i7 5500U che un Slim PC con Celeron basati su Broadwell da vari mesi. Quello che in commercio non è arrivato sono le CPU desktop di fascia medio alta (ci sono le CPU mobile e le CPU embedded desktop/mobile).

Poi in realtà le versioni unlock di Broadwell sono uscite due mesi fa credo ma sono introvabili e cmq sono passate in sordina di brutto

Si, che ci fossero le CPU "cacchette" con architettura Broadwell lo sapevo, io parlavo DELLE CPU, quelle vere, quelle che servono per lavorare, non per andare su FacciaLibro :D

demon77
21-07-2015, 11:05
è giunta l'ora di cambiare il mio glorioso 2600k! :D

No io me lo tengo ancora.
fino ad ora lo ho usato senza problemi o limitazioni a clock di default.
A fine anno gli do un giro di oc e lo porto sui 4 ghz e un altro anno pieno pieno ce lo faccio alla grandissima.

Sonderò il mercato per il nuovo pc direi ad inizio 2017.

sopress
21-07-2015, 11:07
Che bello leggere una news in "vecchio stile" hwu :D:D

devil_mcry
21-07-2015, 11:09
Si, che ci fossero le CPU "cacchette" con architettura Broadwell lo sapevo, io parlavo DELLE CPU, quelle vere, quelle che servono per lavorare, non per andare su FacciaLibro :D

Perchè con degli i7 mobile che girano a 3GHz 2/4 o 4/8 non ci lavori? Il mio portatile aziendale ha l'equivalente Haswell del mio i7 5500U (stesse frequenze/cache ma architettura diversa) e lo uso per lavoro dato che sono uno sviluppatore.

Non diciamo cazzate dai, mancano le CPU desktop ma chi lavora veramente o ha soluzioni mobile (con i7 di 4 o 5 gen) o soluzioni desktop che però usano la piattaforma superiore. Un 5775c non è una CPU da lavoro, non supporta nemmeno tutte le features di virtualizzazione che servono per lavoro (al pari di tutte le altre CPU sbloccate Intel)nella maggior parte dei casi.

Mparlav
21-07-2015, 11:12
Metterei la firma per 4.8GHz stabili a 1.35V :)

Ma ho forti dubbi che possa superare così tanto l'i7-5775c

dado1979
21-07-2015, 11:12
è giunta l'ora di cambiare il mio glorioso 2600k! :D
Se col pc ci giochi lascia stare.

devil_mcry
21-07-2015, 11:16
Metterei la firma per 4.8GHz stabili a 1.35V :)

Ma ho forti dubbi che possa superare così tanto l'i7-5775c

Il 5775c ha lo stesso problema di Haswell, il FIVR. A pari di PP infatti Haswell in media va peggio di Ivy Bridge, soprattutto nelle prime CPU prodotte.

Secondo me senza FIVR ci stà che salga sui 5GHz

Mparlav
21-07-2015, 11:31
Il 5775c ha lo stesso problema di Haswell, il FIVR. A pari di PP infatti Haswell in media va peggio di Ivy Bridge, soprattutto nelle prime CPU prodotte.

Secondo me senza FIVR ci stà che salga sui 5GHz

dall'autore:
http://www.hkepc.com/12892
http://www.hkepc.com/forum/viewthread.php?tid=2212533&extra=&page=1

A 5.2GHz è il massimo con lo screenshot di cpu-z
A 5.0GHz ha fatto un SuperPi 32M con 1.312V
Mentre dovrebbe essere stabile a 5.1GHz e 1.38V

Quindi sì, i 5.0GHz dovrebbero essere fattibili.

Il 5 agosto c'è il lancio, sotto l'ombrellone darò un'occhiata ai test in overclock sulle cpu retail in tutta tranquillità :D

gd350turbo
21-07-2015, 11:44
Metterei la firma per 4.8GHz stabili a 1.35V

Vuoi la mia ?

:-)
:-))
:-)))

devil_mcry
21-07-2015, 11:46
dall'autore:
http://www.hkepc.com/12892
http://www.hkepc.com/forum/viewthread.php?tid=2212533&extra=&page=1

A 5.2GHz è il massimo con lo screenshot di cpu-z
A 5.0GHz ha fatto un SuperPi 32M con 1.312V
Mentre dovrebbe essere stabile a 5.1GHz e 1.38V

Quindi sì, i 5.0GHz dovrebbero essere fattibili.

Il 5 agosto c'è il lancio, sotto l'ombrellone darò un'occhiata ai test in overclock sulle cpu retail in tutta tranquillità :D

5.1 con 1.38v è un gran risultato, ma la tensione mi sembra un po' altina per un 14nm... boh si vedrà

Io comunque vivo tra "lo compro" e "non lo compro" da un po'. Alla fine la mia piattaforma ha 2 anni quindi in parte i soldi sono stati sfruttati, dall'altra è da vedere quanto è il gap prestazionale.

Se davvero è il 20% di IPC vuol dire che tra un 10% in + di clock e un 20% in più di IPC si avrebbe una CPU nettamente più veloce

TigerTank
21-07-2015, 11:46
Mah...mi auguro che non sia il solito sample fortunello per spingere sul piano marketing. In passato è già capitato che si vedessero in giro cpu stratosferiche, peccato poi che il 95% di quelle in commercio fossero ben più mediocri :)
Più che altro quel che a me scoccia è che siano ancora solo quadcores, che abbiano ancora la pasta e che costino mediamente di più rispetto alle precedenti generazioni.

devil_mcry
21-07-2015, 11:47
Vuoi la mia ?

:-)
:-))
:-)))

Che è un Sandy Bridge? Quell'architettura per andare come farebbe questo a 4.8 deve avere probabilmente 1GHz e mezzo in più di clock, non è poca roba...

Jones D. Daemon
21-07-2015, 11:52
Mah...mi auguro che non sia il solito sample fortunello per spingere sul piano marketing. In passato è già capitato che si vedessero in giro cpu stratosferiche, peccato poi che il 95% di quelle in commercio fossero ben più mediocri :)
Più che altro quel che a me scoccia è che siano ancora solo quadcores, che abbiano ancora la pasta e che costino mediamente di più rispetto alle precedenti generazioni.


Stavolta non credo. Oltre a notarsi esplicitamente da cpu-z che è un ES, lo stile della notizia originale non sembra un qualcosa messo li per pubblicità come le altre volte. Comunque sarebbe interessante capire su che mobo è stato effettuato il test. Se sarà tutto confermato quando le cpu saranno effettivamente sul mercato tra pochissimo penso che Skylake sara per intel quello che è stato Sandy Bridge, le premesse ci sono tutte. Sinceramente ho un po paura per ZEN a questo punto, dovendo andare a confrontarsi con le serie future a questa, e se le premesse cono vere non vedo bene AMD.

batou83
21-07-2015, 11:56
Più che altro quel che a me scoccia è che siano ancora solo quadcores, che abbiano ancora la pasta e che costino mediamente di più rispetto alle precedenti generazioni.

Infatti, la mia prossima piattaforma sarà o un haswell-e oppure zen, skylake e broadwell per il momento sembrano minestre riscaldate :rolleyes:

Mparlav
21-07-2015, 12:02
5.1 con 1.38v è un gran risultato, ma la tensione mi sembra un po' altina per un 14nm... boh si vedrà

Io comunque vivo tra "lo compro" e "non lo compro" da un po'. Alla fine la mia piattaforma ha 2 anni quindi in parte i soldi sono stati sfruttati, dall'altra è da vedere quanto è il gap prestazionale.

Se davvero è il 20% di IPC vuol dire che tra un 10% in + di clock e un 20% in più di IPC si avrebbe una CPU nettamente più veloce

Io l'upgrade bene o male non posso più rinviarlo :)

Ma non ho ancora scartato l'idea dell'i7-5820k.

[K]iT[o]
21-07-2015, 12:05
è giunta l'ora di cambiare il mio glorioso 2600k! :D

Ma anche no, semmai è ora di sotterrare AMD :p

PaulGuru
21-07-2015, 12:08
E AMD rimane a guardare ......

[K]iT[o]
21-07-2015, 12:11
Si, che ci fossero le CPU "cacchette" con architettura Broadwell lo sapevo, io parlavo DELLE CPU, quelle vere, quelle che servono per lavorare, non per andare su FacciaLibro :D

Le CPU Intel ULV (i5 e i7) non sono affatto "da facebook", di sicuro non sono buone per benchmarks ma lavorativamente parlando vanno alla grande, e permettono di avere un laptop fresco e con tanta autonomia.

gd350turbo
21-07-2015, 12:33
Che è un Sandy Bridge? Quell'architettura per andare come farebbe questo a 4.8 deve avere probabilmente 1GHz e mezzo in più di clock, non è poca roba...
Ivy bridge...

Ovvio che a parità di frequenza, vi è un certo divario prestazionale, infatti era una battuta !

Spider-Mans
21-07-2015, 12:33
ottime notizie..speriamo
bassi consumi ..prestazioni migliori...overclock di ottimo livello..che altro si puo chiedere xD
a fine estate
i7 skylake e 980ti per il mio nuovo pc

bobafetthotmail
21-07-2015, 12:40
Mi ricorda certi annunci di AMD su processori a tanti GHz.

Fà nè caldo nè freddo, di un OC valuto l'aumento di prestazioni, non i GHz.

Se anche questi processori sono un 5-8% meglio delle serie precedenti se li tengono e resto su Ivy Bridge che sto bene anche così.

gd350turbo
21-07-2015, 13:03
Se anche questi processori sono un 5-8% meglio delle serie precedenti se li tengono e resto su Ivy Bridge che sto bene anche così.
Non ne conosco le specifiche tecniche, ma ti posso assicurare che sarà così...
Perchè dovrebbero correre ?
Perchè dovrebbero impegnare capitali, per fare un architettura, molto più prestante della precedente ?
Per battere la concorrenza ?
Non credo proprio !

phaolo
21-07-2015, 13:08
ottime notizie..speriamo
bassi consumi ..prestazioni migliori...overclock di ottimo livello..che altro si puo chiedere xD
a fine estate
i7 skylake e 980ti per il mio nuovo pc
Anche io devo assolutamente aggiornare.. speriamo!
Cmq aspetterò qualche recensione, prima di avere brutte sorprese..
Magari a fine anno, se i prezzi non saranno assurdi :mbe:

Intanto devo ancora capire se Win10 fa per me.

marchigiano
21-07-2015, 13:11
il 6700k avrà la iris? :eek: :eek:

.338 lapua magnum
21-07-2015, 13:14
i 5,2 in idle (vcore 0.835) giusto per screen.
i 5 giga per superpippo .......
dissi ad aria si, ma un bitorre, non dice le temp, si rischia dissi "tiepido" e cpu bollente.

Pier2204
21-07-2015, 13:35
E AMD rimane a guardare ......

Prestagli tu quelche decina di milioni di dollari per fare ricerca e sviluppo, perchè con le chiacchere non si va lontano...
Visto che ti piacciono le prestazioni fine a se stesse dovresti crederci...
Se ci riescono ti restituiscono tutto con gli interessi..e ti regalano la CPU.

Raghnar-The coWolf-
21-07-2015, 13:39
il 6700k avrà la iris? :eek: :eek:

no.

Comunque anche il dato di base stabile a 4 Core 4GHz non e' malaccio. Io sul Desktop dell'ufficio vivo con un i7-3770K che non e' malaccio per i calcoli, e questo sarebbe solo di Clock un 20% piu' veloce, piu' il guadagno in IPC che e' stato il vero focus degli ultimi anni...

Abbinato a DDR4 vengono fuori dei bei giocattolini...

Non e' piu' la crescita esponenziale di una volta, ma anche i consumi si sono bloccati ed insomma Skylake sembra riservare belle sorprese in campo Desktop, finalmente.

PaulGuru
21-07-2015, 14:02
Prestagli tu quelche decina di milioni di dollari per fare ricerca e sviluppo, perchè con le chiacchere non si va lontano...
Visto che ti piacciono le prestazioni fine a se stesse dovresti crederci...
Se ci riescono ti restituiscono tutto con gli interessi..e ti regalano la CPU.
E infatti con le chiacchiere e le slide AMD è fortissima.

Prestare io ad AMD ? Che se li procurino loro !
Sta a vedere che io utente finale non posso criticare chi non è in grado di fare concorrenza ! :rolleyes:

Jones D. Daemon
21-07-2015, 14:16
Prestagli tu quelche decina di milioni di dollari per fare ricerca e sviluppo, perchè con le chiacchere non si va lontano...
Visto che ti piacciono le prestazioni fine a se stesse dovresti crederci...
Se ci riescono ti restituiscono tutto con gli interessi..e ti regalano la CPU.

La butto la: potevano investire i soldi spesi in Seamicro (per poi chiuderla brutalmente dopo un anno e mezzo senza avere un ritorno di qualsiasi genere) in R&D...

demon77
21-07-2015, 14:17
Non e' piu' la crescita esponenziale di una volta, ma anche i consumi si sono bloccati ed insomma Skylake sembra riservare belle sorprese in campo Desktop, finalmente.

Vero.
ricordo che divario immenso correva tra diverse famiglie di CPU ai tempi dei 386-486-Pentium.

Oggi la linea di crescita si è decisamente mitigata.. del resto siamo parecchio vicini a fastidiosi limiti fisici da una parte e dall'altra si è (giustamente) reso necessario contenere i consumi dopo le follie dell'epoca Pentium IV.

Mi chiedo quanto tempo sarà ancora necessario prima di vedere in commercio processori quantistici funzionanti.. saranno sufficienti dieci anni?

sintopatataelettronica
21-07-2015, 14:23
E infatti con le chiacchiere e le slide AMD è fortissima.

Sta a vedere che io utente finale non posso criticare chi non è in grado di fare concorrenza ! :rolleyes:

Criticare certamente si può: quel che secondo me è gratuito è che spesso chi fa questi commentini sarcastici esprime il proprio sprezzo per AMD ed esterna il proprio compiacimento per il fatto che essa stia inanellando flop su tutti i fronti.. e che non riesca a stare dietro ad intel né a nvidia..
Insomma .. una decisamente inutile aria di superiorità (come implicitamente a dire: "io che da anni scelgo intel/NVIDIA ho sempre avuto ragione, gli altri che han difeso AMD sono solo dei poveracci e degli stolti")

Che poi da stare allegri c'è poco, se AMD va male: gli anni migliori e con maggiori innovazioni sono stati quelli in cui la concorrenza vera c'era e tutti si stavano reciprocamente col fiato sul collo..

Se rimangono solo due monopoli (cpu INTEL e gpu NVIDIA) ci si rimetterà tutti quanti.. ma qui sembra che alla maggior parte dell'utenza non gliene frega niente di pagare esponenzialmente di più per avere sempre di meno .. ed è contenta solo se può gongolarsi e autocompiacersi..
Il solito infantile desolante gioco a "chi c'è l'ha più grosso".. insomma..

Stephen88
21-07-2015, 14:34
se non sono saldati mi tengo ancora il 2700K

CrapaDiLegno
21-07-2015, 14:38
Criticare certamente si può: quel che secondo me è gratuito è che spesso chi fa questi commentini sarcastici esprime il proprio sprezzo per AMD ed esterna il proprio compiacimento per il fatto che essa stia inanellando flop su tutti i fronti.. e che non riesca a stare dietro ad intel né a nvidia..
Insomma .. una decisamente inutile aria di superiorità (come implicitamente a dire: "io che da anni scelgo intel/NVIDIA ho sempre avuto ragione, gli altri che han difeso AMD sono solo dei poveracci e degli stolti")

Che poi da stare allegri c'è poco, se AMD va male: gli anni migliori e con maggiori innovazioni sono stati quelli in cui la concorrenza vera c'era e tutti si stavano reciprocamente col fiato sul collo..

Se rimangono solo due monopoli (cpu INTEL e gpu NVIDIA) ci si rimetterà tutti quanti.. ma qui sembra che alla maggior parte dell'utenza non gliene frega niente di pagare esponenzialmente di più per avere sempre di meno .. ed è contenta solo se può gongolarsi e autocompiacersi..
Il solito infantile desolante gioco a "chi c'è l'ha più grosso".. insomma..
Concordo al 100% con quello che hai detto, però bisogna anche dire che se una azienda è preposta a fare concorrenza (come nel mercato x86 dove è stata eletta a tale ruolo) lo deve fare, non far finta di farlo.
Perché altrimenti il danno al consumatore è doppio: non c'è alcuna mitigazione dei prezzi e non c'è possibilità di intervento da parte delle autorità preposte al controllo antitrust, dato che un concorrente sulla carta esiste.

Quindi se AMD deve esserci, che sia una AMD che lavora a favore del mercato. Altrimenti che non ci sia proprio, così che il mercato potrà essere regolato in altra maniera che vada a favore del consumatore e di possibili altri competitor. Altrimenti ci stiamo prendendo in giro a sospirar future speranze e prendersela poi ogni volta in quel posto.


Per tutti quelli dei core M e U etc... sono CPU caccole. Se volete l'autonomia usatele. Io uso PC desktop per lavorare. E voglio la potenza di calcolo. Quindi CPU serie.
P.S: sviluppare con un portatile? Meh... gli arnesi del mestiere in questo caso sono la tastiera e il monitor e non mi viene in mente nulla di positivo nell'usare un portatile pensando alla qualità di entrambi.

gd350turbo
21-07-2015, 15:21
Se rimangono solo due monopoli (cpu INTEL e gpu NVIDIA) ci si rimetterà tutti quanti.. ma qui sembra che alla maggior parte dell'utenza non gliene frega niente di pagare esponenzialmente di più per avere sempre di meno ..
E' doveroso ricordare che il processore ultimo tipo, la vga super pompata, NON SONO cose necessarie alla sopravvivenza, in questo momento, nel mondo, milardi di persone stanno vivendo la loro vita senza possederne e non mi pare che stessa sia compromessa dalla loro mancanza...
Quindi, se in un futuro più o meno prossimo, amd finirà gambe all'aria distruggendo quindi quel poco di concorrenza che ora c'è, se le compagnie monopoliste, alzeranno di brutto i prezzi, basterà il classico "scaffale" a convincerli ad abbassare i prezzi !

Marko#88
21-07-2015, 15:24
Se a settembre/ottobre prendo davvero il bonus prendo cpu main e ram nuove :D


Coda per il tuo hw :asd:

Hoolman
21-07-2015, 15:24
Anche io devo upgradare, quindi seguo con interesse.
IMHO è ormai evidente che tra Intel e AMD non c'è nessuna concorrenza. Siamo su due piani completamente diversi sia nelle prestazioni, che nel prezzo.

Come dire che la Ferrari e la Dacia si fanno concorrenza... ovvio che sono due autovetture, ma se sperate/credete che una Dacia faccia uscire dei modelli tali che la Ferrari abbassi i prezzi... :sofico:

CrapaDiLegno
21-07-2015, 15:24
ancora con sta storia, ma senza PP a 14 o 16nm come può competere AMD con questa cpu? :rolleyes:
avesse anche la più super delle architettura, ma se poi sei costretto a farlo a 28nm :asd:

eh niente, la tentazione di scrivere su una notizia intel, che amd fa schifo è troppo forte per alcuni :doh:
Stai parlando di oggi... il problema di AMD non nasce oggi. Nasce con il Phenom. Tutto quello che è seguito è un disastro dietro l'altro. Con un PP migliore puoi avere CPU più piccole e che consumano meno, ma quando decidi di tua sponte di fare una architettura che usa chilometri di silicio con un IPC ridicolo (chi ha detto Bulldozer?) è perché sei incapace o speri di essere come Intel che ha risolto per anni i problemi a suon di PP più avanzati degli altri.

E nelle GPU, il problema sta nel PP?

Jones D. Daemon
21-07-2015, 15:38
ancora con sta storia, ma senza PP a 14 o 16nm come può competere AMD con questa cpu? :rolleyes:
avesse anche la più super delle architettura, ma se poi sei costretto a farlo a 28nm :asd:

eh niente, la tentazione di scrivere su una notizia intel, che amd fa schifo è troppo forte per alcuni :doh:

AMD aveva le sue fonderie che vendette per acquisire ATI. Se ora si ritrova senza e a doversi affidare ad altri che ad oggi non sono in grado di competere la colpa altro non è che sua.

devil_mcry
21-07-2015, 16:03
ok ma se cappi una architettura ti ci vanno anni prima cambiarla, anche intel non cambiò il pentium 4 per un bel po', mi pare 4 anni o più forse 5 anni e ci mise toppe ed anzi lo pomparono pure loro a più non posso prima di sfornare i Core... in tutti i progetti e commercializzazioni ci sono i tempi di rientro dell'investimento...
ora per di più non solo amd deve aspettare di sfornare una nuova architettura, ma deve pure aspettare il PP adatto che è in ritardo di quasi 2 anni :eek:

infatti sulle gpu c'è concorrenza, la fury x pareggia a 4k e sta sotto del 5% in QHD consumando +30w su 250w di picco (parliamo del +12% circa, ci sta tutto) e amd non aggiorna architettura come nvidia ogni 2 anni ma ogni 4 facendo solo ritocchi, ma li si fanno cartello con nvidia...

dire che sulle gpu non c'è concorrenza è voler criticare a tutti i costi amd a priori

In realtà 3 anni se si considera l'uscita sul mercato del Pentium M (che è l'architettura nuova da cui poi sono seguiti i Core e i Core 2 etc). Però almeno all'epoca Intel nonostante l'architettura zoppa potendo salire di frequenza, introducendo l'HT e via dicendo ha tamponato un po' il disastro. I BD di AMD sono usciti 4 anni fa ma l'architettura nuova si vedrà forse l'anno prossimo, se si considera che saranno poi tipo 2 anni (l'anno prossimo) che non propone CPU high end nuove...

batou83
21-07-2015, 16:06
Ma le temperature di questo skylake a 14 nm sparato a 5 GHZ e raffreddato ad aria, si attestano sui 90 gradi o arrivano anche a 120 ? :ciapet:

Zappa1981
21-07-2015, 16:13
AMD è in difficoltà si vede lontano un chilometro, vedremo quando sfornerà qualcosa di nuovo sperando che faccia un pò il c... ad intel per una volta

PaulGuru
21-07-2015, 16:18
Criticare certamente si può: quel che secondo me è gratuito è che spesso chi fa questi commentini sarcastici esprime il proprio sprezzo per AMD ed esterna il proprio compiacimento per il fatto che essa stia inanellando flop su tutti i fronti..
Ma anche se fosse cambierebbe poco la cosa visto che è un sentimento che AMD ha ampiamente meritato.

devil_mcry
21-07-2015, 16:31
si ma facciamo il confronto desktop to desktop da quando è uscito il primo Willamette al primo Conroe e passiamo dal 2000 al 2006 e dai 180nm ai 65nm...
sennò potrei dire lo stesso di BD che sul mobile vedrà l'ultima revisione di architettura a 28nm con Excavator e guarda bene passando dai 32 ai 28 e non dai 180 ai 90...
mi pare che ci siano differenze ABISSALI oggi giorno con quei tempi...



dipende, spero non ci sia la pasta sennò li vedi col binocolo i 5 gigi, dovresti scoperchiare altrimenti :rolleyes: ed è una cosa che non accetto.

senza FIVR e senza pasta (se così è non lo so) sarà una gran cpu, un riferimento come lo è stato sandy bridge

Si ma allo stesso modo AMD sono 2 anni che non vende CPU high end e lamenta l'andamento delle APU. il 9590 è uscito nel 2013... 3 anni (non 2 come avevo detto) senza vendere CPU è tanto...

devil_mcry
21-07-2015, 16:49
quindi ti rinnovo la domanda, cosa dovrebbe fare senza PP adatto a cpu high end???

io analizzo i motivi per il quale non può e non mi limito a dire "amd guarda" "non fa concorrenza".

Come ho detto a suo tempo non puoi pensare di fare un'architettura (ma più in generale un progetto ingegneristico) che non sei in grado di realizzare con le tecnologie attuali.

Se non c'è il PP la colpa non è dovuta alla mancanza dello stesso ma è l'architettura stessa ad essere fuori luogo, perchè mentre l'architettura la puoi ripensare (in fase iniziale o in corso) i limiti tecnologici sono limiti e ci devi convivere. Questo è l'ABC...

BD è stato ritardato di vari anni prima di uscire sul mercato perchè non avevano il silicio (doveva già uscire a 45nm se ben ricordo), il tempo per capire la cosa l'hanno avuto. Hanno tentato di realizzare un'architettura che non è possibile tecnologicamente fare con nessun PP oggi in commercio praticamente, figurati 2 anni fa.

Quindi si, è colpa di AMD, non del fatto che non c'è il PP ma del fatto che hanno portato avanti un progetto che si è dimostrato non sostenibile. Questo è quello che un ingegnere o un team di ingegneri non dovrebbe mai fare.

E se da un punto di vista architetturale Netburst e BD all'inizio avevano molto in comune in relazione al concorrente, da un punto di vista dell'evoluzione della situazione AMD sicuramente ha fatto un disastro. Certo il 2013 non è il 2000, hai ragione, ma anche questa non è una scusa, perchè la cavolata di Intel è storia e forse qualche domanda BD doveva accenderla in testa alla dirigenza AMD del tempo.

cdimauro
21-07-2015, 17:07
Non ne conosco le specifiche tecniche, ma ti posso assicurare che sarà così...
Perchè dovrebbero correre ?
Perchè dovrebbero impegnare capitali, per fare un architettura, molto più prestante della precedente ?
Per battere la concorrenza ?
Non credo proprio !
Eppure vengono investiti tanti capitali per progettare le nuove CPU. Intel non vive di rendita, come contrariamente si potrebbe pensare.
Mi chiedo quanto tempo sarà ancora necessario prima di vedere in commercio processori quantistici funzionanti.. saranno sufficienti dieci anni?
Può darsi che non basteranno nemmeno quelli. I computer quantistici non si prestano a qualunque tipologia di calcolo, ma attualmente sono soltanto 6 i campi (algoritmi) in cui avrebbe senso impiegarli.

Per cui credo che ci terremo il paradigma attuale ancora per parecchio tempo.
Per tutti quelli dei core M e U etc... sono CPU caccole. Se volete l'autonomia usatele. Io uso PC desktop per lavorare. E voglio la potenza di calcolo. Quindi CPU serie.
P.S: sviluppare con un portatile? Meh... gli arnesi del mestiere in questo caso sono la tastiera e il monitor e non mi viene in mente nulla di positivo nell'usare un portatile pensando alla qualità di entrambi.
Monitor e tastiera li colleghi anche a un portatile. E difatti credo che sia così per milioni di impiegati che usano un portatile per lavoro.

A lavoro ho una docking station a cui sono collegati altri 2 monitor, tastiere, mouse, e cuffie USB. E un i5 (mobile) va bene per il 99% del tempo.
ok ma se cappi una architettura ti ci vanno anni prima cambiarla, anche intel non cambiò il pentium 4 per un bel po', mi pare 4 anni o più forse 5 anni e ci mise toppe ed anzi lo pomparono pure loro a più non posso prima di sfornare i Core... in tutti i progetti e commercializzazioni ci sono i tempi di rientro dell'investimento...
Intel ha realizzato diversi modelli di Pentium 4. Non è rimasta ferma a Willamette, e già con Northwood era competitiva (http://www.hwupgrade.it/articoli/cpu/589/intel-pentium-4-2-4-ghz_7.html).
AMD aveva le sue fonderie che vendette per acquisire ATI. Se ora si ritrova senza e a doversi affidare ad altri che ad oggi non sono in grado di competere la colpa altro non è che sua.
Visti tutti i problemi che ha avuto e continua ad avere Globalfoundries, direi che almeno in questo AMD abbia fatto una scelta saggia.
chiedi all'utente @cdmauro, che ne sa, se ha fatto bene o meno a vendere le FAB vediamo cosa ti dice...
Le fab non sono il mio campo. Per il resto, le mie sono conclusioni che può fare chiunque legga notizie di questo tipo.

Toshia
21-07-2015, 18:21
se non sono saldati mi tengo ancora il 2700K

Spero che le cose non stiano come su questi siti che ho trovato, comunque li parlano di un delid del suddetto procio e le foto sono scandalose: ancora la pasta del capitano corretta al mentolo.
http://www.eteknix.com/intel-skylake-i7-6700k-de-lid-shows-thermal-paste-small-die-no-vrm/

https://forum.teksyndicate.com/t/i7-6700k-still-using-poor-thermal-paste-between-die-heat-spreader/82325

Resta da vedere ora se faranno una serie extreme con la saldatura e le serie per i poveracci senza. Se facessero così allora cadrebbe come un castello di carte la teoria secondo cui la saldatura fluxless sarebbe evitata a causa delle dimensioni proibitive. Quindi via con le ipotesi più complottiste secondo cui lo fanno di proposito per limitare l' OC. Lo scopriremo solo vivendo. Magari la redazione sarà così generosa da scoperchiare uno di quei gioiellini in nome della cultura e mostrarci l' interno.

sintopatataelettronica
21-07-2015, 19:10
Concordo al 100% con quello che hai detto, però bisogna anche dire che se una azienda è preposta a fare concorrenza (come nel mercato x86 dove è stata eletta a tale ruolo) lo deve fare, non far finta di farlo.
Perché altrimenti il danno al consumatore è doppio: non c'è alcuna mitigazione dei prezzi e non c'è possibilità di intervento da parte delle autorità preposte al controllo antitrust, dato che un concorrente sulla carta esiste.

Quindi se AMD deve esserci, che sia una AMD che lavora a favore del mercato. Altrimenti che non ci sia proprio, così che il mercato potrà essere regolato in altra maniera che vada a favore del consumatore e di possibili altri competitor. Altrimenti ci stiamo prendendo in giro a sospirar future speranze e prendersela poi ogni volta in quel posto.

Sì, ovvio..
E al momento non c'è proprio.. non ha un solo prodotto concorrenziale: le Fury sono state un megaflop galattico e dal lato CPU è una tragedia da anni.

Infatti ho detto che criticare è stralecito.. ma col mio intervento volevo solo sottolineare come il tono "compiaciuto" di molti post sulla crisi AMD mi pare abbastanza sciocco e infantile.. (come - peraltro - non ammettere che sta in crisi nera e non sta più offrendo da tempo né dal lato CPU nè da quello GPU un solo prodotto tecnicamente all'altezza della concorrenza)

sintopatataelettronica
21-07-2015, 19:14
Ma anche se fosse cambierebbe poco la cosa visto che è un sentimento che AMD ha ampiamente meritato.

Beh.. che tu sei fanboy accecato dall'"odio" non è un mistero per nessuno.. per cui c'è ben poco da dialogare con te.

..e lasciamo perdere che cosa si son meritate nel corso degli anni sia INTEL che NVIDIA, vah... tra l'altro NVIDIA pure di recente :D

marchigiano
21-07-2015, 20:16
Non e' piu' la crescita esponenziale di una volta, ma anche i consumi si sono bloccati ed insomma Skylake sembra riservare belle sorprese in campo Desktop, finalmente.

la crescita continua a essere esponenziale, ma lato gpu, le future iris pro da 72EU e 128mb L4 andranno come una gpu discreta di fascia media... :eek:

riguardo la pasta del capitano, secondo me sui socket mainstream continueranno a mettercela perchè utilizzano gli stessi die mobile che sono scoperchiati, quindi gli costerebbe troppo fare una nuova catena di montaggio con la saldatura... i socket 2011 invece saranno sempre saldati visto che escono sempre e solo con l'his

mi chiedo solo perchè almeno le cpu k non le fanno direttamente scoperchiate... :muro:

Zappa1981
21-07-2015, 21:48
la crescita continua a essere esponenziale, ma lato gpu, le future iris pro da 72EU e 128mb L4 andranno come una gpu discreta di fascia media... :eek:

riguardo la pasta del capitano, secondo me sui socket mainstream continueranno a mettercela perchè utilizzano gli stessi die mobile che sono scoperchiati, quindi gli costerebbe troppo fare una nuova catena di montaggio con la saldatura... i socket 2011 invece saranno sempre saldati visto che escono sempre e solo con l'his

mi chiedo solo perchè almeno le cpu k non le fanno direttamente scoperchiate... :muro:

perchè le compri lostesso anche con la pasta del capitano allora perchè dovrebbero adeguarsi....

Toshia
21-07-2015, 23:11
perchè le compri lostesso anche con la pasta del capitano allora perchè dovrebbero adeguarsi....

Già:doh:
Comunque l' articolo parla di overclock ad aria e lascia un retrogusto di scetticismo in bocca. Pasta del capitano ed overclock:confused: ,sarà verisimile che fosse un procio raffreddato ad aria liscio liscio, senza delid e senza alcun magheggio?

CrapaDiLegno
22-07-2015, 11:35
infatti sulle gpu c'è concorrenza, la fury x pareggia a 4k e sta sotto del 5% in QHD consumando +30w su 250w di picco (parliamo del +12% circa, ci sta tutto) e amd non aggiorna architettura come nvidia ogni 2 anni ma ogni 4 facendo solo ritocchi, ma li si fanno cartello con nvidia...

dire che sulle gpu non c'è concorrenza è voler criticare a tutti i costi amd a priori
Stai confondendo quello che per te è competitivo con quello che è competitivo per l'azienda.
La Fury NON e' COMPETITIVA. Punto.
Il costo e le risorse necessarie per stare ancora sotto alle prestazioni della concorrenza rendono il progetto un fallimento dal punto di vista economico.
Se tutto il lavoro svolto su questa GPU si trasformerà in un vantaggio con il prossimo PP, è da dimostrare. Per ora se AMD dovesse vendere le Fiji per fare cassa, semplicemente morirebbe di fame.
Questa non è la competitività che il mercato vuole. Il mercato vuole una scheda che viaggia sopra le prestazioni della concorrenza e che non si faccia schiacciare dal prezzo imposto da essa.
Cosa ha cambiato la Fury per noi consumatori? A me non sembra che la GTX980Ti sia scesa di prezzo. Né la GTX980 con la quale la versione castrata di Fiji vince (e neanche lì tanto a mani basse). E la scheda non è né una buona pubblicità per AMD (sempre eterna seconda anche questa volta) né un fonte di guadagno.
Quindi, di quale concorrenza stiamo parlando? Quella che viaggia "a botte di culo" (wow, forse la Fury ce la fa, forse no) invece di quella che è pienamente sostenibile, ovvero io faccio un prodotto migliore, vendo di più/guadagno di più = mi permetto di poter continuare a investire per migliorare ulteriormente e tenere sotto scacco la concorrenza?
E qui abbiamo parlato solo della ciliegina sulla torta, il top del massimo assoluto... vogliamo parlare di quanto siano concorrenziali Hawaii contro il GM204 o Tonga contro il GM206?

Lo ripeto dal tempo della presentazione della GTX680, se AMD non rivede profondamente la sua architettura per il prossimo PP, staremo esattamente come BD vs Sandy Bridge. Per ora siamo nella fase Phenom vs Core2. Speriamo che la storia non si ripeta, perché a quel punto non c'è giustificazione sul PP o minchi@te varie che tenga: sono incapaci ed è giusto quello che li aspetta.

zulutown
22-07-2015, 11:39
non ho mai capito al giorno d'oggi l'utilità degli overclock............

zulutown
22-07-2015, 11:40
Per tutti quelli dei core M e U etc... sono CPU caccole. Se volete l'autonomia usatele. Io uso PC desktop per lavorare. E voglio la potenza di calcolo. Quindi CPU serie.
P.S: sviluppare con un portatile? Meh... gli arnesi del mestiere in questo caso sono la tastiera e il monitor e non mi viene in mente nulla di positivo nell'usare un portatile pensando alla qualità di entrambi.

se vuoi potenza di calcolo, usi il cloud

Piedone1113
22-07-2015, 15:05
se vuoi potenza di calcolo, usi il cloud

Ma per lui cpu seria significa i7 k o x, mica xeon (single dual o quad socket) o cluster per il calcolo distribuito.

Vul
23-07-2015, 11:41
si sa niente della gpu integrata?

devil_mcry
23-07-2015, 11:58
a ridaglie

il progetto BD pensi sia nato in un paio di anni?
BD è nato nel 2007 guardando al 2010 come lancio e al 45nm come primo step per arrivare a fine ciclo con i 22nm PD-SoI sotto la supervisione della tanto conclamata IBM (ma guarda un po pure loro sbagliano oltre a GF o ad AMD)
quando la stavano progettando si aspettavano ben altro livello, e ad un anno dal lancio nel 2010 cosa potevano fare se non farlo uscire comunque, buttare via tutto?

il ritardo di BD ha portato AMD ha sfornare i phenom x6 sul 45nm SoI migliorato e a tener ancora testa ad Intel.

poi il fail del 32nm PD-SoI che ha portato al primo BD ad un clock di ben 900mhz inferiore alle attese (da 4.5ghz def a 3.6ghz del primo 8150) e alla cancellazione di komodo x10 nella roadmap all'istante della presentazione... poi il dopo è solo una conseguenza di ASSENZA DI SILICIO TOP
cavolo parlavano di 22nm PD-SoI e di cpu x16 native oltre ad un x10 già nativo sui 32nm PD-SoI... come si fa a dire che è solo colpa dell'architettura dai!?!

di fatto nel 2012 è nata la concezione di Zen sotto la supervisione di Keller, che propende per il suo passato per l'alto IPC e forse utilizzeranno SMT anche loro.

tutto questo per dire che non ha senso dire: "che cestinino BD e rimedino",
primo perché per studiare una Architettura nuova ci vogliono dai 3 ai 5 anni e secondo perché devi avere il PP adatto per farlo, ed essendo FABLESS sarà sempre più difficile

che poi l'architettura abbia le sue colpe siamo tutti d'accordo

E' sempre colpa di altro, ma nel momento in cui dopo 3 anni (2010) si erano già resi conto che le cose non andavano come pensavano forse far partire un progetto in parallelo con un'architettura nuova da far uscire nel 2013 (3 anni dopo) era un'idea (visto che dal 2013 non hanno più proposto nulla), idea che però a nessuno è venuto in mente.

E ti rigiro la domanda, visto che dici ridaglie, ad oggi esiste un PP, di chiunque, che garantirebbe frequenze tanto elevate da sopperire al gap? Non mi pare. E siamo nel 2015. Non esiste tecnologicamente il SILICIO TOP, perchè non possono farlo.

Quindi chi ha sbagliato?

Perchè poi PD a 5GHz con clock di base di 4.7GHz l'hanno buttato in vendita, e lasciando perdere i 200w di TDP, le prestazioni erano comunque scarse nonostante la revisione dell'architettura e il clock elevato.

Piedone1113
23-07-2015, 12:20
E' sempre colpa di altro, ma nel momento in cui dopo 3 anni (2010) si erano già resi conto che le cose non andavano come pensavano forse far partire un progetto in parallelo con un'architettura nuova da far uscire nel 2013 (3 anni dopo) era un'idea (visto che dal 2013 non hanno più proposto nulla), idea che però a nessuno è venuto in mente.

E ti rigiro la domanda, visto che dici ridaglie, ad oggi esiste un PP, di chiunque, che garantirebbe frequenze tanto elevate da sopperire al gap? Non mi pare. E siamo nel 2015. Non esiste tecnologicamente il SILICIO TOP, perchè non possono farlo.

Quindi chi ha sbagliato?

Perchè poi PD a 5GHz con clock di base di 4.7GHz l'hanno buttato in vendita, e lasciando perdere i 200w di TDP, le prestazioni erano comunque scarse nonostante la revisione dell'architettura e il clock elevato.

Ma a te chi ti dice che non ci fosse un progetto pronto per un pp inferiore al 32nm (gia in fase di progettazione si decide su che pp fare la cpu e quindi quanti transistor integrare, densità minori in zone più calde, timing e frequenze di cache che possono variare anche di frequenza in base al pp)?

per le schede video si fa la stessa cosa e gm204 è una fascia media dei 16 nm adattata ai 28, ma gk210 è sicuramente nel cassetto a fare la muffa e nell'attesa del 16 nm verrà modificato (migliorandolo secondo i simulatori) o forse cestinato del tutto perché verrà sostituito da una nuova architettura).
Non è che Amd abbia mandato in ferie i progettisti, ma senza nuovo pp non fai uscire una cpu ad alte prestazioni adattata ad un processo non idoneo per castrarla e farla andare molto meno di quello che dovrebbe.
Continui ad evolvere l'architettura, oppure nel peggiore dei casi butti tutto alle ortiche e sviluppi una nuova architettura per il pp successivo.

Amd avrebbe dovuto fanculare Gf, ma:
Non sappiamo se i contratti potessero essere stracciati senza superare nei costi i mancati guadagni.
Samsung sarebbe stata capace un pp ad alte prestazioni (tsmc sappiamo per certo no)? non credo dato che ha avuto non pochi problemi gia con le sue cpu arm.
Rimane solo Intel, ma non credo che sarebbe disposta a fabbricare cpu per la concorrenza.

PaulGuru
23-07-2015, 13:27
Beh.. che tu sei fanboy accecato dall'"odio" non è un mistero per nessuno.. per cui c'è ben poco da dialogare con te.

..e lasciamo perdere che cosa si son meritate nel corso degli anni sia INTEL che NVIDIA, vah... tra l'altro NVIDIA pure di recente :D

fanboy Intel = chiunque osi criticare AMD

Io ho avuto molti AMD e li ho sempre presi tranquillamente.
Se io sono un fanboy, allora il papa tromba più di Siffredi.

-Maxx-
23-07-2015, 15:14
Che bello leggere una news in "vecchio stile" hwu :D:D

Già, è un vero peccato che l'industria del PC sia rallentata negli ultimi anni a tal punto da rendere meno frequenti questo tipo di notizie...

cdimauro
23-07-2015, 16:36
[...] Continui ad evolvere l'architettura, oppure nel peggiore dei casi butti tutto alle ortiche e sviluppi una nuova architettura per il pp successivo.
Una nuova architettura la sviluppi anche con lo stesso processo produttivo. Specialmente se hai completamente cannato il progetto, com'è accaduto con Bulldozer, e nonostante i successivi tentativi di correzione.
Amd avrebbe dovuto fanculare Gf, ma:
Non sappiamo se i contratti potessero essere stracciati senza superare nei costi i mancati guadagni.
Samsung sarebbe stata capace un pp ad alte prestazioni (tsmc sappiamo per certo no)? non credo dato che ha avuto non pochi problemi gia con le sue cpu arm.
Rimane solo Intel, ma non credo che sarebbe disposta a fabbricare cpu per la concorrenza.
Decisamente no. :D

Piedone1113
23-07-2015, 19:33
Una nuova architettura la sviluppi anche con lo stesso processo produttivo. Specialmente se hai completamente cannato il progetto, com'è accaduto con Bulldozer, e nonostante i successivi tentativi di correzione.



Si, se sai che i 22nm (che erano quelli previsti) invece che uscire dopo 18 mesi sarebbe stati cancellati ed invece ti tocca aspettare i 16nm per 36 mesi.

Intel ha solo leggermente affinato la sua architettura quando ha preso atto che i ritardi erano sul pp erano troppo in la come tempi.
Il mancato guadagno (perché di quello si parla) era superiore ad un affinamento sull'architettura (e parliamo di solo affinamento).
Sono certo anch'io che sarebbe uscita un'architettura migliore di BD sui 32nm, ma si doveva fare una nuovo chipset e controller ram per ddr3, magari uscire con al max 4 core + ht (perché presumo che la prossima cpu avrà L3 da minimo 12 mb, forse 16, per il passaggio da cache esclusiva ad inclusiva. ) e comunque con prestazioni nettamente inferiori agli i7 4+4 (non ci vorremmo aspettare un ipc doppio rispetto agli i7 normalizzato al numero di transistor).
E soprattutto un ciclo di vita di soli 6 mesi.
Credi che sia conveniente oppure che lo sforzo economico non sarebbe comunque rientrato con la vendita di tale cpu?
Cosa è meglio spendere 100 per rientrare di 100 (nel migliore dei casi) o spendere 0 per rientrare di 10?
Di questo sono certo perché nonostante tutto i creditori credono fattibile il piano industriale di AMD, altrimenti si sarebbero gia chiuse le borse e Amd sarebbe gia gambe all'aria.
Intel stessa ha cercato comunque di massimizzare gli investimenti dei P4, che anche non avendo un gap prestazionale ecclatante con A64 erano comunque inferiori, soprattutto nelle versioni dual e xeon.
E' uscita con l'architettura core2 nei tempi più propizi per gli investitori e sappiamo tutti come è andata e credo che anticipare l'architettura avrebbe ridotto gli utili netti a Intel.

Quindi i torti di AMD sono (secondo me):
Phenom 1 palesemente buggati (con il PhII che male non era, ma ormai la nomea c'era) ed in ritardo di 6 mesi
Un architettura troppo automatizzata nella progettazione per contenere i costi ed i tempi per cercare di recuperare su Intel (le cpu di AMD erano buone perché progettate a mano come fa un artigiano)
Necessità di vendere le fonderie e vincolarsi nella fornitura esclusiva con GF nei primi tempi.

Troppa fiducia negli studi IBM (lunghezza pipiline e lackage dei transistor) e nei tempi di miniaturizzazione.

Non aver cercato per tempo un'alternativa a BD, ed anzi affidarsi ad un suo derivato per le Apu (e secondo me se Jaguar fosse stato previsto per il 32nm sarebbe stato meglio, ma poi tutta la gpu sarebbe stata da riprogettare per ripassare dal Soi al Bulk o all'Fb-Soi)

Essersi fidata dei tempi previsti dalle fonderie (la stessa tsmc ha dato problemi anche se in modo molto meno marcato che GF)

In definitiva ha commessi diversi errori, ma alcuni erano obbligati, altri invece dei veri e propri fallimenti individuali.

devil_mcry
23-07-2015, 21:04
Ma a te chi ti dice che non ci fosse un progetto pronto per un pp inferiore al 32nm (gia in fase di progettazione si decide su che pp fare la cpu e quindi quanti transistor integrare, densità minori in zone più calde, timing e frequenze di cache che possono variare anche di frequenza in base al pp)?

per le schede video si fa la stessa cosa e gm204 è una fascia media dei 16 nm adattata ai 28, ma gk210 è sicuramente nel cassetto a fare la muffa e nell'attesa del 16 nm verrà modificato (migliorandolo secondo i simulatori) o forse cestinato del tutto perché verrà sostituito da una nuova architettura).
Non è che Amd abbia mandato in ferie i progettisti, ma senza nuovo pp non fai uscire una cpu ad alte prestazioni adattata ad un processo non idoneo per castrarla e farla andare molto meno di quello che dovrebbe.
Continui ad evolvere l'architettura, oppure nel peggiore dei casi butti tutto alle ortiche e sviluppi una nuova architettura per il pp successivo.

Amd avrebbe dovuto fanculare Gf, ma:
Non sappiamo se i contratti potessero essere stracciati senza superare nei costi i mancati guadagni.
Samsung sarebbe stata capace un pp ad alte prestazioni (tsmc sappiamo per certo no)? non credo dato che ha avuto non pochi problemi gia con le sue cpu arm.
Rimane solo Intel, ma non credo che sarebbe disposta a fabbricare cpu per la concorrenza.

Perchè se avessero avuto un progetto pronto ad alto IPC per un PP inferiore l'avrebbero già messo in commercio, invece no. (AMD vende già CPU a 28nm)

nVidia con Kepler e poi Maxwell ha fatto il gioco delle 2 GPU perchè AMD non ha cambiato l'architettura e ha potuto farlo (ricordo che il GK110 doveva uscire, magari non full, come GTX680 e invece con il GK104 si sono fatti tutto il primo giro). Inoltre GK110 GM210 non sono architetture nuove rispetto a GK104 e GM104.

AMD infine non produce e vende solo su silicio GF, Kaveri è su 28 bulk TSMC e comunque rispetto al 32SOI di GF ha perso un po' di clock che ha pareggiato con il lieve aumento di IPC. Quindi con che silicio si dovevano realizzare queste CPU dato che Samsung produce silicio per applicazioni low power principalmente e sia TSMC che GF non hanno il silicio adatto e nemmeno il 32nm di Intel probabilmente gli avrebbe dato chissà quanto in più?

cdimauro
23-07-2015, 21:26
Si, se sai che i 22nm (che erano quelli previsti) invece che uscire dopo 18 mesi sarebbe stati cancellati ed invece ti tocca aspettare i 16nm per 36 mesi.
Sì, ma la nuova architettura la puoi realizzare a prescindere dal processo produttivo. Il nocciolo è questo.
Intel ha solo leggermente affinato la sua architettura quando ha preso atto che i ritardi erano sul pp erano troppo in la come tempi.
No, Intel continua a tirare per la sua strada, e fa del suo meglio per rilasciare prodotti migliori.

D'altra parte ti faccio notare che AMD non è la sua unica concorrente. Tutt'altro.
Il mancato guadagno (perché di quello si parla) era superiore ad un affinamento sull'architettura (e parliamo di solo affinamento).
Sono certo anch'io che sarebbe uscita un'architettura migliore di BD sui 32nm, ma si doveva fare una nuovo chipset e controller ram per ddr3, magari uscire con al max 4 core + ht (perché presumo che la prossima cpu avrà L3 da minimo 12 mb, forse 16, per il passaggio da cache esclusiva ad inclusiva. ) e comunque con prestazioni nettamente inferiori agli i7 4+4 (non ci vorremmo aspettare un ipc doppio rispetto agli i7 normalizzato al numero di transistor).
E soprattutto un ciclo di vita di soli 6 mesi.
Credi che sia conveniente oppure che lo sforzo economico non sarebbe comunque rientrato con la vendita di tale cpu?
Considerato che sono passati ben più di 6 mesi, e che non serviva né un nuovo chipset né un nuovo controller, direi che AMD ha preferito buttarsi su qualche affinamento per non spendere troppo, anziché cancellare Bulldozer e sviluppare una nuova architettura realmente competitiva.
Cosa è meglio spendere 100 per rientrare di 100 (nel migliore dei casi) o spendere 0 per rientrare di 10?
Ma non è così, perché nel frattempo hai perso notevoli quote di mercato in ambito desktop, e sei letteralmente sparita dal molto più redditizio mercato server.

Se non fosse stato per la commessa delle console, per quanto poco margine ci sia, i bilanci sarebbero stati costantemente in rosso.
Di questo sono certo perché nonostante tutto i creditori credono fattibile il piano industriale di AMD, altrimenti si sarebbero gia chiuse le borse e Amd sarebbe gia gambe all'aria.
Guarda sopra: non c'è finita grazie alle console. Ma in ogni caso lavorando a queste ha drenato risorse dallo sviluppo di architetture più competitive.
Intel stessa ha cercato comunque di massimizzare gli investimenti dei P4, che anche non avendo un gap prestazionale ecclatante con A64 erano comunque inferiori, soprattutto nelle versioni dual e xeon.
E' uscita con l'architettura core2 nei tempi più propizi per gli investitori e sappiamo tutti come è andata e credo che anticipare l'architettura avrebbe ridotto gli utili netti a Intel.
Le nuove architetture richiedo 2-3 anni di sviluppo. E nonostante la batosta, Intel ha comunque realizzato diverse versioni di P4, migliorando man mano l'architettura. Quindi ha investito non poco anche in quest'architettura, e d'altra parte non poteva fare altrimenti perché questa base l'aveva già ed era l'unica che poteva sfruttare.
Quindi i torti di AMD sono (secondo me):
Phenom 1 palesemente buggati (con il PhII che male non era, ma ormai la nomea c'era) ed in ritardo di 6 mesi
Mi spiace, ma era già molto in ritardo. Ho preso un Phenom II (che ho ancora, a Catania) soltanto perché era più economico di un processore Intel di simili caratteristiche.
Un architettura troppo automatizzata nella progettazione per contenere i costi ed i tempi per cercare di recuperare su Intel (le cpu di AMD erano buone perché progettate a mano come fa un artigiano)
Beh, non è certo questo che fa la "bontà" di un processore, ma i risultati che consente di raggiungere. ;)
Necessità di vendere le fonderie e vincolarsi nella fornitura esclusiva con GF nei primi tempi.
Che non ha ancora fatto, però. Non capisco perché continua ancora con GF...
Troppa fiducia negli studi IBM (lunghezza pipiline e lackage dei transistor) e nei tempi di miniaturizzazione.
Questo è un problema che hanno tutti.
Non aver cercato per tempo un'alternativa a BD, ed anzi affidarsi ad un suo derivato per le Apu (e secondo me se Jaguar fosse stato previsto per il 32nm sarebbe stato meglio, ma poi tutta la gpu sarebbe stata da riprogettare per ripassare dal Soi al Bulk o all'Fb-Soi)

Essersi fidata dei tempi previsti dalle fonderie (la stessa tsmc ha dato problemi anche se in modo molto meno marcato che GF)

In definitiva ha commessi diversi errori, ma alcuni erano obbligati, altri invece dei veri e propri fallimenti individuali.
Beh, per l'architettura i problemi sono tutti suoi. Come pure per l'acquisizione di Ati a un prezzo esagerato.

Piedone1113
24-07-2015, 08:35
Sì, ma la nuova architettura la puoi realizzare a prescindere dal processo produttivo. Il nocciolo è questo.

No, Intel continua a tirare per la sua strada, e fa del suo meglio per rilasciare prodotti migliori.

D'altra parte ti faccio notare che AMD non è la sua unica concorrente. Tutt'altro.

Considerato che sono passati ben più di 6 mesi, e che non serviva né un nuovo chipset né un nuovo controller, direi che AMD ha preferito buttarsi su qualche affinamento per non spendere troppo, anziché cancellare Bulldozer e sviluppare una nuova architettura realmente competitiva.

Ma non è così, perché nel frattempo hai perso notevoli quote di mercato in ambito desktop, e sei letteralmente sparita dal molto più redditizio mercato server.

Se non fosse stato per la commessa delle console, per quanto poco margine ci sia, i bilanci sarebbero stati costantemente in rosso.

Guarda sopra: non c'è finita grazie alle console. Ma in ogni caso lavorando a queste ha drenato risorse dallo sviluppo di architetture più competitive.

Le nuove architetture richiedo 2-3 anni di sviluppo. E nonostante la batosta, Intel ha comunque realizzato diverse versioni di P4, migliorando man mano l'architettura. Quindi ha investito non poco anche in quest'architettura, e d'altra parte non poteva fare altrimenti perché questa base l'aveva già ed era l'unica che poteva sfruttare.

Mi spiace, ma era già molto in ritardo. Ho preso un Phenom II (che ho ancora, a Catania) soltanto perché era più economico di un processore Intel di simili caratteristiche.

Beh, non è certo questo che fa la "bontà" di un processore, ma i risultati che consente di raggiungere. ;)

Che non ha ancora fatto, però. Non capisco perché continua ancora con GF...

Questo è un problema che hanno tutti.

Beh, per l'architettura i problemi sono tutti suoi. Come pure per l'acquisizione di Ati a un prezzo esagerato.

Il Phenom core agena (phenom 9850) nel ruolino di marcia era prevista la commercializzazione a fine primo trimestre 2007, invece fu presentato nel 4 trimestre e subito ritirato dal commercio.
Su questo parlo di 6 mesi di ritardo non sul ph2 (che ha portato ulteriore ritardo o sulla tabella di marcia).

Riguardo la nuova architettura e PP, come faresti a vendere una cpu ad alte prestazioni con quasi 2 miliardi di transistor a 32 nm?
Questo intendevo.
Per il resto considero Amd alla stregua di un pugile chiuso nell'angolo che aspetta il gong per riprendere fiato ( che sono i 16 nm).
Se riprenderà fiato può portare al termine il match (non necessariamente vincerlo, ma finire i round), altrimenti se i 16nm saranno sulla falsa riga di bd vs Core, o getta la spugna (abbandonando le architetture ad alte prestazione x86) o va KO.

Insomma non voglio giustificare Amd o fare il profeta dicendo che a 16 nm farà una cpu supermegacazzolagalattica, ma preferisco analizzare i trascorsi, cercare di capire le politiche e farmi un'idea del perché dello stato attuale, perché l'attuale situazione non è certamente voluta e se un team può sbagliare una volta, difficilmente non cerca di rimediare se può.
Diverse volte ho avuto a che fare con lavori cannati, eppure alcune volte era economicamente conveniente buttare tutto e rifare da zero, piuttosto che metterci una pezza.
Nel frattempo che arriva il nuovo prodotto si cerca di rendere utilizzabile quello riuscito male.

Riguardo l'acquisizione di Ati, indubbiamente è stata sovrastimata, ma con AMD che non progettava più chipset e Nvidia che aveva abbandonato le cpu AMD (ti ricordo che l'ultimo vero chipset per amd fu l'nf4) non mi sento di poter condannare senza appello la scelta di acquistare comunque (quello che condanno fu la vendita della parte grafica dedicata ai soc arm.)

cdimauro
24-07-2015, 18:54
Che agguantò Qualcomm, se non ricordo male. Altra scelta insensata. Ma vabbé, ormai il latte è versato.

Riguardo all'architettura, hanno provato a cambiare quella di Bulldozer, ma con risultati non brillanti. Il punto è che roba del genere non sarebbe nemmeno dovuta essere presentata. All'inizio sembrava una rivoluzione, ma quando sono arrivati i dettagli e a seguire i primi benchmark, il dado era ormai tratto. Anziché aggiustarla, sarebbe stata meglio pensarne un'altra nuova.

GrowingTentacles
25-07-2015, 08:44
Intel ora spingerà forte.... C'è arm che rischia di fottergli il mercato apple...

Piedone1113
25-07-2015, 09:11
Intel ora spingerà forte.... C'è arm che rischia di fottergli il mercato apple...
Apple si fa da se le sue cpu (le progetta lei e le fa produrre a fonderie terze)
Certamente passerà ad Arm in un futuro non troppo lontano a giudicare verso che direzione si sta spingendo la sua politica commerciale, questo a prescindere da quello che farà intel.

cdimauro
25-07-2015, 10:18
Apple usa già CPU ARM: semplicemente se le progetta in casa...

Piedone1113
25-07-2015, 11:08
Apple usa già CPU ARM: semplicemente se le progetta in casa...

Forse sono stato poco chiaro:
I soc dei prodotti "mobile" (ixxx) di apple sono con architettura Arm (che apple detiene le licenze) personalizzate (progettate) da Apple stessa e fatta stampare a fonderie esterne.
In un futuro non troppo lontano credo che Apple (a giudicare dalla politica commerciale della stessa) questa famiglia di cpu verosimilmente soppianterà i nelle attuali famiglie di prodotti x86 le cpu intel.

cdimauro
25-07-2015, 12:13
Scusami, avevo capito male io allora.

Francamente lo trovo improbabile per due ragioni: Intel riesce a fornire processori che finora si sono dimostrati inarrivabili in termini prestazioni, pur tenendo d'occhio i consumi.

Ma la ragione principale è che Apple ha aumentato il suo market share in ambito "desktop" proprio dopo essere passata dai PowerPC ai processori di Intel, grazie alla possibilità di poter eseguire anche Windows e lo stuolo di applicazioni (nonché giochi) x86.

Dubito fortemente che possa fare marcia indietro, rimuovendo questa comodissima possibilità.

Piedone1113
25-07-2015, 12:29
Scusami, avevo capito male io allora.

Francamente lo trovo improbabile per due ragioni: Intel riesce a fornire processori che finora si sono dimostrati inarrivabili in termini prestazioni, pur tenendo d'occhio i consumi.

Ma la ragione principale è che Apple ha aumentato il suo market share in ambito "desktop" proprio dopo essere passata dai PowerPC ai processori di Intel, grazie alla possibilità di poter eseguire anche Windows e lo stuolo di applicazioni (nonché giochi) x86.

Dubito fortemente che possa fare marcia indietro, rimuovendo questa comodissima possibilità.
Ne ha fatto di cose in passato che toglievano comodità e libertà all'utente.
Tanto si dirà, ma le cpu arm sono migliori ed via nel cesso le limitazioni x86 brutte, pesanti e cattive.
Guarda pure che prodotto a messo fuori con il macpro.
Sta spingendo molto sul cloud e verosimilmente la transizione sarà fatta anche spostando il calcolo in cloud per far sentire di meno il peso della compatibilità x86 mancante.
E poi con apple è sempre stato o così o Pomì.
Quindi credo che arm su mac sia possibile con un buon margine di possibilità.

cdimauro
25-07-2015, 16:32
Alla guida di Apple non c'è più l'intransigente Jobs, ma il ben più pragmatico Cooks. ;)

Piedone1113
25-07-2015, 17:57
Alla guida di Apple non c'è più l'intransigente Jobs, ma il ben più pragmatico Cooks. ;)

Be Jobs avrebbe tranquillamente rinunciato ad una piccola percentuale di utili per il design, l'esclusività e l'efficienza.
Coocks cerca di massimizzare i profitti e mi pare di aver visto un'accellerata nella convergenza mobile-desktop ed il tentativo di formare un ecosistima unico (nello stesso modo che sta cercando di fare ms con continuum, ma seguendo strade diverse con la seconda che cerca di portare il desktop sul mobile ed apple il contrario).
A ben vedere gli utili maggiori per apple nel prossimo futuro arriveranno dai servizi, perché da pratico che è Coocks sa bene che si arriverà al punto di saturare il mercato e dover produrre per rimpiazzare le macchine obsolete, ma soprattutto fare utili dai servizi.

calabar
26-07-2015, 17:00
Sì, ma la nuova architettura la puoi realizzare a prescindere dal processo produttivo. Il nocciolo è questo.
L'architettura puoi progettarla, certo, ma se poi non hai il silicio su cui stamparla...

AMD ha fatto un errore sulla valutazione del processo produttivo con il Phenom I. Come dimostrano i Phenom II il progetto non era affatto cattivo, ma il processo produttivo non era adatto.
A confermarlo le dichiarazioni della stessa Intel, che disse che neppure loro, che disponevano dei transistor migliori, avrebbero osato tanto (ossia sviluppato un progetto così complesso sul processo produttivo disponibile in quel periodo), e i fatti hanno dato loro ragione.

Il progetto è fortemente legato ai processi produttivi disponibili, e i problemi che le fonderie hanno avuto negli ultimi anni su qualità dei processi e tempistiche sono stati uno dei principali problemi per AMD.

cdimauro
26-07-2015, 17:37
Forse non sono stato chiaro. Non parlavo di cambiare architettura aumentando a dismisura l'uso dei transistor, ma di sfruttare ciò che offre l'attuale processo produttivo per realizzare un'architettura nuova.

Se, per essere chiari, l'approccio CMT ha dimostrato di essere fallimentare, lo si butta e si progetta un nuovo chip, ma con gli stessi limiti del processo che è disponibile.

Prendi, ad esempio, Skylake: usa lo stesso processo produttivo di Broadwell (14nm), ma la (micro)architettura sarà nuova. I transistor li hanno usati in modo diverso...

calabar
26-07-2015, 17:57
Forse non sono stato chiaro. Non parlavo di cambiare architettura aumentando a dismisura l'uso dei transistor, ma di sfruttare ciò che offre l'attuale processo produttivo per realizzare un'architettura nuova.
Direi che non avevo capito l'affermazione allora! ;)

Ad ogni modo anche questo non è così semplice. Se la fonderia da cui ti fornisci ti dice che tra sei mesi ci sarà il nuovo processo produttivo, tu ovviamente non investi in un progetto nuovo ma decidi di attendere sei mesi.
Poi però ti dicono che ci sono ritardi, che ci vorranno altre sei mesi, poi magari altri sei, poi cancellano il processo e si dedicano solo a quelli low power perchè il mercato tira da quella parte...

Ecco, ora applica questo ragionamento al fatto che non è disponibile da anni alcun processo produttivo per processori ad alte prestazioni dopo il 32nm SOI.

Intel ha le proprie fonderie (e un mercato che le consente di mantenerle) e per lei questo tipo di problemi sono di entità molto ridotta, per AMD invece in questi ultimi anni sono stati una bella mazzata.
É evidente che AMD deve gestire le proprie risorse che ha a disposizione, e investire in una nuova architettura è una cosa che va fatta con una certa cautela, non può certo permettersi due team che lavorano alternati come Intel.

Probabilmente all'inizio contavano di risolvere i problemi di BD, magari con un nuovo processo produttivo adeguato che non c'è stato. Visto l'andazzo ad un certo punto hanno iniziato a progettare la nuova architettura con alto IPC, che vedremo il prossimo anno.

cdimauro
26-07-2015, 19:56
I problemi di Bulldozer erano strutturali, e non potevano essere risolti con un nuovo processo produttivo, ma con una nuova microarchitettura.

Comunque, ormai è andata così. Vedremo il prossimo anno.

Piedone1113
27-07-2015, 12:18
I problemi di Bulldozer erano strutturali, e non potevano essere risolti con un nuovo processo produttivo, ma con una nuova microarchitettura.

Comunque, ormai è andata così. Vedremo il prossimo anno.
I problemi di BD sono strutturali
Quelli di AMD finanziari.
Quelli di un'architettura competitiva il numero dei transistor.

Fuori da questo non si va da nessuna parte.

Ma tengo a rammentarti:
Willamette 42mil transistor ipc normalizzato 100
Northwood 54mil transistor ipc 104
Prescott 125mil transistor ipc 84

Questp riferito al cpu mark.
Negli altri applicativi dove si sfruttavano estensioni non presenti in willamette non possiamo dare giudizi, ma tra
Northwood e Prescott abbiamo:
northwood Prescott
Business winstone 100 100.5
Multimedia cc winstone 100 93
In Game 100 100
View perf7.1 suite 100 105
Sciencemark 100 96
Sperpi (media) 100 108 (Solo grazie alla cache maggiore)
Rendering 100 94
Cinebench 100 85
Encoding Audio 100 90
encoding divx 100 104
Encoding mpeg1/2 100 108
Windows media encoder9 100 120

Willamette è uscito nel novembre 2000
Cedarmill gennaio 2006.
Una famiglia di cpu che invece di migliorare (nonostante triplicarsi del numero di transistor) il proprio IPC lo peggiorava.
E mi sembra che intel avesse sia le tecnologie che le risorse economiche per poter rifare ex novo un'architettura desktop.
Perché sei così convinto che AMD avrebbe avuto le risorse tecniche ed economiche di buttar fuori una nuova architettura subito dopo il fiasco BD?

cdimauro
27-07-2015, 18:48
Prescott era stato progettato per salire molto più in frequenza rispetto a Northwood: è questo il motivo per cui aveva una pipeline molto più lunga, e dunque un peggior IPC. Da una parte si peggiora l'IPC, ma dall'altra si bilancia con l'aumento di frequenza.

Il problema è che Intel non è riuscita a spingere molto le frequenze rispetto a Northwood, a causa delle correnti di leakage, cosa che ha poi sancito la fine del progetto NetBurst. D'altra parte è lo stesso motivo per cui la scalata in frequenza dai 90nm in poi, s'è ridotta moltissimo, e questo per tutti.

Comunque già nel 2003 Intel aveva proposto una nuova architettura, il Pentium-M, che sebbene fosse stata pensata per il mobile era possibile impiegare anche in altri ambiti. Infatti è quella che avrebbe poi preso il posto dei Pentium4, sotto il nome di Core 2, a causa dei problemi di cui sopra che aveva NetBurst.

Riguardo al numero dei transistor, dai 125 milioni impiegati per Prescott, passiamo ai 151 di Yonah, di cui buona parte sono utilizzati per l'enorme (per l'epoca) cache L2 da 2MB. Dunque, come vedi, si può realizzare anche un'architettura con un miglior IPC, e con un simile budget di transistor.

Riguardo ad AMD, in passato ha sempre dimostrato di tirare fuori processori competitivi e innovativi. E' con Bulldozer che, invece, ha tirato i remi in barca. Il problema, più che finanziario, a mio avviso è dovuto al fatto che gente come Keller era andata via, che non è riuscita a rimpiazzare adeguatamente. Anche oggi AMD è in difficoltà finanziaria, eppure sta progettando una nuova architettura, proprio con Keller a dirigere il tutto, visto che è tornato.

Piedone1113
27-07-2015, 19:33
Prescott era stato progettato per salire molto più in frequenza rispetto a Northwood: è questo il motivo per cui aveva una pipeline molto più lunga, e dunque un peggior IPC. Da una parte si peggiora l'IPC, ma dall'altra si bilancia con l'aumento di frequenza.

Il problema è che Intel non è riuscita a spingere molto le frequenze rispetto a Northwood, a causa delle correnti di leakage, cosa che ha poi sancito la fine del progetto NetBurst. D'altra parte è lo stesso motivo per cui la scalata in frequenza dai 90nm in poi, s'è ridotta moltissimo, e questo per tutti.

Comunque già nel 2003 Intel aveva proposto una nuova architettura, il Pentium-M, che sebbene fosse stata pensata per il mobile era possibile impiegare anche in altri ambiti. Infatti è quella che avrebbe poi preso il posto dei Pentium4, sotto il nome di Core 2, a causa dei problemi di cui sopra che aveva NetBurst.

Riguardo al numero dei transistor, dai 125 milioni impiegati per Prescott, passiamo ai 151 di Yonah, di cui buona parte sono utilizzati per l'enorme (per l'epoca) cache L2 da 2MB. Dunque, come vedi, si può realizzare anche un'architettura con un miglior IPC, e con un simile budget di transistor.

Riguardo ad AMD, in passato ha sempre dimostrato di tirare fuori processori competitivi e innovativi. E' con Bulldozer che, invece, ha tirato i remi in barca. Il problema, più che finanziario, a mio avviso è dovuto al fatto che gente come Keller era andata via, che non è riuscita a rimpiazzare adeguatamente. Anche oggi AMD è in difficoltà finanziaria, eppure sta progettando una nuova architettura, proprio con Keller a dirigere il tutto, visto che è tornato.

Il massimo che avrebbe potuto fare AMD con i 32nm GF sarebbe stato una cpu con 6 core (circa 1,3 miliardi di transistor), stesso ipc di sandy bridge e frequenze nell'ordine dei 3-3,2 GHz (ad essere ottimisti), insomma una pezza ma non una cpu in grado di competere contro due revisioni dei 22nm della concorrenza.
Non so se la nuova architettura sarà rivoluzionaria rispetto alle classiche cpu x86 che siamo abituati a vedere, ma le voci parlano comunque di molti transistor in campo e l'abbandono delle cache esclusive.
Eppure nonostante il tutto io vedo in BD una cpu in con un ottimo potenziale, ma purtroppo con alcune scelte architetturali tali da annullare i vantaggi della struttura a moduli (perché ci sono) senza mitigare la perdita di ipc del singolo core.
Keller è tornato in amd, ma sappiamo anche che le sue architetture Hanno costi di sviluppo sia in termini economici che temporali altissime dato che ha la propensione di massimizzare le prestazioni di ogni singola parte della cpu cercando di raggiungere il limite teorico prefissato a tutti i costi.
Questo non so se nell'attuale situazione di amd sia un punto a favore (raggiungere e forse superare le prestazioni di intel a parità di transistor), oppure a sfavore (elevato tempo di sviluppo dell'architettura), sperando che il pp previsto sia quello di inizio progetto e che non si debba virare verso un diverso pp allungando ulteriormente i tempi di sviluppo.
Per il resto ormai è storia passata ed i se e i ma non cambiano la situazione attuale.

cdimauro
27-07-2015, 20:01
Già. Per questo aggiungo soltanto una nota. A mio avviso AMD con Bulldozer ha puntato tutto sulle prestazioni in multithread, sacrificando troppo l'IPC. Non tutto il software può lavorare bene in multithreading; tutt'altro.

E' il motivo per cui prediligo processori che offrono un elevato IPC (per core/thread): mediamente si possono sfruttare meglio con l'enorme parco software. A maggior ragione col software che m'interessa di più: emulazione e compilazione.

Vul
28-07-2015, 15:45
Be Jobs avrebbe tranquillamente rinunciato ad una piccola percentuale di utili per il design, l'esclusività e l'efficienza.


Ma se il design, l'esclusività e l'efficienza sono il motivo stesso per cui Apple fa utili.

Piedone1113
28-07-2015, 15:56
Ma se il design, l'esclusività e l'efficienza sono il motivo stesso per cui Apple fa utili.

Non puoi estrapolare una frase dal discorso:
Jobs non avrebbe incrementato gli utili abbandonando l'uso di x86 sui dispositivi che ne fanno uso attualmente solo per aumentare gli utili.
Avrebbe offerto al pubblico un prodotto chiaramente inferiore non pagando ad intel le cpu ma facendosele in casa.
Arm ancora non è in grado di offrire quello che offre x86, e forse mai lo farà, ma per i prossimi 2 anni una cpu arm su mac è improponibile, magari tra 3 il buon caro Coocks deciderà di massimizzare ancora i profitti sostituendo x86 con un bel A12 by Apple, ma non credo che Jobs sarebbe stato favorevole.
Coocks = massimizzare i profitti
Jobs = dispositivi senza compromessi.

Spero di essermi spiegato.

digieffe
28-07-2015, 23:05
No, Intel continua a tirare per la sua strada, e fa del suo meglio per rilasciare prodotti migliori.


con tutta la stima che ti porto pur non conoscendoti, credo che Intel persegua ciò che persegue ogni azienda: gli utili.

E nel fare ciò non necessariamente si devono rilasciare prodotti migliori, si fanno apposite valutazioni per capire quanta qualità conviene immettere nei prodotti e come massimizzare gli utili anche tenendo conto delle quote di mercato.

digieffe
28-07-2015, 23:15
Già. Per questo aggiungo soltanto una nota. A mio avviso AMD con Bulldozer ha puntato tutto sulle prestazioni in multithread, sacrificando troppo l'IPC. Non tutto il software può lavorare bene in multithreading; tutt'altro.

E' il motivo per cui prediligo processori che offrono un elevato IPC (per core/thread): mediamente si possono sfruttare meglio con l'enorme parco software. A maggior ragione col software che m'interessa di più: emulazione e compilazione.

spero che detto da te sia più convincente... io ho finito il fiato :)

cdimauro
29-07-2015, 05:35
con tutta la stima che ti porto pur non conoscendoti, credo che Intel persegua ciò che persegue ogni azienda: gli utili.

E nel fare ciò non necessariamente si devono rilasciare prodotti migliori, si fanno apposite valutazioni per capire quanta qualità conviene immettere nei prodotti e come massimizzare gli utili anche tenendo conto delle quote di mercato.
E' chiaro che l'obiettivo siano gli utili, ma considerata la situazione nel mercato desktop, Intel potrebbe benissimo mettere i remi in barca e riciclare i prodotti che già gli consentono di accaparrarsi la maggioranza del mercato.

Invece continua a proporre nuove (micro)architetture e a investire in processi produttivi più avanzati.

Non si può rimanere a guardare, specialmente in un mercato dinamico questo. Bisogna sempre cercare di migliorarsi, perché non sai chi potrebbe arrivare domani e soffiarti il mercato.
spero che detto da te sia più convincente... io ho finito il fiato :)
In alternativa puoi invitare chi la pensa diversamente a disassemblare applicazioni di tipologie diverse che non sembrano trarre vantaggio da più core (o thread hardware), e a mostrare in che modo sarebbe possibile parallelizzare il codice. :D

I forum sono pieni di tuttologi che pontificano senza avere la minima idea di come funzionano realmente le cose. Ma di fronte alla prova dei fatti, "casualmente" o si trincerano dietro vuote e inutili parole, oppure spariscono. ;)

AleLinuxBSD
29-07-2015, 07:27
A frequenza standard pare che i miglioramenti disponibili risultino nella norma rispetto a quanto accaduto in passato:
Intel Core i7-6700K ‘Skylake’ test results: 4–8% faster than Core i7-4790K (http://www.kitguru.net/components/cpu/anton-shilov/new-intel-core-i7-6700k-skylake-test-results-leak-4-8-faster-than-core-i7-4790k/)

Piedone1113
29-07-2015, 08:08
In alternativa puoi invitare chi la pensa diversamente a disassemblare applicazioni di tipologie diverse che non sembrano trarre vantaggio da più core (o thread hardware), e a mostrare in che modo sarebbe possibile parallelizzare il codice. :D

I forum sono pieni di tuttologi che pontificano senza avere la minima idea di come funzionano realmente le cose. Ma di fronte alla prova dei fatti, "casualmente" o si trincerano dietro vuote e inutili parole, oppure spariscono. ;)

Apparentemente hai ragione, ma il bilanciamento ipc/th disponibili va sempre modificandosi e l'optimum che abbiamo adesso sarà diverso tra 5 anni.
Allo stato odierno l'architettura intel (quella attuale) è quella più equilibrata, ma con l'evoluzione degli os e dei software, con sempre più processi e moduli in esecuzione contemporanei ci stiamo sempre più spostanto verso molti processi leggeri in esecuzione e alcuni software monoTH con elevata richiesta di IPC:
L'ideale sarebbe una cpu con 16 o più core leggeri e 4/6 core ad elevato ipc.
Onestamente credo che una cpu con HT4 sarebbe una buona scelta tra 3-5 anni, con elevato ipc sul singolo th e possibilità di eseguire th a basso ipc senza significative perdite e senza un aumento spropositato dei transistor relegando l'architettura a moduli ad una nicchia ben specifica di impieghi (sempre che ci sia in futuro una tale cpu)

cdimauro
29-07-2015, 18:31
E' condivisibile, ma mi riferivo ad altro nel mio precedente commento, e più precisamente a due cose.

La prima è che il software, di per sé, non è affatto detto che possa trarre vantaggio da più core (o thread hardware): dipende tutto dagli algoritmi che utilizza. Ci sono algoritmi facilmente parallelizzabili, altri che richiedono più impegno/risorse, altri ancora che non lo sono del tutto.

Ci possono essere i programmatori più bravi al mondo, ma questi limiti non si possono valicare: se ho un algoritmo strettamente sequenziale, nessuno riuscirà a parallelizzarlo in alcun modo e per quanto tempo/risorse possa impiegare.

La seconda riguarda, invece, l'hardware, e più precisamente la capacità che ha un processore di elaborare il più velocemente possibile il codice che gli viene dato in pasto. Una misura che viene spesso usata è l'IPC: istruzioni (ovviamente mediamente eseguite) per ciclo di clock. I processori moderni sono in grado di eseguire più istruzioni per ciclo di clock, e dunque hanno un IPC > 1.

Ciò è dovuto al fatto che hanno a disposizione più unità di calcolo che possono essere utilizzate in parallelo (nello stesso ciclo di clock), unito al fatto che possono eseguire più istruzioni allo stesso tempo. Le istruzioni di un programma, però, devono essere eseguite strettamente sequenzialmente per ottenere il risultato atteso.

Si è cercato di ovviare a questo introducendo tecniche come l'esecuzione in-order e, ancor meglio, out-of-order, dove il processore prova a eseguire più istruzioni in parallelo, dove non vi siano dipendenze, oppure "congelando" alcune istruzioni in attesa del risultato di altre.

Si potrebbe pensare, quindi, di aumentare a dismisura il numero di unità d'esecuzione, di istruzioni eseguibili contemporaneamente per ciclo di clock, e i buffer deputati al mantenimento delle istruzioni "congelate" in attesa che le altre da cui dipendono si sblocchino. Il problema è che tutto ciò ha un costo enorme, ma soprattutto man mano che si aumentano queste risorse i benefici calano velocemente, in quanto non viene risolto alla radice l'inghippo delle dipendenze, ma soltanto posticipato in continuazione.

Siccome le dipendenze che si vengono a creare man mano che si esegue il codice sono parecchie, alla fine il sistema passerebbe più tempo in stallo che a eseguire istruzioni, dunque vanificando l'enorme aumento delle risorse precedenti.

Per rendersi conto di ciò basterebbe disassemblare il codice, e analizzare le istruzioni che vengono eseguite, con le loro dipendenze: posto che si abbia abbastanza esperienze con le architetture dei processori, si arriva facilmente alla conclusione di cui sopra.

Non esistono, dunque, ricette magiche che consentano di aumentare arbitrariamente l'IPC di un processore, e quindi migliorare sensibilmente le prestazioni. Chi afferma il contrario è il classico tuttologo internettiano che non ha idea di ciò di cui sta parlando.

P.S. Il mio discorso è generale. Poi è ovvio che ci siano casi particolari in cui sarebbe possibile eseguire in parallelo parecchie istruzioni. E' anche il motivo per cui sono nate le unità SIMD: per sfruttare certi pattern d'esecuzione che consentono una facile parallelizzazione. Ma anche qui, non ci può spingere arbitrariamente aumentando a dismisura la dimensione dei registri SIMD e/o il numero di istruzioni SIMD eseguibili per ciclo di clock. Anche questo codice, alla fine, presenta delle dipendenze che vanno risolte.

Piedone1113
29-07-2015, 19:26
E' condivisibile, ma mi riferivo ad altro nel mio precedente commento, e più precisamente a due cose.

La prima è che il software, di per sé, non è affatto detto che possa trarre vantaggio da più core (o thread hardware): dipende tutto dagli algoritmi che utilizza. Ci sono algoritmi facilmente parallelizzabili, altri che richiedono più impegno/risorse, altri ancora che non lo sono del tutto.

Ci possono essere i programmatori più bravi al mondo, ma questi limiti non si possono valicare: se ho un algoritmo strettamente sequenziale, nessuno riuscirà a parallelizzarlo in alcun modo e per quanto tempo/risorse possa impiegare.

La seconda riguarda, invece, l'hardware, e più precisamente la capacità che ha un processore di elaborare il più velocemente possibile il codice che gli viene dato in pasto. Una misura che viene spesso usata è l'IPC: istruzioni (ovviamente mediamente eseguite) per ciclo di clock. I processori moderni sono in grado di eseguire più istruzioni per ciclo di clock, e dunque hanno un IPC > 1.

Ciò è dovuto al fatto che hanno a disposizione più unità di calcolo che possono essere utilizzate in parallelo (nello stesso ciclo di clock), unito al fatto che possono eseguire più istruzioni allo stesso tempo. Le istruzioni di un programma, però, devono essere eseguite strettamente sequenzialmente per ottenere il risultato atteso.

Si è cercato di ovviare a questo introducendo tecniche come l'esecuzione in-order e, ancor meglio, out-of-order, dove il processore prova a eseguire più istruzioni in parallelo, dove non vi siano dipendenze, oppure "congelando" alcune istruzioni in attesa del risultato di altre.

Si potrebbe pensare, quindi, di aumentare a dismisura il numero di unità d'esecuzione, di istruzioni eseguibili contemporaneamente per ciclo di clock, e i buffer deputati al mantenimento delle istruzioni "congelate" in attesa che le altre da cui dipendono si sblocchino. Il problema è che tutto ciò ha un costo enorme, ma soprattutto man mano che si aumentano queste risorse i benefici calano velocemente, in quanto non viene risolto alla radice l'inghippo delle dipendenze, ma soltanto posticipato in continuazione.

Siccome le dipendenze che si vengono a creare man mano che si esegue il codice sono parecchie, alla fine il sistema passerebbe più tempo in stallo che a eseguire istruzioni, dunque vanificando l'enorme aumento delle risorse precedenti.

Per rendersi conto di ciò basterebbe disassemblare il codice, e analizzare le istruzioni che vengono eseguite, con le loro dipendenze: posto che si abbia abbastanza esperienze con le architetture dei processori, si arriva facilmente alla conclusione di cui sopra.

Non esistono, dunque, ricette magiche che consentano di aumentare arbitrariamente l'IPC di un processore, e quindi migliorare sensibilmente le prestazioni. Chi afferma il contrario è il classico tuttologo internettiano che non ha idea di ciò di cui sta parlando.

P.S. Il mio discorso è generale. Poi è ovvio che ci siano casi particolari in cui sarebbe possibile eseguire in parallelo parecchie istruzioni. E' anche il motivo per cui sono nate le unità SIMD: per sfruttare certi pattern d'esecuzione che consentono una facile parallelizzazione. Ma anche qui, non ci può spingere arbitrariamente aumentando a dismisura la dimensione dei registri SIMD e/o il numero di istruzioni SIMD eseguibili per ciclo di clock. Anche questo codice, alla fine, presenta delle dipendenze che vanno risolte.

Sono perfettamente d'accordo.
Basti gia guardare ai software di rendering (cpu only)
Sono altamente parallelizzabili, eppure nonostante tutto un raddoppio dei core non porta ad un raddoppio delle prestazioni (a parità di architettura) tranne rari casi dove una cache l3 (o l4) maggiore porta benefici nel trasferimento dati (se la l3 si satura per via di dati maggiori della sua dimensione le prestazioni decado in modo esponenziale, ma non ha valore probatorio perché una l3 di dimensione maggiori porterebbe lo stesso vantaggio percentuale normalizzato con la metà dei core).
Stesso discorso per l'HT.
Un software che sfrutta per intero la cpu portandola ad eseguire codice in ogni sua parte avrà zero benefici dall'ht (addirittura si possono ridurre le prestazioni con ht attiva).
Un codice invece che accede sequenzialmente a parti diverse della cpu con dipendenze anch'esse sequenziali teoricamente porterebbe il + 100% di prestazioni dall'ht (sempre che un software fuori laboratorio così fatto abbia senso di esistere).
Ormai la strada migliore è un alto ipc con 2-4 th a core in modo da avere un buon equilibrio tra ipc single th ed ipc multi th.
Magari tra 4-5 anni nuove tecniche di programmazione renderanno l'ipc single th relativamente importante ed allora avremo necessità di cpu etereogeniche (credo che tu sappia cosa intendo) o con moltissimi core semplici, e potremmo rivedere strutture tipo il cell (non architettura cell), strutture omogenee evoluzioni di fusion, e gestione a moduli semplici (4-8 core a modulo compatti e con basso ipc rispetto ad architettura classica) per un totale di 80-120 core totali, oppure cpu altamente parallele come quelle sulle quali lavori.
Insomma il futuro è da scoprire, anche se credo che il massimo saranno le cpu polimorfe con struttura modulare, 16 core int (da max 2 istruzioni per clock), 4 fpu (da 2-3 istruzioni per clock), e 1-2 core companion che avranno la funzione di creare le cpu virtuali:
Th con elevato carico int parallelizzabile il core companion assegna alla cpu virtuale A 6 core int e 1 fpu.
Elevato carico sequenziale int fpt: 16 cpu da 1 core int ed 1/4 di tempo fpu.
Elevata flessibilità per il general purpose.
Ma credo che sia un'architettura ancona lontana dal poter essere realizzata (una parte vliw nei companion ed il resto x86-64) e forse nemmeno mai realizzabile economicamente.

cdimauro
29-07-2015, 20:31
Finché la legge di Moore lo consentirà, l'unica cosa certa è che ci saranno sempre più core (eterogenei) integrati. In che misura e quali paradigmi utilizzeranno sarà tutto da vedere.

digieffe
30-07-2015, 01:59
Finché la legge di Moore lo consentirà, l'unica cosa certa è che ci saranno sempre più core (eterogenei) integrati. In che misura e quali paradigmi utilizzeranno sarà tutto da vedere.

sembra che la legge di moore abbia già rallentato, almeno vedendo i prodotti comunemente in vendita

cdimauro
30-07-2015, 05:27
Perché diventa sempre più difficile passare a nuovi processi produttivi. Inoltre c'è un limite fisico alla dimensione dei transistor; probabilmente si arriverà ai 5nm, ma dopo la vedo dura.