View Single Post
Old 14-03-2022, 21:47   #10
RaZoR93
Senior Member
 
Iscritto dal: Aug 2008
Messaggi: 3480
Quote:
Originariamente inviato da Sp3cialFx Guarda i messaggi

capito questo diventa anche facile pronosticare il futuro. In sintesi: ora sono cazzi. Nel senso:
1) migliorare le performance per core ora diventa molto complesso, e abbiamo visto che già non è successo tra l'A15 e l'M1 (nonostante che l'A15 abbia un budget energetico molto più contenuto). Andare a fare altri sacrifici sull'efficienza per transistor ti danno un ritorno irrilevante lato performance, in compenso aumentano i costi di produzione, avresti quindi un rapporto costo / benefici molto svantaggioso
Questo perché M1 è un A14 con più core.
A14 ha 2 core Firestorm @3.1 GHz e 4 core Icestorm ad alta efficienza.
M1 usa invece 4 core Firestorm @3.2 Ghz e sempre 4 core Icestorm.
In sostanza M1 ha soltanto 2 core in più e 100mhz di boost.
Infatti A15 (che è uscito 1 anno dopo M1) ha tecnicamente core più avanzati e migliori come performance e come performance per watt.

Qui un grafico che mostra come i core "Avalanche" (A15) abbiano performance superiori pur consumando meno rispetto a Firestorm: https://images.anandtech.com/doci/16...int-energy.png

M2 sarà basato sui core dell'A15 o, preferibilmente del futuro A16 che arriverà questo Settembre.


Quote:
Originariamente inviato da Sp3cialFx Guarda i messaggi
quindi? quindi l'unica strada è aumentare i core, che è quella che sta facendo. Che sappiamo portare beneficio o meno a seconda del tipo di applicazione. Quindi c'è da chiedersi:
- ha le competenze di una Intel, AMD, Nvidia (sommate, dato che sviluppa anche la parte di GPU) che da decenni fanno solo quello e che è il loro core business e hanno pertanto un profondo know how anche delle parti complesse (tant'è che tutte nel loro ambito supportano funzionalità avanzate)
- o ha delle competenze che non sono a quel livello, ha sfruttato il vantaggio commerciale che ha, ma ora salire ulteriormente di livello (ovvero: non solo aumentando i core ma aumentando notevolmente le performance per core e le feature) è fuori dalla portata
Apple progetta CPU dall'A6 del 2012 (primo core full custom). 10 anni. GPU da meno, ma comunque da anni pure quelle. Per arrivare ai livelli attuali Apple ha assunto veterani dell'industria, molti ex architetti Intel e AMD (come Keller). A parte questo si potrebbe dire che Apple spende più in R&D di Intel, AMD e Nvidia messe insieme e una buona parte della spesa è destinata al settore semiconduttori / chip design dato che è chiaramente un essenziale elemento di differenziazione insieme al software.
Impossibile dire cosa sucederà in futuro, ma direi che logicamente e storicamente Apple è ben posizionata.

Trovo inoltre abbastanza superfluo il discorso dei transistor. Prima di tutto è inappropriato fare confronti con SoC complessi e CPU + GPU. I SoC apple includono on die anche altri elementi come NPU, ISP, "Secure Enclave", Audio processing, USB e Thunderbolt controller e nel caso dei Mac anche hardware specializzato per encoding video. Difficile fare confronti 1:1, ma se Apple sceglie di usare più transistor per massimizzare performance per watt non definirei la cosa uso inefficiente del silicio.

Ultima modifica di RaZoR93 : 14-03-2022 alle 21:59.
RaZoR93 è offline   Rispondi citando il messaggio o parte di esso
 
1