Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto
HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto
Pensato per il professionista sempre in movimento, HP Elitebook Ultra G1i 14 abbina una piattaforma Intel Core Ultra 7 ad una costruzione robusta, riuscendo a mantenere un peso contenuto e una facile trasportabilità. Ottime prestazioni per gli ambiti di produttività personale con un'autonomia lontano dalla presa di corrente che permette di lavorare per tutta la giornata
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Basato su piattaforma Qualcomm Snapdragon X Plus a 8 core, il nuovo Microsoft Surface Pro 12 è un notebook 2 in 1 molto compatto che punta sulla facilità di trasporto, sulla flessibilità d'uso nelle differenti configurazioni, sul funzionamento senza ventola e sull'ampia autonomia lontano dalla presa di corrente
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Il REDMAGIC Astra Gaming Tablet rappresenta una rivoluzione nel gaming portatile, combinando un display OLED da 9,06 pollici a 165Hz con il potente Snapdragon 8 Elite e un innovativo sistema di raffreddamento Liquid Metal 2.0 in un form factor compatto da 370 grammi. Si posiziona come il tablet gaming più completo della categoria, offrendo un'esperienza di gioco senza compromessi in mobilità.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 14-03-2022, 11:38   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75173
Link alla notizia: https://www.hwupgrade.it/news/apple/...ro_105594.html

Apple aggiornerà il suo Mac Pro entro il 2022? Sono tanti i professionisti che si stanno ponendo questa domanda e la risposta sembra giungere dal solito Gurman che nella consueta newsletter della domenica ha indicato la roadmap dei futuri processori di Apple e dunque ha parlato anche del Mac Pro.

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 14-03-2022, 11:50   #2
Gringo [ITF]
Senior Member
 
L'Avatar di Gringo [ITF]
 
Iscritto dal: Sep 2004
Città: Veneto Orientale
Messaggi: 4338
Con la tecnologia Ultra Fusion tutto e possibile, ormai la concorrenza e morta...
.
.
.
.
.
.
.
.....cof. cof..!
Gringo [ITF] è offline   Rispondi citando il messaggio o parte di esso
Old 14-03-2022, 12:34   #3
Sp3cialFx
Bannato
 
Iscritto dal: Nov 2017
Messaggi: 805
la cosa interessante è che nessuno rileva che storicamente Apple si è trovata in posizione di vantaggio come questa un sacco di volte, ed è sempre stata incapace di mantenerlo

se analizziamo la questione con un attimo di lucidità (cosa che peraltro mi aspetterei dalla stampa di settore, che evidentemente o non si pone la questione o lo fa ma non è in grado di dare risposte) abbiamo questi elementi:
- M1 è tanto efficiente dal punto di vista energetico quanto inefficiente dal punto di vista del silicio usato:
. M1 16 miliardi di transistor, M1 Pro 33,7 milardi di transistor, M1 Max 57 miliardi di transistor, Ultra 114 miliardi di transistor
. i9 11900K 6 miliardi di transistor (compresa la GPU UHD 750)
. RTX 3080: 28,3 miliardi di transistor
- le performance per core di un M1 sono identiche tra quello base, il Pro, il Max e l'Ultra, e sono identiche a quelle dell'A15
- nonostante l'elevatissimo numero di transistor i core della CPU e della GPU dell'M1 sono relativamente poveri di funzionalità avanzate. Qualche spunto: lato CPU le funzionalità hardware di virtualizzazione, lato GPU si prenda la features list delle DirectX 12 ultimate e si guardi quali di queste sono supportate

fatte queste premesse ne facciamo una ultima: Apple ha una posizione di grandissima forza nei confronti di TSMC dato che le compra più della metà della produzione (per lo meno del processo più avanzato). Di fatto M1 è avanti anni rispetto ai concorrenti proprio sul numero di transistor che può permettersi di impiegare, che è una cosa che deriva da due fattori:
a) l'impiego di un'architettura che è più facile portare su un processo produttivo più evoluto
b) ma soprattutto sul fatto che ha condizioni economiche molto vantaggiose e quindi può permettersi di infilare quantità di transistor impensabili per gli altri player (con UN SINGOLO M1 Ultra ci escono i transistor di quasi 20 i9 oppure di 4 RTX 3080)

capito questo diventa anche facile pronosticare il futuro. In sintesi: ora sono cazzi. Nel senso:
1) migliorare le performance per core ora diventa molto complesso, e abbiamo visto che già non è successo tra l'A15 e l'M1 (nonostante che l'A15 abbia un budget energetico molto più contenuto). Andare a fare altri sacrifici sull'efficienza per transistor ti danno un ritorno irrilevante lato performance, in compenso aumentano i costi di produzione, avresti quindi un rapporto costo / benefici molto svantaggioso
2) implementare le feature più complesse è... complesso. Anche qui il ritorno costo / benefici sarebbe svantaggioso. Un conto è implementare le feature base, consolidate, conosciute; un conto è implementare le feature più avanzate. Altro esempio: i neural engine, che vanno bene solo per l'inferenza (ovvero: per USARE i modelli ma non per farne il training, ovvero per costruirli). Un esempio più vicino al gaming: il ray tracing in hardware. Feature complessa, infatti non c'è

quindi? quindi l'unica strada è aumentare i core, che è quella che sta facendo. Che sappiamo portare beneficio o meno a seconda del tipo di applicazione. Quindi c'è da chiedersi:
- ha le competenze di una Intel, AMD, Nvidia (sommate, dato che sviluppa anche la parte di GPU) che da decenni fanno solo quello e che è il loro core business e hanno pertanto un profondo know how anche delle parti complesse (tant'è che tutte nel loro ambito supportano funzionalità avanzate)
- o ha delle competenze che non sono a quel livello, ha sfruttato il vantaggio commerciale che ha, ma ora salire ulteriormente di livello (ovvero: non solo aumentando i core ma aumentando notevolmente le performance per core e le feature) è fuori dalla portata

la domanda ovviamente è retorica. La conclusione è che anche questa volta accadrà quello che è sempre accaduto, ovvero che dopo il trovarsi in posizione di vantaggio, dopo lo sprint in cui passa davanti a tutti, si ritrova al palo a farsi superare nuovamente dalla concorrenza, che non fa lo scatto da centometrista ma ha più il passo più lento ma più costante del maratoneta

ps: se qualcuno della redazione dovesse reputare interessanti le cose che ho detto e volesse prenderne spunto per fare finalmente un articolo di approfondimento sulla sorpresa M1 (dando la risposta a chi come me si è chiesto "ma come c**** è possibile?!", per poi dover trovare la risposta da solo), che peraltro sarebbe il primo della stampa di settore mondiale, almeno per quelle che sono state le mie ricerche, ovviamente volentieri

ps2: prego astenersi eventuali fanboy che non hanno capito niente di quello che sto dicendo. L'M1 ha notevoli vantaggi. I limiti ci sono ma sono tuttavia molto specifici: se fai training di reti neurali, se vuoi giocare con i giochi con il ray tracing, se vuoi fare virtualizzazione avanzata devi prendere altro. Per tutto il resto vanno molto bene. Io stesso dovevo prendere un mini pc per fare un'applicazione browser-based abbastanza impegnativa lato CPU / GPU (deve far girare solo quella quindi era irrilevante l'os) e alla fine ho optato per un Mac Mini M1 perché oggettivamente vantaggioso. Quella che ho fatto è un'analisi tecnica che cerca di andare al di là dell'hype
Sp3cialFx è offline   Rispondi citando il messaggio o parte di esso
Old 14-03-2022, 13:08   #4
pachainti
Senior Member
 
Iscritto dal: May 2020
Messaggi: 835
Quote:
Originariamente inviato da Sp3cialFx Guarda i messaggi
la cosa interessante è che nessuno rileva che storicamente Apple si è trovata in posizione di vantaggio come questa un sacco di volte, ed è sempre stata incapace di mantenerlo

se analizziamo la questione con un attimo di lucidità (cosa che peraltro mi aspetterei dalla stampa di settore, che evidentemente o non si pone la questione o lo fa ma non è in grado di dare risposte) abbiamo questi elementi:
- M1 è tanto efficiente dal punto di vista energetico quanto inefficiente dal punto di vista del silicio usato:
. M1 16 miliardi di transistor, M1 Pro 33,7 milardi di transistor, M1 Max 57 miliardi di transistor, Ultra 114 miliardi di transistor
. i9 11900K 6 miliardi di transistor (compresa la GPU UHD 750)
. RTX 3080: 28,3 miliardi di transistor
- le performance per core di un M1 sono identiche tra quello base, il Pro, il Max e l'Ultra, e sono identiche a quelle dell'A15
- nonostante l'elevatissimo numero di transistor i core della CPU e della GPU dell'M1 sono relativamente poveri di funzionalità avanzate. Qualche spunto: lato CPU le funzionalità hardware di virtualizzazione, lato GPU si prenda la features list delle DirectX 12 ultimate e si guardi quali di queste sono supportate

fatte queste premesse ne facciamo una ultima: Apple ha una posizione di grandissima forza nei confronti di TSMC dato che le compra più della metà della produzione (per lo meno del processo più avanzato). Di fatto M1 è avanti anni rispetto ai concorrenti proprio sul numero di transistor che può permettersi di impiegare, che è una cosa che deriva da due fattori:
a) l'impiego di un'architettura che è più facile portare su un processo produttivo più evoluto
b) ma soprattutto sul fatto che ha condizioni economiche molto vantaggiose e quindi può permettersi di infilare quantità di transistor impensabili per gli altri player (con UN SINGOLO M1 Ultra ci escono i transistor di quasi 20 i9 oppure di 4 RTX 3080)

capito questo diventa anche facile pronosticare il futuro. In sintesi: ora sono cazzi. Nel senso:
1) migliorare le performance per core ora diventa molto complesso, e abbiamo visto che già non è successo tra l'A15 e l'M1 (nonostante che l'A15 abbia un budget energetico molto più contenuto). Andare a fare altri sacrifici sull'efficienza per transistor ti danno un ritorno irrilevante lato performance, in compenso aumentano i costi di produzione, avresti quindi un rapporto costo / benefici molto svantaggioso
2) implementare le feature più complesse è... complesso. Anche qui il ritorno costo / benefici sarebbe svantaggioso. Un conto è implementare le feature base, consolidate, conosciute; un conto è implementare le feature più avanzate. Altro esempio: i neural engine, che vanno bene solo per l'inferenza (ovvero: per USARE i modelli ma non per farne il training, ovvero per costruirli). Un esempio più vicino al gaming: il ray tracing in hardware. Feature complessa, infatti non c'è

quindi? quindi l'unica strada è aumentare i core, che è quella che sta facendo. Che sappiamo portare beneficio o meno a seconda del tipo di applicazione. Quindi c'è da chiedersi:
- ha le competenze di una Intel, AMD, Nvidia (sommate, dato che sviluppa anche la parte di GPU) che da decenni fanno solo quello e che è il loro core business e hanno pertanto un profondo know how anche delle parti complesse (tant'è che tutte nel loro ambito supportano funzionalità avanzate)
- o ha delle competenze che non sono a quel livello, ha sfruttato il vantaggio commerciale che ha, ma ora salire ulteriormente di livello (ovvero: non solo aumentando i core ma aumentando notevolmente le performance per core e le feature) è fuori dalla portata

la domanda ovviamente è retorica. La conclusione è che anche questa volta accadrà quello che è sempre accaduto, ovvero che dopo il trovarsi in posizione di vantaggio, dopo lo sprint in cui passa davanti a tutti, si ritrova al palo a farsi superare nuovamente dalla concorrenza, che non fa lo scatto da centometrista ma ha più il passo più lento ma più costante del maratoneta

ps: se qualcuno della redazione dovesse reputare interessanti le cose che ho detto e volesse prenderne spunto per fare finalmente un articolo di approfondimento sulla sorpresa M1 (dando la risposta a chi come me si è chiesto "ma come c**** è possibile?!", per poi dover trovare la risposta da solo), che peraltro sarebbe il primo della stampa di settore mondiale, almeno per quelle che sono state le mie ricerche, ovviamente volentieri

ps2: prego astenersi eventuali fanboy che non hanno capito niente di quello che sto dicendo. L'M1 ha notevoli vantaggi. I limiti ci sono ma sono tuttavia molto specifici: se fai training di reti neurali, se vuoi giocare con i giochi con il ray tracing, se vuoi fare virtualizzazione avanzata devi prendere altro. Per tutto il resto vanno molto bene. Io stesso dovevo prendere un mini pc per fare un'applicazione browser-based abbastanza impegnativa lato CPU / GPU (deve far girare solo quella quindi era irrilevante l'os) e alla fine ho optato per un Mac Mini M1 perché oggettivamente vantaggioso. Quella che ho fatto è un'analisi tecnica che cerca di andare al di là dell'hype
Ottima analisi, fa piacere leggere commenti sensati almeno una volta al mese.
pachainti è offline   Rispondi citando il messaggio o parte di esso
Old 14-03-2022, 13:28   #5
TorettoMilano
Senior Member
 
L'Avatar di TorettoMilano
 
Iscritto dal: Dec 2008
Messaggi: 16927
Quote:
Originariamente inviato da Sp3cialFx Guarda i messaggi
...
se parlavi di proffitti nel settore pc apple si prende la fetta più grande dei profitti ma questo avviene da ben prima degli m1. un articolo del 2013 https://www.forbes.com/sites/timwors...the-pc-market/
se parlavi lato tecnico invece non ho capito dove vuoi arrivare, la concorrenza ha pronto nel giro di 1,2 o 3 anni qualcosa per rivaleggiare l'm1?
TorettoMilano è online   Rispondi citando il messaggio o parte di esso
Old 14-03-2022, 13:34   #6
insane74
Senior Member
 
L'Avatar di insane74
 
Iscritto dal: Feb 2003
Città: BG
Messaggi: 10026
Quote:
Originariamente inviato da Sp3cialFx Guarda i messaggi
...
ottima analisi!

faccio qualche domanda/osservazione spero non troppo stupida:
- le feature mancanti, sono "necessarie"? inteso come "necessarie" ai target cui si rivolgono i computer Apple. Esempio: non c'è il supporto HW al ray tracing. a chi serve? ai gamer? non è mai stato mercato Apple. a chi fa grafica 3D professionalmente? non usa immagino una 3090. al momento c'è ancora il Pro con schede AMD. per il prossimo, bisognerà aspettare per capire se Apple tirerà fuori un Mx Extreme "incollando" due M1 Ultra o tirerà fuori qualcosa di diverso, sempre magari avvantaggiandosi con questi chip "enormi"
- il vantaggio attuale dovuto al numero di transistor/core/performance per watt, non può essere mantenuto aumentando il clock? esempio: su dispositivi come portatili (Air ecc) possono continuare con la linea Mx "liscia" che offre ottima durata della batteria e prestazioni più che adeguate, ma su un "vero" desktop che non dipende dalla batteria e che non sia sottile come un foglio di carta per mero design, non potrebbero pompare sul clock (si, aumentano i consumi e il calore, ma se c'è spazio per dissiparlo potrebbe non essere un gran problema) per mantenere il margine?
__________________
Mac mini M1,16GB,2TB,10Gbit;Satechi Hub NVMe;Samsung 990 Pro 4TB;WD My Passport for Mac 4TB / Logitech MX Keys;Logitech MX Vertical;Philips 288E2A;PreSonus Eris E3.5;HP LaserJet Pro M281fdw / QNAP TVS-871-i3-4G,8GB,8x WD Red CMR 6TB raid 6,QNAP QXG-2G1T-I225 / TP-LINK Archer GE800;QNAP QSW-1105-5T / iPhone 14 Pro Max 1TB;iPad mini 6 256GB;Apple Watch Ultra 2;AirPods Pro 2;Kindle Paperwhite 11 SE / LG OLED C2 48";Apple TV 4K 2021 64GB;Denon AVR-X2800H / Xbox Series X;Seagate Expansion Card 2TB
insane74 è offline   Rispondi citando il messaggio o parte di esso
Old 14-03-2022, 13:59   #7
marcowave
Senior Member
 
L'Avatar di marcowave
 
Iscritto dal: Nov 2002
Città: Cayenne (Guyane)
Messaggi: 2182
La line up silicon definitiva di apple si sta delineando : mercato consumer MacBook (air) 13, mac mini e imac 24, tutti con M2 entro la fine dell'anno 2022. Mercato PRO: mac studio, macbook pro 14 e 16 e mac pro (per video 3D professionale), tutti con M2 PRO/MAX entro fine 2023. Se fosse cosi entro la fine del 2023 avranno fatto una bella pulizia di prodotti, mi pare tutto molto sensato.
marcowave è offline   Rispondi citando il messaggio o parte di esso
Old 14-03-2022, 14:46   #8
recoil
Senior Member
 
L'Avatar di recoil
 
Iscritto dal: Jul 2002
Città: Milano
Messaggi: 19148
Quote:
Originariamente inviato da Sp3cialFx Guarda i messaggi
la domanda ovviamente è retorica. La conclusione è che anche questa volta accadrà quello che è sempre accaduto, ovvero che dopo il trovarsi in posizione di vantaggio, dopo lo sprint in cui passa davanti a tutti, si ritrova al palo a farsi superare nuovamente dalla concorrenza, che non fa lo scatto da centometrista ma ha più il passo più lento ma più costante del maratoneta
hai fatto un'ottima analisi
io credo comunque che la scelta sia stata giusta
si sono staccati da Intel e hanno la loro soluzione in casa con controllo totale di hardware e software

io penso che oltre alle ottimizzazioni sui core, che sono la parte come dici tu più difficile, punteranno molto su ottimizzazione hardware per il software che ci girerà, mettendo accelerazioni come fanno già ora ad esempio per i codec video
in questo modo saranno superati sui puri numeri dalla concorrenza, ma rimarranno competitivi su determinati use case

come discorso ci può stare, compri il Mac per quello use case che serve al tuo lavoro se invece vuoi una cosa più general purpose stai nel mondo PC
paghi un premium per il Mac e diventa un investimento sensato solo se sei coperto a livello applicativo, se no rimani su PC o se sei un consumer non ti interessano le prestazioni pure e quindi scegli in base ad altri parametri

quando c'era Intel ci siamo giustamente lamentati per anni del fatto che l'hw con i PC fosse paragonabile e si pagasse un premium solo per macOS, ora ha più senso
recoil è offline   Rispondi citando il messaggio o parte di esso
Old 14-03-2022, 20:32   #9
Sp3cialFx
Bannato
 
Iscritto dal: Nov 2017
Messaggi: 805
grazie per gli apprezzamenti

TorettoMilano: parlavo lato tecnico, intendo dire che Apple ha consumati tutti i margini di ampio miglioramento e adesso diventa difficile anche per lei

insane74: buone domande:
a) le feature mancanti sono necessarie per una ristretta cerchia di utenza. Per il target a cui si rivolge Apple (e non solo, ripeto io non sono in quel target ma per un'esigenza specifica ho optato per un M1) vanno benissimo
b) per quelle che sono le mie conoscenze salire di clock richiede un processo ottimizzato per le performance, mentre il processo utilizzato è ottimizzato per l'efficienza energetica. E credo che i processi ottimizzati per le performance siano indietro di un nodo o due rispetto a quelli ottimizzati per l'efficienza. In soldoni salendo di frequenza dovrebbero usare un processo che permetterebbe loro di usare meno transistor, di fatto vanificando il vantaggio del clock più spinto. Questo però ripeto è quello che ho capito io, da prendersi con le pinze

recoil: la scelta è sicuramente stata estremamente azzeccata e hanno sfruttato splendidamente la posizione di forza che avevano sul piano commerciale con la fonderia più importante del pianeta. Il fatto che ora è complesso migliorare non significa che comunque non rimangano competitivi sotto diversi punti di vista. Ad es. sui numeri puri ci sono già CPU e GPU in grado di superare gli M1 ma pagando pesantemente in termini di consumi. Il vantaggio in termini di efficienza difficilmente lo si colmerà, attualmente i produttori x86 hanno una filosofia che è esattamente agli antipodi di quella di Apple: alta efficienza in termini di performance per transistor, bassa efficienza energetica. Per loro è anche un problema commerciale
Sp3cialFx è offline   Rispondi citando il messaggio o parte di esso
Old 14-03-2022, 21:47   #10
RaZoR93
Senior Member
 
Iscritto dal: Aug 2008
Messaggi: 3480
Quote:
Originariamente inviato da Sp3cialFx Guarda i messaggi

capito questo diventa anche facile pronosticare il futuro. In sintesi: ora sono cazzi. Nel senso:
1) migliorare le performance per core ora diventa molto complesso, e abbiamo visto che già non è successo tra l'A15 e l'M1 (nonostante che l'A15 abbia un budget energetico molto più contenuto). Andare a fare altri sacrifici sull'efficienza per transistor ti danno un ritorno irrilevante lato performance, in compenso aumentano i costi di produzione, avresti quindi un rapporto costo / benefici molto svantaggioso
Questo perché M1 è un A14 con più core.
A14 ha 2 core Firestorm @3.1 GHz e 4 core Icestorm ad alta efficienza.
M1 usa invece 4 core Firestorm @3.2 Ghz e sempre 4 core Icestorm.
In sostanza M1 ha soltanto 2 core in più e 100mhz di boost.
Infatti A15 (che è uscito 1 anno dopo M1) ha tecnicamente core più avanzati e migliori come performance e come performance per watt.

Qui un grafico che mostra come i core "Avalanche" (A15) abbiano performance superiori pur consumando meno rispetto a Firestorm: https://images.anandtech.com/doci/16...int-energy.png

M2 sarà basato sui core dell'A15 o, preferibilmente del futuro A16 che arriverà questo Settembre.


Quote:
Originariamente inviato da Sp3cialFx Guarda i messaggi
quindi? quindi l'unica strada è aumentare i core, che è quella che sta facendo. Che sappiamo portare beneficio o meno a seconda del tipo di applicazione. Quindi c'è da chiedersi:
- ha le competenze di una Intel, AMD, Nvidia (sommate, dato che sviluppa anche la parte di GPU) che da decenni fanno solo quello e che è il loro core business e hanno pertanto un profondo know how anche delle parti complesse (tant'è che tutte nel loro ambito supportano funzionalità avanzate)
- o ha delle competenze che non sono a quel livello, ha sfruttato il vantaggio commerciale che ha, ma ora salire ulteriormente di livello (ovvero: non solo aumentando i core ma aumentando notevolmente le performance per core e le feature) è fuori dalla portata
Apple progetta CPU dall'A6 del 2012 (primo core full custom). 10 anni. GPU da meno, ma comunque da anni pure quelle. Per arrivare ai livelli attuali Apple ha assunto veterani dell'industria, molti ex architetti Intel e AMD (come Keller). A parte questo si potrebbe dire che Apple spende più in R&D di Intel, AMD e Nvidia messe insieme e una buona parte della spesa è destinata al settore semiconduttori / chip design dato che è chiaramente un essenziale elemento di differenziazione insieme al software.
Impossibile dire cosa sucederà in futuro, ma direi che logicamente e storicamente Apple è ben posizionata.

Trovo inoltre abbastanza superfluo il discorso dei transistor. Prima di tutto è inappropriato fare confronti con SoC complessi e CPU + GPU. I SoC apple includono on die anche altri elementi come NPU, ISP, "Secure Enclave", Audio processing, USB e Thunderbolt controller e nel caso dei Mac anche hardware specializzato per encoding video. Difficile fare confronti 1:1, ma se Apple sceglie di usare più transistor per massimizzare performance per watt non definirei la cosa uso inefficiente del silicio.

Ultima modifica di RaZoR93 : 14-03-2022 alle 21:59.
RaZoR93 è offline   Rispondi citando il messaggio o parte di esso
Old 15-03-2022, 07:10   #11
LB2
Member
 
Iscritto dal: Apr 2021
Messaggi: 271
@ specialfx
da quando hwupgrade sarebbe stampa specializzata di settore? si tratta solo di un sito che traduce contenuti altrui,mette un bel titolo acchiappa click e punta alla pubblicità.

stampa di settore…..che ridere
LB2 è offline   Rispondi citando il messaggio o parte di esso
Old 15-03-2022, 07:38   #12
TorettoMilano
Senior Member
 
L'Avatar di TorettoMilano
 
Iscritto dal: Dec 2008
Messaggi: 16927
Quote:
Originariamente inviato da Sp3cialFx Guarda i messaggi
TorettoMilano: parlavo lato tecnico, intendo dire che Apple ha consumati tutti i margini di ampio miglioramento e adesso diventa difficile anche per lei
ah ok, ti avevo chiesto in quanti anni prevedi la concorrenza riesca a pareggiare l'm1 di apple, così per capire da quando apple comincerà a soffrire questa "difficoltà"
TorettoMilano è online   Rispondi citando il messaggio o parte di esso
Old 15-03-2022, 13:07   #13
cudido
Senior Member
 
Iscritto dal: Jan 2015
Messaggi: 504
Quote:
Originariamente inviato da Sp3cialFx Guarda i messaggi
la cosa interessante è che nessuno rileva che storicamente Apple si è trovata in posizione di vantaggio come questa un sacco di volte, ed è sempre stata incapace di mantenerlo

se analizziamo la questione con un attimo di lucidità (cosa che peraltro mi aspetterei dalla stampa di settore, che evidentemente o non si pone la questione o lo fa ma non è in grado di dare risposte) abbiamo questi elementi:
- M1 è tanto efficiente dal punto di vista energetico quanto inefficiente dal punto di vista del silicio usato:
. M1 16 miliardi di transistor, M1 Pro 33,7 milardi di transistor, M1 Max 57 miliardi di transistor, Ultra 114 miliardi di transistor
. i9 11900K 6 miliardi di transistor (compresa la GPU UHD 750)
. RTX 3080: 28,3 miliardi di transistor
- le performance per core di un M1 sono identiche tra quello base, il Pro, il Max e l'Ultra, e sono identiche a quelle dell'A15
- nonostante l'elevatissimo numero di transistor i core della CPU e della GPU dell'M1 sono relativamente poveri di funzionalità avanzate. Qualche spunto: lato CPU le funzionalità hardware di virtualizzazione, lato GPU si prenda la features list delle DirectX 12 ultimate e si guardi quali di queste sono supportate

fatte queste premesse ne facciamo una ultima: Apple ha una posizione di grandissima forza nei confronti di TSMC dato che le compra più della metà della produzione (per lo meno del processo più avanzato). Di fatto M1 è avanti anni rispetto ai concorrenti proprio sul numero di transistor che può permettersi di impiegare, che è una cosa che deriva da due fattori:
a) l'impiego di un'architettura che è più facile portare su un processo produttivo più evoluto
b) ma soprattutto sul fatto che ha condizioni economiche molto vantaggiose e quindi può permettersi di infilare quantità di transistor impensabili per gli altri player (con UN SINGOLO M1 Ultra ci escono i transistor di quasi 20 i9 oppure di 4 RTX 3080)

capito questo diventa anche facile pronosticare il futuro. In sintesi: ora sono cazzi. Nel senso:
1) migliorare le performance per core ora diventa molto complesso, e abbiamo visto che già non è successo tra l'A15 e l'M1 (nonostante che l'A15 abbia un budget energetico molto più contenuto). Andare a fare altri sacrifici sull'efficienza per transistor ti danno un ritorno irrilevante lato performance, in compenso aumentano i costi di produzione, avresti quindi un rapporto costo / benefici molto svantaggioso
2) implementare le feature più complesse è... complesso. Anche qui il ritorno costo / benefici sarebbe svantaggioso. Un conto è implementare le feature base, consolidate, conosciute; un conto è implementare le feature più avanzate. Altro esempio: i neural engine, che vanno bene solo per l'inferenza (ovvero: per USARE i modelli ma non per farne il training, ovvero per costruirli). Un esempio più vicino al gaming: il ray tracing in hardware. Feature complessa, infatti non c'è

quindi? quindi l'unica strada è aumentare i core, che è quella che sta facendo. Che sappiamo portare beneficio o meno a seconda del tipo di applicazione. Quindi c'è da chiedersi:
- ha le competenze di una Intel, AMD, Nvidia (sommate, dato che sviluppa anche la parte di GPU) che da decenni fanno solo quello e che è il loro core business e hanno pertanto un profondo know how anche delle parti complesse (tant'è che tutte nel loro ambito supportano funzionalità avanzate)
- o ha delle competenze che non sono a quel livello, ha sfruttato il vantaggio commerciale che ha, ma ora salire ulteriormente di livello (ovvero: non solo aumentando i core ma aumentando notevolmente le performance per core e le feature) è fuori dalla portata

la domanda ovviamente è retorica. La conclusione è che anche questa volta accadrà quello che è sempre accaduto, ovvero che dopo il trovarsi in posizione di vantaggio, dopo lo sprint in cui passa davanti a tutti, si ritrova al palo a farsi superare nuovamente dalla concorrenza, che non fa lo scatto da centometrista ma ha più il passo più lento ma più costante del maratoneta

ps: se qualcuno della redazione dovesse reputare interessanti le cose che ho detto e volesse prenderne spunto per fare finalmente un articolo di approfondimento sulla sorpresa M1 (dando la risposta a chi come me si è chiesto "ma come c**** è possibile?!", per poi dover trovare la risposta da solo), che peraltro sarebbe il primo della stampa di settore mondiale, almeno per quelle che sono state le mie ricerche, ovviamente volentieri

ps2: prego astenersi eventuali fanboy che non hanno capito niente di quello che sto dicendo. L'M1 ha notevoli vantaggi. I limiti ci sono ma sono tuttavia molto specifici: se fai training di reti neurali, se vuoi giocare con i giochi con il ray tracing, se vuoi fare virtualizzazione avanzata devi prendere altro. Per tutto il resto vanno molto bene. Io stesso dovevo prendere un mini pc per fare un'applicazione browser-based abbastanza impegnativa lato CPU / GPU (deve far girare solo quella quindi era irrilevante l'os) e alla fine ho optato per un Mac Mini M1 perché oggettivamente vantaggioso. Quella che ho fatto è un'analisi tecnica che cerca di andare al di là dell'hype
Premetto che potrei dire una cavolata.

Non è che l'M1 ha così tanti transistor in quanto comprende al suo interno la memoria UMA e quindi nel confronto con i processori x86 dovresti conteggiare anche quelli che compongono la RAM?
cudido è offline   Rispondi citando il messaggio o parte di esso
Old 15-03-2022, 21:45   #14
Sp3cialFx
Bannato
 
Iscritto dal: Nov 2017
Messaggi: 805
RaZoR93: grazie per la precisazione sui core dell'M1. Alcune osservazioni:
- su geekbench
. A14@2990 Mhz circa 1600 punti
. A15@3230 Mhz circa 1720 punti
. M1@3220 Mhz circa 1770 punti

normalizzando tutto a @3230 Mhz avresti circa 1730 punti (A14), 1720 punti (A15), 1775 punti (M1). I miglioramenti del grafico che hai postato temo siano tutti dati dai 240 Mhz in più. Sull'efficienza poco da dire, ma a livello di performance ripeto si evidenzia il fatto che non ci siano più gli ampi margini di miglioramento visti proprio fino all'A14
- Apple è 10 anni che produce CPU custom basate su un'architettura di terze parti. Intel è 50 anni che inventa architetture / estensioni (tante estensioni) e progetta in house le cpu da zero. Apple investe in R&D su tante cose, Intel ovviamente su quello dato che è il suo core business. Apple ha messo insieme un team, Intel per buona parte si dedica a quello (e il numero di dipendenti è simile, 150K per Apple e 120K per Intel. Solo che Apple fa centomila cose). Il punto è: il team di Apple è così straordinariamente più in gamba di Intel e AMD messe assieme o c'entra qualcosa il così ampio budget di transistor messo a disposizione?
- ormai anche gli x86 hanno un alto livello di integrazione (anche se si, non così alto come i SoC). In ogni caso facendo una stima sulla base delle foto dei die di un M1 e di un i9-11900 escono comunque 290/300 milioni di transistor per un core M1 e 230 per un core i9. Senza considerare la cache che è molto più ampia per l'M1. In ogni caso non stavo criticando la scelta, stavo dicendo che è una scelta che puoi fare SE TE LA PUOI PERMETTERE e se compri >50% della produzione della più grande fonderia al mondo diventa facile permettersela

TorettoMilano: la difficoltà mi pare ci sia già oggi, in 2 anni sono solamente stati fatti M1 più grossi ma a livello architetturale non è cambiato praticamente niente. L'A15 ha comunque performance simili. L'i9-10900 uscito nel 2020 appena prima dell'A14 / M1 non arriva a 1400 punti su geekbench, l'i9-12900 sfiora i 2000. Quando uscito era avanti sull'efficienza energetica E sulle performance. Ora rimane avanti sull'efficienza energetica ma sulle performance è rimasto fermo - sul singolo core. Poi la moltiplicazione dei core sappiamo che lascia il tempo che trova, a meno di non aver carichi specifici che effettivamente sfruttano un parallelismo spinto. Però anche lì le CPU dei competitor arrivano a 64 core / 128 thread, 88 linee PCIe 4, eccetera eccetera.

cudido: dubbio legittimo (tant'è che inizialmente m'era venuto anche a me) ma no, la ram non rientra nel conto dei transistor. Anche perché nella ram ci sono TANTI transistor. Nella DRAM puoi avere uno o due transistor per bit (poi non ci sono solo i bit ma ignoriamolo pure), quindi per gli 8GB dell'M1 più sfigato avresti 64 (se un transistor per bit) o 128 miliardi di transistor (se due) SOLO per la ram
Sp3cialFx è offline   Rispondi citando il messaggio o parte di esso
Old 15-03-2022, 23:14   #15
RaZoR93
Senior Member
 
Iscritto dal: Aug 2008
Messaggi: 3480
Quote:
Originariamente inviato da Sp3cialFx Guarda i messaggi
RaZoR93: grazie per la precisazione sui core dell'M1. Alcune osservazioni:
- su geekbench
. A14@2990 Mhz circa 1600 punti
. A15@3230 Mhz circa 1720 punti
. M1@3220 Mhz circa 1770 punti

normalizzando tutto a @3230 Mhz avresti circa 1730 punti (A14), 1720 punti (A15), 1775 punti (M1). I miglioramenti del grafico che hai postato temo siano tutti dati dai 240 Mhz in più. Sull'efficienza poco da dire, ma a livello di performance ripeto si evidenzia il fatto che non ci siano più gli ampi margini di miglioramento visti proprio fino all'A14.
Stai estrapolando da 1 singolo passaggio generazionale (A14/A15) e basandoti su un singolo benchmark.
Ti consiglio di andare a leggere l'analisi di Anandtech sui P/E core dell'A15 attraverso SPEC2017:https://www.anandtech.com/show/16983...re-efficient/2

In svariati subtest le performance sono significativamente superiori, ma è chiaro che per i P core Apple si è focalizzata sull'efficienza energetica, mentre per gli E core Apple ha aumentato notevolmente le performance. Ovviamente il SoC ha molti altri grossi update (ISP, GPU, ecc), ma non riguardano la CPU.
Credo sia abbastanza evidente che i miglioramenti annuali sono diventati progressivamente più modesti, com'è ovvio che sia raggiunta una certa maturità, ma Apple aggiorna le proprie architetture ogni 12 mesi, non ha blackout di 5 anni come Intel con Skylake. Certo, M1 Ultra arriva ad 1 anno e mezzo da M1, ma è sempre la solita architettura che Apple ha introdotto nel 2020, non quella che introdurrà fra qualche mese e che sarà 2 gen avanti.

Quote:
Originariamente inviato da Sp3cialFx Guarda i messaggi
- Apple è 10 anni che produce CPU custom basate su un'architettura di terze parti. Intel è 50 anni che inventa architetture / estensioni (tante estensioni) e progetta in house le cpu da zero. Apple investe in R&D su tante cose, Intel ovviamente su quello dato che è il suo core business. Apple ha messo insieme un team, Intel per buona parte si dedica a quello (e il numero di dipendenti è simile, 150K per Apple e 120K per Intel. Solo che Apple fa centomila cose). Il punto è: il team di Apple è così straordinariamente più in gamba di Intel e AMD messe assieme o c'entra qualcosa il così ampio budget di transistor messo a disposizione?
Direi proprio di no. ISA di terze parti, architettura è totalmente in house (a partire da A6, basata su reference design precedentemente).
Per quanto riguarda il resto entriamo un discorso ipotetico, ma vorrei ricordare che Intel deve dedicare una enorme fetta di R&D e personale al settore foundry, dato che deve sviluppare nuove litografie in proprio e la cosa è costosissima e capital intensive, molto più che limitarsi al design come fanno società fabless tipo Apple.
Il resto è ancora più speculativo. Non c'è dubbio che Apple abbia dei vantaggi nel potersi permettere sempre i nodi più avanzati disponibili sul mercato così come si può permettere di usare quanti transistor vuole.

Ultima modifica di RaZoR93 : 15-03-2022 alle 23:16.
RaZoR93 è offline   Rispondi citando il messaggio o parte di esso
Old 16-03-2022, 08:29   #16
Sp3cialFx
Bannato
 
Iscritto dal: Nov 2017
Messaggi: 805
Quote:
Originariamente inviato da RaZoR93 Guarda i messaggi
Stai estrapolando da 1 singolo passaggio generazionale (A14/A15) e basandoti su un singolo benchmark.
Ti consiglio di andare a leggere l'analisi di Anandtech sui P/E core dell'A15 attraverso SPEC2017:https://www.anandtech.com/show/16983...re-efficient/2
beh geekbench è abbastanza complesso e rappresenta scenari real world meglio della suite SPEC; cmq anche se prendi il valore di SPEC2017 e lo normalizzi agli hz di differenza hai un punteggio di 7 di A14 contro 7,28 di A15. Stiamo parlando di una differenza del 4%. In ogni caso si conferma che a livello di IPC siamo sullo stesso livello.

Quote:
Originariamente inviato da RaZoR93 Guarda i messaggi
Credo sia abbastanza evidente che i miglioramenti annuali sono diventati progressivamente più modesti, com'è ovvio che sia raggiunta una certa maturità, ma Apple aggiorna le proprie architetture ogni 12 mesi, non ha blackout di 5 anni come Intel con Skylake.
beh, dalle tempo è ovvio che se fai quello da 50 anni il momento in cui gli astri si allineano tutti storti può capitare. Se lo fai da 10 anni e hai un sacco di idee che richiedono tempo per essere sviluppate è più difficile che capiti. Il momento della verità è quando le idee iniziano ad esaurirsi.

Quote:
Originariamente inviato da RaZoR93 Guarda i messaggi
Certo, M1 Ultra arriva ad 1 anno e mezzo da M1, ma è sempre la solita architettura che Apple ha introdotto nel 2020, non quella che introdurrà fra qualche mese e che sarà 2 gen avanti.
bon, vedremo. Se la mia analisi è corretta, sul single core non ci sarà questo grande gap. La tua?

Quote:
Originariamente inviato da RaZoR93 Guarda i messaggi
Direi proprio di no. ISA di terze parti, architettura è totalmente in house (a partire da A6, basata su reference design precedentemente).
"totalmente in house" stai parlando di organizzazione dei macroblocchi o delle singole unità? ad es. hanno disegnato da zero l'ALU? dubito vivamente

Quote:
Originariamente inviato da RaZoR93 Guarda i messaggi
Per quanto riguarda il resto entriamo un discorso ipotetico, ma vorrei ricordare che Intel deve dedicare una enorme fetta di R&D e personale al settore foundry, dato che deve sviluppare nuove litografie in proprio e la cosa è costosissima e capital intensive, molto più che limitarsi al design come fanno società fabless tipo Apple.
Il resto è ancora più speculativo. Non c'è dubbio che Apple abbia dei vantaggi nel potersi permettere sempre i nodi più avanzati disponibili sul mercato così come si può permettere di usare quanti transistor vuole.
sarebbe interessante andare a vedere l'R&D sul settore cpu di Intel, AMD e Apple così come quanto personale è allocato; non che non abbia fatto qualche veloce ricerca ma non particolarmente fruttuosa. Credo che sarebbe da spulciare le relazioni di bilancio.

tieni però conto che Apple è particolarmente brava nel vendersi. Un tempo m'ero andato a vedere quanto investiva Apple in Os X (ti parlo di 10/15 anni fa) e a bilancio c'erano circa 15 milioni / anno. Una stupidata. Eppure da come lo vendeva sembrava che ci mettesse l'anima. Per quanto conosco Apple è bravissima a massimizzare il ritorno in base all'investimento. Per questo reputo improbabile che ora che servirebbe decuplicare gli sforzi per fare passi in avanti rilevanti li vada davvero a fare, tutto qui. In altri termini non mi aspetto salti in avanti importanti in termini di IPC, non mi aspetto che vengano implementate feature complesse come ci sono nelle altre CPU / schede video. Ma sono il primo a dire che commercialmente sarebbe stupido: molto più proficuo cavalcare il tema dell'efficienza energetica e della potenza con form factor compatti / silenziosi che sbattersi un botto per implementare feature che interessano a pochi o ottenere qualche decina di punti percentuali di performance.
Sp3cialFx è offline   Rispondi citando il messaggio o parte di esso
Old 16-03-2022, 08:42   #17
TorettoMilano
Senior Member
 
L'Avatar di TorettoMilano
 
Iscritto dal: Dec 2008
Messaggi: 16927
Quote:
Originariamente inviato da Sp3cialFx Guarda i messaggi
TorettoMilano: la difficoltà mi pare ci sia già oggi, in 2 anni sono solamente stati fatti M1 più grossi ma a livello architetturale non è cambiato praticamente niente. L'A15 ha comunque performance simili. L'i9-10900 uscito nel 2020 appena prima dell'A14 / M1 non arriva a 1400 punti su geekbench, l'i9-12900 sfiora i 2000. Quando uscito era avanti sull'efficienza energetica E sulle performance. Ora rimane avanti sull'efficienza energetica ma sulle performance è rimasto fermo - sul singolo core. Poi la moltiplicazione dei core sappiamo che lascia il tempo che trova, a meno di non aver carichi specifici che effettivamente sfruttano un parallelismo spinto. Però anche lì le CPU dei competitor arrivano a 64 core / 128 thread, 88 linee PCIe 4, eccetera eccetera.
non mi sono mai interessato a pc/portatili apple ma immagino chi sceglie questi non lo fa perchè sono più potenti. influirà l'os, l'ottimizzazione, l'ecosistema, qualità materiali, estetica, ecc.
poi fai le tue previsioni partendo dal presupposto con l'M1 apple sia andata all-in e escludendo a priori dei futuri SoC rivoluzionari.
poi sempre sul tuo discorso "farsi recuperare dalla concorrenza" di apple mi pare non si sia verificato nè su iphone e nè su ipad.
detto questo, non avendo azioni da nessuna parte, l'esito futuro su chi sarà vincitore mi interessa marginalmente. mi interessa sempre avere prodotti migliori e una concorrenza agguerrita
TorettoMilano è online   Rispondi citando il messaggio o parte di esso
Old 16-03-2022, 09:12   #18
Simonex84
Senior Member
 
L'Avatar di Simonex84
 
Iscritto dal: Jun 2003
Messaggi: 15818
Non entro nel tecnico ma la nomenclatura scelta da Apple è abbastanza esilarante, Pro, Max, Ultra, poi cosa arriveranno? Mega, Iper, Super, mah….
Simonex84 è offline   Rispondi citando il messaggio o parte di esso
Old 16-03-2022, 09:35   #19
Sp3cialFx
Bannato
 
Iscritto dal: Nov 2017
Messaggi: 805
Quote:
Originariamente inviato da TorettoMilano Guarda i messaggi
non mi sono mai interessato a pc/portatili apple ma immagino chi sceglie questi non lo fa perchè sono più potenti. influirà l'os, l'ottimizzazione, l'ecosistema, qualità materiali, estetica, ecc.
difatti non è che prima non li comprassero

Quote:
Originariamente inviato da TorettoMilano Guarda i messaggi
poi fai le tue previsioni partendo dal presupposto con l'M1 apple sia andata all-in e escludendo a priori dei futuri SoC rivoluzionari.
ho fatto un'analisi tecnica e ho argomentato, non è che sono andato "a sentimento". ci sono dei limiti per i quali devi trovare delle scappatoie ma ogni volta il ritorno non è commisurato dagli sforzi. come un motore: è impensabile che si tiri fuori un motore che ha efficienza doppia rispetto a quelli esistenti della stessa tipologia, perché ovviamente si è vicini o alla massima efficienza possibile (tipo un motore elettrico, che è intorno al 95%, e quindi hai un 5% di margine di miglioramento) o comunque alla massima efficienza tecnicamente raggiungibile (tipo i motori endotermici). il punto è che fino all'A14 aveva ancora margini, dall'A14 in avanti di margini ne rimangono pochi - che è un po' la situazione in cui si trovano gli altri da tempo.

Quote:
Originariamente inviato da TorettoMilano Guarda i messaggi
poi sempre sul tuo discorso "farsi recuperare dalla concorrenza" di apple mi pare non si sia verificato nè su iphone e nè su ipad.
se parli di CPU si ma ripeto i competitor hanno un budget in termini di transistor molto più contenuto; se parli di prodotto nel suo complesso a me pare che il vantaggio che aveva ai tempi dell'iPhone 1 rispetto ai palmari non esista più, oggi non è che l'iPhone sia oggettivamente meglio rispetto a uno smartphone di fascia alta della concorrenza. Lì subentrano preferenze e abitudini (e ovviamente il marchio fa la sua parte)

Quote:
Originariamente inviato da TorettoMilano Guarda i messaggi
detto questo, non avendo azioni da nessuna parte, l'esito futuro su chi sarà vincitore mi interessa marginalmente. mi interessa sempre avere prodotti migliori e una concorrenza agguerrita
si ma non è che pongo la questione in termini di vincitori e vinti. Non è lì la mia sottolineatura. La mia sottolineatura è che Apple storicamente ha sempre tirato fuori dal cappello la sorpresa ma poi non è mai stata particolarmente brava a mantenere il vantaggio, e qui le premesse non mi sembrano diverse. Concordo che comunque rappresenta una spinta al mercato che non può fare che bene.
Sp3cialFx è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto HP Elitebook Ultra G1i 14 è il notebook c...
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso Microsoft Surface Pro 12 è il 2 in 1 pi&u...
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet! Recensione REDMAGIC Astra Gaming Tablet: che spe...
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2 Dopo un mese, e 50 foto, cosa abbiamo capito del...
Gigabyte Aero X16 Copilot+ PC: tanta potenza non solo per l'IA Gigabyte Aero X16 Copilot+ PC: tanta potenza non...
L'idea di JPMorgan: prestiti e finanziam...
Candy Crush: non solo il gioco! Arriva a...
Ecco come siamo riusciti a raccogliere l...
Agentic AI Framework: l'IA basata su age...
Offerte Amazon pazze di luglio: portatil...
Scoppierà la bolla AI? Gli econom...
Il potere dei coupon e delle offerte Ama...
Tesla fotovoltaica, funziona davvero? Un...
Ribassi clamorosi sui robot Narwal: scon...
Dopo OpenAI anche Gemini Deep Think conq...
Meta sfida l'UE sull'intelligenza artifi...
BYD a caccia anche del settore del lusso...
I 5 sconti migliori su Amazon oggi: DJI,...
Questo SSD può contenere 12.500 f...
Stargate: il progetto AI da 500 miliardi...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 16:01.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1