PDA

View Full Version : Apple sperimenta con RISC-V, ma per fare cosa? Mistero sui piani di Cupertino


Redazione di Hardware Upg
03-09-2021, 11:06
Link alla notizia: https://www.hwupgrade.it/news/cpu/apple-sperimenta-con-risc-v-ma-per-fare-cosa-mistero-sui-piani-di-cupertino_100368.html

L'architettura open source RISC-V è in grado spolvero in questo periodo, forse complice anche la possibile acquisizione di arm da parte di NVIDIA. Anche Apple, che ha appena voltato le spalle ai chip x86 per soluzioni proprietarie arm, è impegnata su RISC-V: lo dimostra un annuncio di lavoro.

Click sul link per visualizzare la notizia.

io78bis
03-09-2021, 11:18
L'importante è che un altro grosso nome si sia interessato all'architettura Risc V

frankie
03-09-2021, 11:44
x86 comincia ad avere qualcuno alle spalle che guarda.
Effettivamente è un architettura complessa e vecchiotta.

io78bis
03-09-2021, 11:51
x86 comincia ad avere qualcuno alle spalle che guarda.
Effettivamente è un architettura complessa e vecchiotta.

Più che x86 credo che il vero avversario sia ARM anche se non credo proprio possa batterla nel breve periodo ma ritagliarsi una propria fetta di mercato è assolutamente possibile

jepessen
03-09-2021, 12:14
Beh, sperimentare significa esattamente quello che vuol dire, ovvero provare e vedere che succede. Non significa certo che si pensa di usarli in qualche prodotto al momento.

Conoscendo Apple comunque potrebbe pensare di passare a RISC in un futuro non immediato ma nemmeno lontanissimo per il semplice motivo che cosi' non devono pagare le licenze ARM, dato che hanno le competenze per progettare hardware e software in casa, e quindi possono utilizzare l'architettura che vogliono fin quando il loro software e' in grado di essere compilato per girare su quella architettura.

marcowave
03-09-2021, 12:54
Sarebbe una specie di ritorno alle origini dato che i powerPC abbandonati nel 2006 erano RISC se non sbaglio...

Per me comunque ora si stanno concentrando sulla transizione ad ARM.. ok che hardware e software se li fanno in casa, ma non possono permettersi di fare quello che vogliono a causa dei software di terze parti che vanno ogni volta ricompilati...

Comunque vedremo che succede, io sto aspettando con impazienza i chip M1X e M2 intanto..

frankie
03-09-2021, 13:12
Sembra che RISC si stia prendendo una fetta.
Se avranno il supporto di Apple ($$$) è possibile che in un futuro ne esca un bel prootto.
E di sicuro gli altri non staranno a guardare.

pabloski
03-09-2021, 13:26
Humm RISC RISC RISC....oh ma ARM é RISC, eh!!

E lo dice pure il nome. ARM = Advanced RISC Machines!

biometallo
03-09-2021, 13:54
Sarebbe una specie di ritorno alle origini dato che i powerPC abbandonati nel 2006 erano RISC se non sbaglio...


Non sbagli ma a dirla tutta anche gli x86 Intel è dai tempi del penium pro che non sono più CISC puri ma usano un architettura ibrida (e viceversa gli attuali ARM mi risulta non siano più RISC al 100%) ma dato che sono ignorante in materia mi limito a quotare il primo testo che trovo sull'argomento

although the Pentium line for the most part resembles RISC internally. The decode module will break X86 instructions into micro-ops that are effectively RISC instructions. The Pentium 4 had a trace cache to store these internally, rather than decode them repeatedly.

Some Intel processors actually merge micro-ops together, and I would call that the opposite of RISC. I believe Pentium M was the first to do so. Sometimes more complex instructions are introduced: fused multiply-add is relatively standard these days, as is the population count instruction, in both X86 and ARM.

RISC and CISC are decades-old abstract design philosophies: no one that actually works on processors talks about them now. The reality is that processor designers usually have to deal with legacy code, and try the best they can to optimize an architecture within certain bounds.

Sempre da ignorante mi viene il dubbio che uno dei vantaggi attuali dei processori RiscV sia proprio quello di non dover mantenere la compatibilità con roba "ereditata".

Sul fatto poi che x86 sia vecchia come architettua sempre da ignorante mi limito a ricordare che nel corso del tempo si sono aggiunte via via set di istruzioni come le AVX 512

AVX-512 are 512-bit extensions to the 256-bit Advanced Vector Extensions SIMD instructions for x86 instruction set architecture (ISA) proposed by Intel in July 2013, and implemented in Intel's Xeon Phi x200 (Knights Landing)[1] and Skylake-X CPUs; this includes the Core-X series (excluding the Core i5-7640X and Core i7-7740X), as well as the new Xeon Scalable Processor Family and Xeon D-2100 Embedded Series.[2]

ripeto sono un semi analfabeta in materia, ma credo che sia molto ingenuo crere che x86 sia la stessa degli anni 80...

pabloski
03-09-2021, 14:15
Sempre da ignorante mi viene il dubbio che uno dei vantaggi attuali dei processori RiscV sia proprio quello di non dover mantenere la compatibilità con roba "ereditata".


RISC-V è costruita da zero e ovviamente non ha problemi di dover mantenere il supporto legacy all'ISA.


Sul fatto poi che x86 sia vecchia come architettua sempre da ignorante mi limito a ricordare che nel corso del tempo si sono aggiunte via via set di istruzioni come le AVX 512

Il problema è che loro mischiano ISA e architettura hardware. Per esempio, gli M1 di Apple sono processori con ISA ARM, ma architettura hardware completamente proprietaria ( e derivata da Power, su cui lavorava P.A. Semi quando fu comprata da Apple ).

Ed è da questo che deriva il fatto che gli x86 non sono più CISC, ovvero le architetture non lo sono più. Addirittura il processore fisico ha un suo set d'istruzioni separato. E l'ISA è solo l'API che mostrano ai programmatori.

Chiaro che c'è corrispondenza tra alcuni gruppi di istruzioni e le funzionalità dell'hardware sottostante. Non è che puoi implementare AVX-512 senza avere unità vettoriali adatte allo scopo.

Super-Vegèta
03-09-2021, 16:18
Detto tante volte, RISC-V si prepara a prendere il sopravvento su ARM tra alcuni anni. E nel lungo periodo probabilmente anche su x86

Google, Qualcomm, Samsung, Western Digital, IBM, Micron...persino nvidia (anche se credo uscirà per ARM). Nonchè varie aziende cinesi e russe.

Già bastano questi nomi per capire che RISC-V è il futuro. Apple, insieme a IBM e Motorola aveva creato i PowerPC negli anni 90 ed erano processori RISC. Ritorno al passato direi.

Con questi supporti è palese che RISC-V si evolverà tantissimo, personalmente sono curioso di vedere i risultati della GPU RV64X. Su questa stanno convergendo grosse forze tra cui cito AMD che del settore sa abbastanza, infatti il primo prototipo dovrebbe supportare direttamente Vulkan. Persino ARM sta supportando questo progetto...ed è tutto dire.

Cfranco
03-09-2021, 16:31
Non sbagli ma a dirla tutta anche gli x86 Intel è dai tempi del penium pro che non sono più CISC puri ma usano un architettura ibrida (e viceversa gli attuali ARM mi risulta non siano più RISC al 100%)
Esatto, ormai l' ISA non rispecchia che in minima parte la struttura della CPU sottostante.
Peraltro ormai anche ARM non è più RISC da un bel po', le CPU oggi come oggi sono un ibrido CISC/RISC che fondono assieme i vantaggi delle due filosofie e ci aggiungono anche molte altre tecniche sviluppate in seguito.


Sempre da ignorante mi viene il dubbio che uno dei vantaggi attuali dei processori RiscV sia proprio quello di non dover mantenere la compatibilità con roba "ereditata".
Si e no, ci sono pure degli svantaggi, ad esempio il fatto che l' ISA RISC V sia stata spesso modificata perché ci si è resi conto che bisognava aggiungere o modificare istruzioni per aumentare l'efficienza, mentre x86 ormai è rodata e testata.

Sul fatto poi che x86 sia vecchia come architettua sempre da ignorante mi limito a ricordare che nel corso del tempo si sono aggiunte via via set di istruzioni come le AVX 512
Pure ARM ha aggiunto istruzioni analoghe e pure Risc V
A proposito, ricordo che ARM ha solo qualche anno meno di x86, infatti nasce nel 1983 e la prima CPU è del 1985, non è certo un' ISA nuova

L'interesse attuale per Risc V nasce indubbiamente dagli sviluppi nVidia/ARM, se la fusione dovesse andare in porto c' è il rischio concreto di dover abbandonare ARM per diverse aziende, quindi bisogna preparare un piano B

LMCH
03-09-2021, 22:46
A proposito, ricordo che ARM ha solo qualche anno meno di x86, infatti nasce nel 1983 e la prima CPU è del 1985, non è certo un' ISA nuova


Il progetto dell'8086 risale al 1976, in un periodo in cui le prestazioni seguivano davvero la legge di Moore, quando due anni facevano una differenza enorme.
Inoltre le date non dicono tutto riguardo x86 ed ARM.

Gli 8086 dovevano fare da gap filler tra la cpu 8080 ad 8bit e l'arrivo di Intel iAPX432 (quella che doveva essere la prima cpu a 32bit di Intel), la cui progettazione era iniziata nel 1975 (prima dell'8086).

Per questo il set d'istruzioni originale degli 8086 era stato pensato anche con l'obiettivo che fosse possibile prendere un sorgente assembly 8080 e con un "crossassembler" generare codice 8086 equivalente e con un utilizzo di memoria di programma "abbastanza simile".
Ed anche per questo i progettisti introdussero i registri di segmento con 16 byte di granularità e mapparono certe istruzioni su registri specifici invece di partire da zero con un set di istruzioni "pulito".

BulletHe@d
04-09-2021, 19:28
ciclicamente leggo sempre questo tipo di commenti "x86 è vecchia è morta etc. etc." e via a glorificare qualunque cosa possa sulla carta sostituirlo, ora a parte qualche discorso serio che basa i suoi pro sul fatto che sia un ISA relativamente nuova e che non porta nulla di legacy sul groppone ma se la stessa cosa venisse fatta anche su x86 non ci sarebbe un impennata delle prestazioni a scapito della retro compatibilità ?
per cui domando qual è il vero motivo per cui in molti "odiano" x86 e sperano sempre in qualcosa di nuovo ?

LMCH
05-09-2021, 03:10
per cui domando qual è il vero motivo per cui in molti "odiano" x86 e sperano sempre in qualcosa di nuovo ?
Perché oggettivamente se i progettisti dell' IBM XT avessero scelto un altra cpu, gli x86 sarebbero morti entro la metà degli anni '80.
Perché con 8086 e 80286, anche quando programmavi con linguaggi tipo C o Pascal dovevi tener conto dell'odiato limite di 64KB degli offset.
Perché senza tutta la mole di software sviluppato "per PC IBM" gli x86 non avrebbero retto il confronto con processori che a parità di tecnologia erano più potenti e pure più facili da programmare.
Perché pure Intel, conscia delle limitazioni degli x86, ha cercato più volte di farli fuori.

Insomma, qualche motivo c'è.

Cfranco
05-09-2021, 09:08
Perché oggettivamente se i progettisti dell' IBM XT avessero scelto un altra cpu, gli x86 sarebbero morti entro la metà degli anni '80.
Perché con 8086 e 80286, anche quando programmavi con linguaggi tipo C o Pascal dovevi tener conto dell'odiato limite di 64KB degli offset.
Perché senza tutta la mole di software sviluppato "per PC IBM" gli x86 non avrebbero retto il confronto con processori che a parità di tecnologia erano più potenti e pure più facili da programmare.
Perché pure Intel, conscia delle limitazioni degli x86, ha cercato più volte di farli fuori.

Insomma, qualche motivo c'è.

Intel ci ha provato per ben 2 volte a buttare x86 ed entrambe le volte ha fallito miseramente :p

Tutti in teoria vorrebbero liberarsi dalla legacy, ma poi il problema è che le applicazioni legacy non funzionerebbero più :stordita:
E quindi alla fine si sceglie la soluzione che permette la massima compatibilità, anche a costo di qualche seccatura
All'epoca IBM scelse 8088 proprio per la sua compatibilità all'indietro rispetto al superiore 68000, lo standard PC nasce già legacy e tutta la sua vita potrebbe essere riassunta in "ci sono soluzioni migliori ma nessuna è compatibile con tutti i programmi che hai già quindi devi comprare un PC"

Oggi però Intel e AMD hanno smussato parecchio le problematiche della vecchia ISA e, se parliamo di prestazione assoluta, è difficile trovare di meglio per cui rivolgersi ad altre architetture è una questione di soldi o di consumi.