View Full Version : NVIDIA e AMD stanno realizzando processori ARM per il mercato PC?
Redazione di Hardware Upg
24-10-2023, 06:01
Link alla notizia: https://www.hwupgrade.it/news/cpu/nvidia-e-amd-stanno-realizzando-processori-arm-per-il-mercato-pc_121155.html
Secondo le fonti dell'agenzia di stampa Reuters, AMD e NVIDIA starebbero lavorando a processori basati su ARM per il mercato dei PC client, ovvero desktop e notebook.
Click sul link per visualizzare la notizia.
MosfetMan
24-10-2023, 08:10
Finalmente...sento finalmente vicino la rinascita dei RISC nei posti giusti(desktop)io vedo questa cosa un po' come la rivincita dei spettacolari DEC Alpha, architettura eccezionale già a 64 Bit(superscalare) nel 1992, quando gli altri stavano ancora a 32 Bit(scalare). Comunque scusate la mini cronostoria ma quando sento queste cose mi fa solo che piacere, spero che Nvidia faccia valide CPU desktop e AMD rispolveri il progetto K12 fatto dalle mitiche manine di Jim Keller.
PS: Jim Keller partecipò allo sviluppo di Alpha.
supertigrotto
24-10-2023, 08:29
Non so se conviene di più a puntare su arm oppure una bella sinergia per creare un risc V con le palle,anche arm si porta dietro un po' di istruzioni Legacy
Finalmente...sento finalmente vicino la rinascita dei RISC nei posti giusti(desktop)io vedo questa cosa un po' come la rivincita dei spettacolari DEC Alpha, architettura eccezionale già a 64 Bit(superscalare) nel 1992, quando gli altri stavano ancora a 32 Bit(scalare). Comunque scusate la mini cronostoria ma quando sento queste cose mi fa solo che piacere, spero che Nvidia faccia valide CPU desktop e AMD rispolveri il progetto K12 fatto dalle mitiche manine di Jim Keller.
PS: Jim Keller partecipò allo sviluppo di Alpha.
Qui il fattore basilare per il successo è il suppporto software.
Domani esce un ARM che viaggia come un X86 di fascia alta, ok. E cosa ci metto su? Quanti software ci girano?
L'ambito server è molto differente rispetto al desktop.
UtenteHD
24-10-2023, 08:40
Personalmente facciano le scelte che vogliono, speriamo bene, l'importante e' che alla fine si abbia un prodotto che consuma poco e migliorativo di molto in senso di prestazioni (ed economico per tutti?)
Grazie.
MosfetMan
24-10-2023, 10:04
Mi trovi assolutamente d'accordo, infatti una delle cause per cui abbiamo ancora(nei desktop) solo x86 e non RISC è perché negli anni 90' Windows era strettamente legato a Intel che era il baluardo dei CISC e quindi migliaia se non milioni di software furono scritti per x86 tagliando fuori i RISC dal mercato consumer medio. Tutto giusto e vero ma adesso non sembra più così, Windows 11(figuriamoci il 12) è anche ARM64,e visto l'andazzo con la rinascita dei RISC(desktop) sempre più sviluppatori faranno software nativi ARM e alla fine tutto si uniformerà(spero)in una sana competizione a base di istruzioni CISC-RISC di cui noi utenti beneficeremo. Speriamo che Intel si decida a fare esclusivamente CPU x86S perché bisogna togliere dalla fava quel set a 32 bit, occupa troppo spazio sul die ed è inutile visto che le CPU moderne possono tranquillamente emulare con ottimi risultati i 32 bit.
PS: Anche Intel provò a far fuori x86 con Itanium, ma sappiamo tutti come è andata.
Qui il fattore basilare per il successo è il suppporto software.
Domani esce un ARM che viaggia come un X86 di fascia alta, ok. E cosa ci metto su? Quanti software ci girano?
L'ambito server è molto differente rispetto al desktop.
E' chiaro che non si possono buttare alle ortiche decenni di programmi, ma, grazie agli emulatori, bisogna semplicemente fare così:
Nuova architettura, nuova ISA con emulatore software per il legacy X86-64, ma che garantisca, per il codice scritto nativamente un boost di prestazioni percentuale di 3 cifre almeno (ossia dal doppio, 100%, in su).
Il resto verrà da se...
E' chiaro che non si possono buttare alle ortiche decenni di programmi, ma, grazie agli emulatori, bisogna semplicemente fare così:
Nuova architettura, nuova ISA con emulatore software per il legacy X86-64, ma che garantisca, per il codice scritto nativamente un boost di prestazioni percentuale di 3 cifre almeno (ossia dal doppio, 100%, in su).
Il resto verrà da se...
poi di solito suona la sveglia....
pensare che un emulatore permetta di raddoppiare le performance rispetto ad un asic è semplicemente utopistico a meno che il tuo target di riferimento siano le prestazioni di un 80386
Finalmente...sento finalmente vicino la rinascita dei RISC nei posti giusti(desktop)io vedo questa cosa un po' come la rivincita dei spettacolari DEC Alpha, architettura eccezionale già a 64 Bit(superscalare) nel 1992, quando gli altri stavano ancora a 32 Bit(scalare). Comunque scusate la mini cronostoria ma quando sento queste cose mi fa solo che piacere, spero che Nvidia faccia valide CPU desktop e AMD rispolveri il progetto K12 fatto dalle mitiche manine di Jim Keller.
PS: Jim Keller partecipò allo sviluppo di Alpha.
Mi risulta che DEC Alpha se l'é comprata Intel da Compaq nel 2001 quindi Intel ha recuperato tutto il recuperabile da loro (e cmq in questo settore copiare é normale), vorrei ricordare chel'isa x86 é CISC ma i processori sono RISC dal Pentium 1 e che traducono le istruzioni prima di arrivare alle ALU in oltre il Pentium 1 del 1993 era SuperScalare uscito un anno dopo il primo Alpha (quindi ci stavano lavorando da prima dell'uscita di Alpha anche se non escludo abbiano preso l'idea da loro).
Mi trovi assolutamente d'accordo, infatti una delle cause per cui abbiamo ancora(nei desktop) solo x86 e non RISC è perché negli anni 90' Windows era strettamente legato a Intel che era il baluardo dei CISC e quindi migliaia se non milioni di software furono scritti per x86 tagliando fuori i RISC dal mercato consumer medio. Tutto giusto e vero ma adesso non sembra più così, Windows 11(figuriamoci il 12) è anche ARM64,e visto l'andazzo con la rinascita dei RISC(desktop) sempre più sviluppatori faranno software nativi ARM e alla fine tutto si uniformerà(spero)in una sana competizione a base di istruzioni CISC-RISC di cui noi utenti beneficeremo. Speriamo che Intel si decida a fare esclusivamente CPU x86S perché bisogna togliere dalla fava quel set a 32 bit, occupa troppo spazio sul die ed è inutile visto che le CPU moderne possono tranquillamente emulare con ottimi risultati i 32 bit.
PS: Anche Intel provò a far fuori x86 con Itanium, ma sappiamo tutti come è andata.
Non credo proprio sia un problema CISC o RISC , non e' che se compilo un programma per MIPS che e' un RISC funziona su un ARM o su un Alpha o su quello che ti viene in mente
Semplicemente gli altri processori , tralasciando la linea Motorola 68000 (che Era CISC) e poi i PowerPC (derivati dai Power IBM) il resto dei processori erano costosissimi in ambito esktop, tra l'altro ci furono Windows anche per non x86 (Windows NT per processori alpha ad esempio)
Windows e x86 era semplicemente imbattibile lato Desktop
MosfetMan
24-10-2023, 10:29
Sì, che tra l'altro la Compaq fece morire la DEC perché non sapeva fare il suo lavoro. Comunque il Pentium Pro fu il primo ad adottare un architettura interna RISC-Like ma non sono proprio dei RISC, semplicemente fanno un uso abbondante di microistruzioni e cache uop per velocizzare la pipeline, ma i decoder rimangono CISC(con tutti i problemi del caso)
Scusate ma, nVidia non produce SOC Arm già da anni? Mi ricordo i Tegra che saranno in giro dal 2009-10
Mi trovi assolutamente d'accordo, infatti una delle cause per cui abbiamo ancora(nei desktop) solo x86 e non RISC è perché negli anni 90' Windows era strettamente legato a Intel che era il baluardo dei CISC e quindi migliaia se non milioni di software furono scritti per x86 tagliando fuori i RISC dal mercato consumer medio.
Guarda, se è per questo era già così ai tempi del DOS.
La "GUERRA" su quale standard viene adottato è sempre la prima ad essere combattuta.. e non necessariamente quello che vince è quello tecnicamente migliore.
Basti guardare ad esempio la guerra degli standard delle videocassette.. vinsero le VHS che erano quelle qualitativamente peggiori.
Ai tempi dei primi PC la guerra fu vinta dall'accoppiata microsoft-intel con X86.
Per mille motivi tutti diversi.
Apple pur essendo la prima ad aver presentato dei prodotti per il pubblico (il diffusissimo apple II) restò poi relegata ad una nicchia (passandosela pure molto male) perchè i suoi prodotti (basati sui molto più potenti chip motorola) erano anche molto più costosi e a quell'epoca le esigenze erano altre.
Adesso ARM o anche RISC stanno recupoerando terreno perchè sono cambiate tante cose.. ma è difficile comunque scalzare delle realtà molto consolidate.
Scusate, ma siete ancora a sognare CISC vs RISC quando la realtà è che le 2 architetture ormai si assomigliano sempre di più?
Sperate in un chip RISC dalle prestazioni stellari ad un costo umano quando il più potente ARM che è quello prodotto da APPLE è una mattonella composta da quasi il doppio dei transistor di un i9...
MosfetMan
24-10-2023, 12:10
L'i9 é una CPU punto. Mentre la serie M di Apple è un SoC, il che è ben diverso visto che parliamo di varie unità tra cui GPU,NPU,Modem. Mettici che poi la maggior parte del silicio e dei transistor sono per la GPU(molto più veloce delle pseudo integrate di Intel)che essendo un processore parallelo vettoriale necessità di tanti transistor di cui la maggior parte per ALU e registri.
L'importante è che il mercato mostri interesse per Win ARM poi i software verranno ricompilati in tempi relativamente brevi con le relative ottimizzazioni che non credo richiederanno più di 12 mesi.
Quindi tempi in linea con la fine dell'esclusiva Qualcomm.
Sfortunatamente mi sembra di aver letto che Keller ormai abbia spostato il suo interesse verso RiscV altrimenti se fosse ancora a capo dei grossi player molto probabilmente avremmo potuto assistere a un bel debutto.
Inoltre la moda in ambito Enterprise di spostarsi verso il Cloud permetterebbe anche l'ingresso di vari surface arm based
Ripper89
24-10-2023, 13:53
Se fra una decina di anni il mondo desktop consumer passerà ad ARM, aziende come Nvidia e AMD potrebbero mettere la CPU e GPU nella stessa scheda con HBM condivisa e tutti sono un unico dissipatore.
Potremmo avere PC molto potenti in uno spazio molto più ristretto di un attuale configurazione mITX.
Se fra una decina di anni il mondo desktop consumer passerà ad ARM, aziende come Nvidia e AMD potrebbero mettere la CPU e GPU nella stessa scheda con HBM condivisa e tutti sono un unico dissipatore.
Potremmo avere PC molto potenti in uno spazio molto più ristretto di un attuale configurazione mITX.
Ehm.. si chiama scheda madre con gpu integrata! :D
Qui non è tanto la questione del form factor.. più che altro sarebbe il fatto che chiunque potebbe realizzare una piattaforma completa senza elementi esterni.
Cioè Nvida potrebbe realizzare un PC completo con CPU, CHIPSET, GPU.. o più facilmente un SOC omnicomprensivo come ha fatto Apple.
Però Apple lo ha potuto fare in modo relativamente semplice perchè il suo è un sistema completamente chiuso anche lato software ed SO.
Quindi ha forzato tutti (utenti e programmatori) a farsi andare bene la nuova realtà.
Non so.. a me piacciono gli standard e mi piace molto poter decidere che CPU voglio, qunta e quale ram voglio e quale GPU voglio.. e sincermante mi starebbe molto sulle balle la piattaforma all inclusive prefabbricata di pinco pallo..
demonsmaycry84
24-10-2023, 14:57
ma ci gira crysis?
se no...risc scafale tutta la vita..
io ho iniziato con m1 appena uscito...m1 pro...ecc ecc e va bene hanno dei benefici indubbi consumo/prestazioni però però però la vera potenza...i ghz...tirare fuori un risc che viaggia e pista come i ryzen o gli i9 di ora non saprei dovrei prima veramente vederlo..la migrazione software è possibile e nemmeno troppo problematica forse però comincerei con una bella APU nel mondo console per almeno una generazione e poi comincerei a provare tutto su pc.
MosfetMan
24-10-2023, 15:25
Basta farti un giro sulla classifica di Passmark e vedi come un A17 Pro(da smartphone)da 10W prenda a pizze un Ryzen 9 7950X da 150W in Single Core con quasi 2ghz di meno.
Piedone1113
24-10-2023, 15:30
L'i9 é una CPU punto. Mentre la serie M di Apple è un SoC, il che è ben diverso visto che parliamo di varie unità tra cui GPU,NPU,Modem. Mettici che poi la maggior parte del silicio e dei transistor sono per la GPU(molto più veloce delle pseudo integrate di Intel)che essendo un processore parallelo vettoriale necessità di tanti transistor di cui la maggior parte per ALU e registri.
I9 è un soc, non una cpu, come pure i Ryzen serie G.
La ddifferenza sostanziale è che INtel ed AMD offrono prodotti scalabile ( linee pci-e, storage, ram, multi socket, ecc), mentre Apple offre sistemi statici.
Credi che sia diffice o complesso integrare un modem Qualcom sotto l'his di un intel o amd?
Oppure uno stack di hbm?
O credi che PS5 e Xbox sono computer sotto false spoglie?
Basta farti un giro sulla classifica di Passmark e vedi come un A17 Pro(da smartphone)da 10W prenda a pizze un Ryzen 9 7950X da 150W in Single Core con quasi 2ghz di meno.
Caaaaaalma. Capisci bene che non è che quelli che lavorano alle CPU X86 sono tutti pirla eh.. perchè anche il mio cellulare fa le foto come una reflex full frame da diecimila euro.. se fotografo un muro bianco col sole di mezzogiorno. :stordita:
Le cpu X86 devono portarsi dietro non poca zavorra legacy per garantire retrocompatibilità (intel ha già nei piani di rimuovre tutta la parte 32bit abbandonado x86 legacy). Questa è di certo una cosa che pesa e che invece ARM non ha.
In secondo luogo bisogna vedere dove e come una CPU ARM da cellulare prevale su una CPU X86 da PC. E' appunto la storia della foto al muro bianco con sole pieno.. perchè se in una cosa specifica (determinate tipologie di istruzioni) può pure essere performante in altre duecento è un bagno di sangue.
MosfetMan
24-10-2023, 15:56
Sono sempre stato contro quella melassa di istruzioni legacy antidiluviane che potrebbero essere facilmente emulate senza tanti problemi dalle moderne architetture. Vedremo cosa farà Intel con la famosa x86s(solo 64Bit) così con più spazio sul die avremo un'architettura molto più snella e efficiente. Quindi nulla da togliere a x86 anche perché non mi piace il fazionismo...il tempo ci dirà. Per quanto riguarda i benchmark è chiaro che un test sintetico non rispecchia necessariamente le prestazioni reali, ma era per far notare che non bisogna assolutamente sottovalutare un'architettura come ARM visto che sia Intel che AMD lo hanno fatto, e guarda oggi di cosa stiamo parlando.
Piedone1113
24-10-2023, 16:17
Sono sempre stato contro quella melassa di istruzioni legacy antidiluviane che potrebbero essere facilmente emulate senza tanti problemi dalle moderne architetture. Vedremo cosa farà Intel con la famosa x86s(solo 64Bit) così con più spazio sul die avremo un'architettura molto più snella e efficiente. Quindi nulla da togliere a x86 anche perché non mi piace il fazionismo...il tempo ci dirà. Per quanto riguarda i benchmark è chiaro che un test sintetico non rispecchia necessariamente le prestazioni reali, ma era per far notare che non bisogna assolutamente sottovalutare un'architettura come ARM visto che sia Intel che AMD lo hanno fatto, e guarda oggi di cosa stiamo parlando.
Sicuramente sei un programmatore per esserne così certo.
Ma mi chiedo come affronteresti il problema dei task eseguiti in real mode e oggi girano in virtual mode grazie a quell'accozzaglia di istruzioni legacy?
Questo è solo il primo esempio di codice legacy che mi viene in mente, ma se ne potrebbe scrivere un enciclopedia.
Ps come mai nemmeno m2 è privo di istruzioni legacy ( nonostante il controllo totale sul codice e sui permessi di esecuzione dei software) ?
Piedone1113
24-10-2023, 16:34
Caaaaaalma. Capisci bene che non è che quelli che lavorano alle CPU X86 sono tutti pirla eh.. perchè anche il mio cellulare fa le foto come una reflex full frame da diecimila euro.. se fotografo un muro bianco col sole di mezzogiorno. :stordita:
Le cpu X86 devono portarsi dietro non poca zavorra legacy per garantire retrocompatibilità (intel ha già nei piani di rimuovre tutta la parte 32bit abbandonado x86 legacy). Questa è di certo una cosa che pesa e che invece ARM non ha.
In secondo luogo bisogna vedere dove e come una CPU ARM da cellulare prevale su una CPU X86 da PC. E' appunto la storia della foto al muro bianco con sole pieno.. perchè se in una cosa specifica (determinate tipologie di istruzioni) può pure essere performante in altre duecento è un bagno di sangue.
Non l'ultimo venuto ( un certo Jim Keller) ha dichiarato in un intervista che la differenza di efficienza tra x86 e arm nelle cpu moderne non supera mai il 3% ( e non sempre a favore di arm) e che chiunque si ostina a parlare di maggior efficenza Arm vs x86 sicuramente non è del settore.
( io ci ho capito che solo i discorsi da bar fatta da completi ignoranti si ostina a portare paragoni privi di fondamenti e solo per tifo)
Secondo lui ( e sicuramente non è il solo) la mnigliore architettura è Risc-V perchè essendo nuova è priva di codice legacy e più facilmente ottimizzabile nelle prestazioni/efficienza, ma che Risc-V tra 20/30 anni si ritroverà nella stessa situazione di ARM-X86 di oggi nel dover portarsi sul groppo un sacco di istruzioni legacy ( sempre che Risc-V venga adottato in massa).
Secondo la mia, priva di conoscenza specifica, opinione l'unica architettura che non soffrirebbe mai del problema legacy è la VLIW, ma sappiamo benissimo di cosa stiamo parlando e di cosa c'è dietro, vero?
Sono sempre stato contro quella melassa di istruzioni legacy antidiluviane che potrebbero essere facilmente emulate senza tanti problemi dalle moderne architetture.
Così da profano concordo, le attuali CPU hanno potenza da vendere e possono senza problemi emulare la vecchia architettura 32bit per far girare anche software datati.
Ma ripeto: DA PROFANO.
Se ad oggi non hanno ancora fatto questa cosa è perchè evidentemente ci sono ambiti, situazioni e motivazioni tecniche che non rendono così semplice questa cosa..
MosfetMan
24-10-2023, 16:47
Beh è ovvio che non può andare bene su tutto ma ora scomodare anche l'8086 mi pare eccessivo...ancora le istruzioni a 16 bit ? No grazie.
Piedone1113
24-10-2023, 17:09
Beh è ovvio che non può andare bene su tutto ma ora scomodare anche l'8086 mi pare eccessivo...ancora le istruzioni a 16 bit ? No grazie.
Perchè no? ci sono una marea di applicativi che vengono eseguiti in VW per l'impossibilità di lavorare in mederni sistemi x86-64 proprio grazie al legacy delle cpu.
Per non parlare di impianti produttivi " di produzione contemporanea " dove i 16 bit la fanno ancora da padrone?
Le cpu non servono a far girare solo windows e fortinet.
Sono sempre stato contro quella melassa di istruzioni legacy antidiluviane che potrebbero essere facilmente emulate senza tanti problemi dalle moderne architetture. Vedremo cosa farà Intel con la famosa x86s(solo 64Bit) così con più spazio sul die avremo un'architettura molto più snella e efficiente. Quindi nulla da togliere a x86 anche perché non mi piace il fazionismo...il tempo ci dirà. Per quanto riguarda i benchmark è chiaro che un test sintetico non rispecchia necessariamente le prestazioni reali, ma era per far notare che non bisogna assolutamente sottovalutare un'architettura come ARM visto che sia Intel che AMD lo hanno fatto, e guarda oggi di cosa stiamo parlando.
La melassa di istruzioni come la chiami tu, occupa uno spazio irrilevante in una cpu moderna, come detto prima, RISC e CISC sono distinzioni che oggi hanno poco senso perchè da una parte RISC ha ampliato di molto il set di istruzioni per poter essere efficiente, e CISC ha adottato una struttura interna in molte parti assimilabile a RISC.
E se ARM ha alcuni vantaggi è nel fatto di poter integrare coprocessori per praticamente qualsiasi compito, per questo in alcuni test processori ARM sono tremendamente più efficienti degli x86 quando questi non hanno un set di istruzioni dedicati allo scopo, ad esempio la codifica/decodifica video, differenza che poi sparisce quando anche negli x86 viene ampliato il set di istruzioni andando ad integrare le istruzioni specifiche.
MosfetMan
24-10-2023, 17:57
Evidentemente non hai capito che la "melassa" era riferita alle istruzioni legacy 16-32 bit. E quello per me è spazio inutilmente occupato da set di istruzioni vecchi e obsoleti che nel 99% dei software moderni non si usano(tralasciando la marea di programmi scritti a 32bit)quindi non vedo perché sprecare spazio con istruzioni che non servono e che ripeto secondo me sono facilmente emulabili dalle moderne CPU che nemmeno se ne accorgerebbero. Per quanto riguarda la convergenza RISC-CISC è vero che negli anni c'è stato un reciproco assimilo di funzioni tipiche dell'uno e dell'altra, mi vengono in mente le istruzioni ARM che non sono puramente RISC visto che sono anche a lunghezza variabile, o anche l'esecuzione fuori ordine che non è propria dei CISC ecc...ma è pur sempre vero che rimangono delle architetture diverse. Specialmente nei decoder.
Evidentemente non hai capito che la "melassa" era riferita alle istruzioni legacy 16-32 bit. E quello per me è spazio inutilmente occupato da set di istruzioni vecchi e obsoleti che nel 99% dei software moderni non si usano(tralasciando la marea di programmi scritti a 32bit)quindi non vedo perché sprecare spazio con istruzioni che non servono e che ripeto secondo me sono facilmente emulabili dalle moderne CPU che nemmeno se ne accorgerebbero. Per quanto riguarda la convergenza RISC-CISC è vero che negli anni c'è stato un reciproco assimilo di funzioni tipiche dell'uno e dell'altra, mi vengono in mente le istruzioni ARM che non sono puramente RISC visto che sono anche a lunghezza variabile, o anche l'esecuzione fuori ordine che non è propria dei CISC ecc...ma è pur sempre vero che rimangono delle architetture diverse. Specialmente nei decoder.
Ma esattamente di cosa stiamo parlando? Un 80386 completo aveva 275.000 transistor, nel computo totale di un processore moderno, composto da decine di miliardi di transistor, avere o non avere il set di istruzioni Legacy è assolutamente ininfluente.
Piedone1113
24-10-2023, 19:10
Evidentemente non hai capito che la "melassa" era riferita alle istruzioni legacy 16-32 bit. E quello per me è spazio inutilmente occupato da set di istruzioni vecchi e obsoleti che nel 99% dei software moderni non si usano(tralasciando la marea di programmi scritti a 32bit)quindi non vedo perché sprecare spazio con istruzioni che non servono e che ripeto secondo me sono facilmente emulabili dalle moderne CPU che nemmeno se ne accorgerebbero. Per quanto riguarda la convergenza RISC-CISC è vero che negli anni c'è stato un reciproco assimilo di funzioni tipiche dell'uno e dell'altra, mi vengono in mente le istruzioni ARM che non sono puramente RISC visto che sono anche a lunghezza variabile, o anche l'esecuzione fuori ordine che non è propria dei CISC ecc...ma è pur sempre vero che rimangono delle architetture diverse. Specialmente nei decoder.
la modalità 16-32-40-48 bit non hanno unità dedicate.
Il risparmio lo si avrebbe solo nel frontend e sarebbe minimo.
Quello che vorresti è riscrivere da praticamente da zero tutta la cpu mandando a donnine non solo i programmi a 32 bit ma anche quelli attuali a 64 che sono scritti e strutturati proprio tenendo in considerazione il funzionamento della cpu.
Praticamente vorresti abbandonare i32e ( AMD64) per creare da zero una nuova architettura cisc a 64 bit priva di qualsiasi os e compilatore?
MosfetMan
24-10-2023, 19:50
Sono un'appassionato dell'architettura Itanium e secondo me VLIW era molto interessante, peccato che impegnava non poco i programmatori.
Piedone1113
25-10-2023, 04:22
Sono un'appassionato dell'architettura Itanium e secondo me VLIW era molto interessante, peccato che impegnava non poco i programmatori.
Veramente io mi riferivo più che a Itanium a Crusoe (https://it.wikipedia.org/wiki/Crusoe) e Efficeon (https://it.wikipedia.org/wiki/Efficeon) che erano cpu x86 VLIW
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.