PDA

View Full Version : Tachyum Prodigy, l'atteso Processore Universale debutterà nel corso dell'anno?


Redazione di Hardware Upg
16-01-2024, 09:01
Link alla notizia: https://www.hwupgrade.it/news/cpu/tachyum-prodigy-l-atteso-processore-universale-debuttera-nel-corso-dell-anno_123383.html

Tachyum Prodigy, Processore Universale che punta a offrire altissime prestazioni e le funzionalità di CPU, GPU e TPU in un unico pacchetto, dovrebbe debuttare quest'anno dopo anni di ritardi e cambi di programma.

Click sul link per visualizzare la notizia.

supertigrotto
16-01-2024, 09:32
E vediamo come va,ci sono anche i risc-V in crescita

jepessen
16-01-2024, 09:33
carichi x86_64 non nativi

Qualcuno potrebbe gentilmente spiegarmi che significa? Che l'architettura del chip non e' x86 ma c'e' comunque una sorta di emulazione direttametne onchip, oppure qualcos altro?

lollo9
16-01-2024, 09:50
Qualcuno potrebbe gentilmente spiegarmi che significa? Che l'architettura del chip non e' x86 ma c'e' comunque una sorta di emulazione direttametne onchip, oppure qualcos altro?

infatti non vuol dire nulla :D
mi sa che a forza di rimasticare il comunicato stampa ufficiale si sono incasinati.
Seamless execution of non-native (x86_64) applications under Linux on FPGA (comunicato intero (https://www.tachyum.com/media/press-releases/2024/01/09/tachyum-well-positioned-for-an-exceptional-2024/)). questo ha già più senso

vedremo, sono 6 anni che fanno annunci ed ogni volta che parlano giocano al raddoppio, senza che si sia mai visto nemmeno un paper, figuriamoci un prototipo.
per ora tanta aria fritta, tanti soldi pubblici e tanti annunci di questo fantomatico glorified fpga

dav1deser
16-01-2024, 10:45
infatti non vuol dire nulla :D
mi sa che a forza di rimasticare il comunicato stampa ufficiale si sono incasinati.
Seamless execution of non-native (x86_64) applications under Linux on FPGA (comunicato intero (https://www.tachyum.com/media/press-releases/2024/01/09/tachyum-well-positioned-for-an-exceptional-2024/)). questo ha già più senso

vedremo, sono 6 anni che fanno annunci ed ogni volta che parlano giocano al raddoppio, senza che si sia mai visto nemmeno un paper, figuriamoci un prototipo.
per ora tanta aria fritta, tanti soldi pubblici e tanti annunci di questo fantomatico glorified fpga

Infatti, a me annunci del genere puzzano sempre tantissimo, ogni anno se ne salta fuori qualcuno con un chip "n-mila" volte migliore dei chip Intel, AMD, Nvidia, ARM etc, poi però alla fine nella pratica non si vede mai niente di così sconvolgente.
Quindi penso ci siano 2 opzioni:

- Le aziende sopra citate non sanno realmente produrre chip in grazia, se cani e porci riescono a surclassarle ampiamente, e sempre queste aziende fanno fallire questi nuovi progetti con mezzi più o meno legali.

- Questi progetti non sono realmente così performanti come vorrebbero farci credere.

Unrue
16-01-2024, 11:28
fino a 4,5 volte in più le prestazioni dei processori x86 più performanti nei carichi di lavoro cloud, stacca di 3 volte la "GPU più performante per HPC" e garantisce prestazioni 6 volte superiori con applicazioni IA

Parole a dir poco roboanti. Faccio davvero fatica a credere che un processore general purpouse surclassi una scheda dedicata. Non potrebbero volare un pelo più basso onde evitare di fare figuracce? In fondo, essendo un progetto totalmente nuovo, nessuno pretende la luna agli inizi.

supertigrotto
16-01-2024, 12:31
Ragazzi,guardate che le GPU per la IA sono efficaci ma non efficienti, IBM lo ha dimostrato più di una volta, usando vecchi 6800 modificati,per la IA ci vuole un hardware dedicato tipo gli Asics per i Bitcoin,quindi potrebbe starci che riesce ad essere più efficiente.
Attualmente si usano schede Nvidia costosissime e qualcuna Mi300 perché sono già pronte come i 4 salti in padella ma non è che siano l'hardware più giusto per la IA,altrimenti, Microsoft,Google,Apple e compagnia bella non starebbero li a svilupparsi hardware proprietario.
L'informatica si è evoluta,quindi anche l'hardware deve evolversi,anche le architetture se si hanno esigenze diverse.

murraythegoz
17-01-2024, 22:38
Io ho un Dejavu e mi ricordo di una certa Transmeta (in cui se non erro ci ha lavorato anche Linus Torvalds) che non vantava cotante prestazioni, ma che cmq aveva un processore compatibile con "diverse architetture" con prestazioni "paragonabili".

Qualche altra barba grigia che si ricorda?

and.ben
21-01-2024, 12:19
Ma ci gira Crysis?

ZeroSievert
21-01-2024, 23:03
Tanti numeri che però non vogliono dire nulla se non vengono specificate esattamente le applicazioni. Sembra la tipica trappola per investitori.

E il fatto che questo processore sostituisca, in teoria, chip con architetture estremamente diverse (TPU, GPU, CPU) puzza non poco.

ZeroSievert
21-01-2024, 23:14
Ragazzi,guardate che le GPU per la IA sono efficaci ma non efficienti, IBM lo ha dimostrato più di una volta, usando vecchi 6800 modificati,per la IA ci vuole un hardware dedicato tipo gli Asics per i Bitcoin,quindi potrebbe starci che riesce ad essere più efficiente.
Attualmente si usano schede Nvidia costosissime e qualcuna Mi300 perché sono già pronte come i 4 salti in padella ma non è che siano l'hardware più giusto per la IA,altrimenti, Microsoft,Google,Apple e compagnia bella non starebbero li a svilupparsi hardware proprietario.
L'informatica si è evoluta,quindi anche l'hardware deve evolversi,anche le architetture se si hanno esigenze diverse.

Dall'articolo non sembra che sia un'architettura molto distante da quella di una GPU (mi ricorda Larrabee).

Inoltre nell'elettronica si tratta sempre di fare un compromesso tra flessibilità, facilità di programmazione, costo e velocità.

E ogni soluzione (CPU, GPU, ASIC) e' la risposta ad un determinato compromesso. Un chip che riesca a fare tutto bene non esiste e non puo' esistere.

randorama
21-01-2024, 23:42
è fatto in nanotubi di grafene, vero?

LMCH
16-08-2024, 16:40
Tanti numeri che però non vogliono dire nulla se non vengono specificate esattamente le applicazioni. Sembra la tipica trappola per investitori.

E il fatto che questo processore sostituisca, in teoria, chip con architetture estremamente diverse (TPU, GPU, CPU) puzza non poco.

Già, inoltre quello di cui stanno parlando ora è il "Prodigy 2022" ( vedere https://chipsandcheese.com/2022/08/26/tachyums-revised-prodigy-architecture/ per maggiori informazioni).

Il processore Prodigy su cui Tachyum aveva iniziato a lavorare nel 2018 era un evoluzione dei VLIW, erano arrivati a produrre dei chip in numero limitato e poi hanno deciso di ripartire da zero tenendo conto di quel che avevano appreso nello svilyppo del "Prodigy 2018" e ripensando il set d'istruzioni.

Quello su cui scommetteva Tachyum non era un architettura VLIW, ma riprogettare l'intero processore tenendo conto di quali sono i colli di bottiglia più stretti con i processi produttivi più recenti.
Per questo hanno deciso per un cambio radicale del set d'istruzioni.
Il loro problema più grosso é che non sembrano avere una strategia sensata su come posizionare il prodotto ammesso che riescano ad uscire sul mercato.

ZeroSievert
17-08-2024, 08:37
Già, inoltre quello di cui stanno parlando ora è il "Prodigy 2022" ( vedere https://chipsandcheese.com/2022/08/26/tachyums-revised-prodigy-architecture/ per maggiori informazioni).

Il processore Prodigy su cui Tachyum aveva iniziato a lavorare nel 2018 era un evoluzione dei VLIW, erano arrivati a produrre dei chip in numero limitato e poi hanno deciso di ripartire da zero tenendo conto di quel che avevano appreso nello svilyppo del "Prodigy 2018" e ripensando il set d'istruzioni.

Quello su cui scommetteva Tachyum non era un architettura VLIW, ma riprogettare l'intero processore tenendo conto di quali sono i colli di bottiglia più stretti con i processi produttivi più recenti.
Per questo hanno deciso per un cambio radicale del set d'istruzioni.
Il loro problema più grosso é che non sembrano avere una strategia sensata su come posizionare il prodotto ammesso che riescano ad uscire sul mercato.

Articolo molto interessante, grazie! Fornisce una visione molto piu' chiara di quello che questa azienda vuole fare.

E, come sospettavo, effettivamente questo IC sembra molto orientato al HPC/AI sacrificando prestazioni per carichi generici. Sarebbe interessante sapere se il fatto di avere un branch predictor piu' debole rispetto alla controparte x86 puo' essere in parte compensato con un lavoro maggiore da parte del compilatore.

Comunque 900W x 5.7 GHz e' una bella bestia. Il primo tape-out, se mai uscira' sara' un bel divertimento per gli ingegneri addetti ai test :stordita: