PDA

View Full Version : Tachyum vuole 'democratizzare l'IA' con il suo Processore Universale: nasce Prodigy ATX Platform


Redazione di Hardware Upg
10-02-2024, 08:01
Link alla notizia: https://www.hwupgrade.it/news/cpu/tachyum-vuole-democratizzare-l-ia-con-il-suo-processore-universale-nasce-prodigy-atx-platform_124238.html

Dopo anni di ritardi e promesse, Tachyum ha parlato di Prodigy ATX Platform, una piattaforma che punta a democratizzare l'IA offrendo altissime prestazioni - figlie del Processore Universale Prodigy - a un prezzo umano.

Click sul link per visualizzare la notizia.

LB2
10-02-2024, 08:05
Vedrete che scam è prodigy, diamo il tempo che venga investigata

bonzoxxx
10-02-2024, 08:22
In effetti sulla carta le prestazioni sono davvero troppo "troppe".

dav1deser
10-02-2024, 08:43
Aaahh bè, nella news precedente ero estremamente scettico sulle reali capacità di questo processore, ma ora che hanno mostrato un NZXT H5 Flow con un'etichetta appiccicata sopra, come posso avere ancora dei dubbi?
Datemi un secondo che devo investire tutti i miei risparmi su di loro...

io78bis
10-02-2024, 08:46
A parte che non so cosa voglia dire usare i suoi formati dati (2 o 4 bit) e se richieda conversioni ± onerose sugli algoritmi esistenti.

Se fosse vero quanto dichiarano e rispettati i tempi, ma sembra siano noti per i loro ritardi, perché i vari provider che stanno puntando sul IA hanno fatto milioni di dollari di ordini a NVidia accettando tempi di consegna lunghi?

Mi ricorda Rambus/Transmeta che nel loro piccolo dovevano asfaltare le soluzioni sul mercato ma non è successo

Piedone1113
10-02-2024, 11:22
A parte che non so cosa voglia dire usare i suoi formati dati (2 o 4 bit) e se richieda conversioni ± onerose sugli algoritmi esistenti.

Se fosse vero quanto dichiarano e rispettati i tempi, ma sembra siano noti per i loro ritardi, perché i vari provider che stanno puntando sul IA hanno fatto milioni di dollari di ordini a NVidia accettando tempi di consegna lunghi?

Mi ricorda Rambus/Transmeta che nel loro piccolo dovevano asfaltare le soluzioni sul mercato ma non è successo

Dai transmeta con i sui vliw era promettente e tutto sommato valido ( anche per i costi), gli è mancata la potenza commerciale per ritagliarsi una buona fetta di mercato.
Su rambus concondo al 100%

supertigrotto
10-02-2024, 15:36
Se non è una bufala (come il caso Nikola) potrebbero avere creato un sistema molto efficiente,non è da escludere questa cosa,basta vedere come sono andate le cose per i Bitcoin,prima minati con le schede video e poi sono nati gli Asics,più veloci ed efficienti.
Ho cercato di leggere più articoli possibili sulla IA ed in effetti,le GPU non sono efficienti,solo efficaci,si usano solo perché è già pappa pronta al momento,per questo i nomi grossi stanno cercando di svilupparsi processori proprietari per svolgere i calcoli per la IA, che consumino meno energia e siano più veloci nello svolgere le operazioni.
Tachyum potrebbe sul serio aver creato un processore veramente efficiente per fare quel tipo di calcoli, probabilmente per svolgere altri compiti no ma quel tipo di calcoli che servono per la IA,potrebbe essere che la loro architettura sia veramente azzeccata.

LMCH
10-02-2024, 16:20
Tachyum inizialmente voleva realizzare una cpu ad alta efficienza con integrata un unità vettoriale molto ampia (1024 bit).
La prima versione (2018) era basata su una architettura VLIW, poi in base a quel che avevano ottenuto decisero di riprogettare il tutto (2022) con un architettura più convenzionale ma comunque con un decoder capace di inviare in esecuzione 8 istruzioni per ciclo, con jump prediction e teoricamente capace di superare i 5GHz di clock.
Per ora l'unica notizia positiva è che sembrano convinti di quello che hanno attualmente, ma fin quando non esce un prodotto testabile da terze parti c'è da essere scettici.

s12a
10-02-2024, 17:15
16 slot di memoria DDR5-6400 (~50 GB/s).
Se nel migliore dei casi avesse un controller di memoria a 16 canali, complessivamente sarebbero 800 GB/s di banda. Ottimo per un sistema DDR5, ma nulla di rivoluzionario.

Non è chiaro che cosa intendano esattamente per democratizzare in questo caso. È presentato come un server da inferenza, ma la banda di memoria non è molto elevata per tali usi. 52 NVidia H100 80GB offirebbero 3 TB/s di banda ciascuna (156 TB/s complessivamente).

ZeroSievert
10-02-2024, 22:44
Dipende cosa intendi per GPU. Le Nvidia enterprise (H100 e RTX ADA) hanno consumi relativamente bassi e possiedono core dedicati alle operazioni di IA su matrici (tecnologia Tensor di quarta generazione) in particolare con numeri piccoli ad ottimizzazione "opportunistica" (tecnologia Sparsity). Solo le AMD MI300 (non ancora rilasciate) si avvicinano in teoria alle stesse performance/watt con elaborazioni di IA. Gli acceleratori Gaudi di Intel/Habana che sono dedicati alla IA non sembrano avere prestazioni o efficienza paragonabili.

Interessante. Che performances e performances/watt hanno le Gooogle TPU rispetto a H100 e ADA?

LMCH
11-02-2024, 09:38
16 slot di memoria DDR5-6400 (~50 GB/s).
Se nel migliore dei casi avesse un controller di memoria a 16 canali, complessivamente sarebbero 800 GB/s di banda. Ottimo per un sistema DDR5, ma nulla di rivoluzionario.

Non è chiaro che cosa intendano esattamente per democratizzare in questo caso. È presentato come un server da inferenza, ma la banda di memoria non è molto elevata per tali usi. 52 NVidia H100 80GB offirebbero 3 TB/s di banda ciascuna (156 TB/s complessivamente).

Probabilmente pensano di avere un rapporto prestazioni/prezzo molto più alto.
Ad esempio, una scheda Tachyon Prodigy da 192 processori può moltare fino ad 1TB di ram, se il collo di bottiglia è la quantità di ram, sono circa 12 volte la ram massima di una singola H100.